[LLVMdev] loop vectorizer erroneously finds 256 bit vectors

Frank Winter fwinter at jlab.org
Sat Nov 9 20:50:57 PST 2013


The loop vectorizer is doing an amazing job so far. Most of the time.
I just came across one function which led to unexpected behavior:

On this function the loop vectorizer finds a 256 bit vector as the
wides vector type for the x86-64 architecture. (!)

This is strange, as it was always finding the correct size of 128 bit
as the widest type. I isolated the IR of the function to check if this
is reproducible outside of my application. And to my surprise it is!

If I run

opt -O1 -loop-vectorize -debug-only=loop-vectorize 
-vectorizer-min-trip-count=4 strange.ll -S

on the IR found below I get:

LV: Checking a loop in "main"
LV: Found a loop: L3
LV: Found an induction variable.
LV: We need to do 0 pointer comparisons.
LV: We don't need a runtime memory check.
LV: We can vectorize this loop!
LV: Found trip count: 4
LV: The Widest type: 32 bits.
LV: The Widest register is: 256 bits.

Wow, a Sandybridge processor with 256 bit SIMD?

The vectorizer carries on and figures that 8 would be the best to go for.

LV: Vector loop of width 8 costs: 38.
LV: Selecting VF = : 8.

I didn't look into the machine code but I guess there is something going 
wrong earlier.

I am wondering why it's reproducible and depending on the IR?!

PS When running with -O3 it still find 256 bit, but later decides that 
it's not worth
vectorizing.

Frank






target datalayout = 
"e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"

target triple = "x86_64-unknown-linux-elf"

define void @main(i64 %arg0, i64 %arg1, i64 %arg2, i1 %arg3, i64 %arg4, 
float* noalias %arg5, float* noalias %arg6, float* noalias %arg7, 
double* noalias %arg8) {
entrypoint:
   br i1 %arg3, label %L0, label %L1

L0:                                               ; preds = %entrypoint
   %0 = add nsw i64 %arg0, %arg4
   %1 = add nsw i64 %arg1, %arg4
   br label %L2

L1:                                               ; preds = %entrypoint
   br label %L2

L2:                                               ; preds = %L0, %L1
   %2 = phi i64 [ %arg0, %L1 ], [ %0, %L0 ]
   %3 = phi i64 [ %arg1, %L1 ], [ %1, %L0 ]
   %4 = sdiv i64 %2, 4
   %5 = sdiv i64 %3, 4
   br label %L5

L3:                                               ; preds = %L7, %L5
   %6 = phi i64 [ %528, %L7 ], [ 0, %L5 ]
   %7 = mul i64 %527, 4
   %8 = add nsw i64 %7, %6
   %9 = mul i64 %527, 1
   %10 = add nsw i64 %9, 0
   %11 = mul i64 %10, 9
   %12 = add nsw i64 %11, 0
   %13 = mul i64 %12, 2
   %14 = add nsw i64 %13, 0
   %15 = mul i64 %14, 4
   %16 = add nsw i64 %15, %6
   %17 = mul i64 %527, 4
   %18 = add nsw i64 %17, %6
   %19 = mul i64 %527, 1
   %20 = add nsw i64 %19, 0
   %21 = mul i64 %20, 9
   %22 = add nsw i64 %21, 0
   %23 = mul i64 %22, 2
   %24 = add nsw i64 %23, 1
   %25 = mul i64 %24, 4
   %26 = add nsw i64 %25, %6
   %27 = mul i64 %527, 4
   %28 = add nsw i64 %27, %6
   %29 = mul i64 %527, 1
   %30 = add nsw i64 %29, 0
   %31 = mul i64 %30, 9
   %32 = add nsw i64 %31, 1
   %33 = mul i64 %32, 2
   %34 = add nsw i64 %33, 0
   %35 = mul i64 %34, 4
   %36 = add nsw i64 %35, %6
   %37 = mul i64 %527, 4
   %38 = add nsw i64 %37, %6
   %39 = mul i64 %527, 1
   %40 = add nsw i64 %39, 0
   %41 = mul i64 %40, 9
   %42 = add nsw i64 %41, 1
   %43 = mul i64 %42, 2
   %44 = add nsw i64 %43, 1
   %45 = mul i64 %44, 4
   %46 = add nsw i64 %45, %6
   %47 = mul i64 %527, 4
   %48 = add nsw i64 %47, %6
   %49 = mul i64 %527, 1
   %50 = add nsw i64 %49, 0
   %51 = mul i64 %50, 9
   %52 = add nsw i64 %51, 2
   %53 = mul i64 %52, 2
   %54 = add nsw i64 %53, 0
   %55 = mul i64 %54, 4
   %56 = add nsw i64 %55, %6
   %57 = mul i64 %527, 4
   %58 = add nsw i64 %57, %6
   %59 = mul i64 %527, 1
   %60 = add nsw i64 %59, 0
   %61 = mul i64 %60, 9
   %62 = add nsw i64 %61, 2
   %63 = mul i64 %62, 2
   %64 = add nsw i64 %63, 1
   %65 = mul i64 %64, 4
   %66 = add nsw i64 %65, %6
   %67 = mul i64 %527, 4
   %68 = add nsw i64 %67, %6
   %69 = mul i64 %527, 1
   %70 = add nsw i64 %69, 0
   %71 = mul i64 %70, 9
   %72 = add nsw i64 %71, 3
   %73 = mul i64 %72, 2
   %74 = add nsw i64 %73, 0
   %75 = mul i64 %74, 4
   %76 = add nsw i64 %75, %6
   %77 = mul i64 %527, 4
   %78 = add nsw i64 %77, %6
   %79 = mul i64 %527, 1
   %80 = add nsw i64 %79, 0
   %81 = mul i64 %80, 9
   %82 = add nsw i64 %81, 3
   %83 = mul i64 %82, 2
   %84 = add nsw i64 %83, 1
   %85 = mul i64 %84, 4
   %86 = add nsw i64 %85, %6
   %87 = mul i64 %527, 4
   %88 = add nsw i64 %87, %6
   %89 = mul i64 %527, 1
   %90 = add nsw i64 %89, 0
   %91 = mul i64 %90, 9
   %92 = add nsw i64 %91, 4
   %93 = mul i64 %92, 2
   %94 = add nsw i64 %93, 0
   %95 = mul i64 %94, 4
   %96 = add nsw i64 %95, %6
   %97 = mul i64 %527, 4
   %98 = add nsw i64 %97, %6
   %99 = mul i64 %527, 1
   %100 = add nsw i64 %99, 0
   %101 = mul i64 %100, 9
   %102 = add nsw i64 %101, 4
   %103 = mul i64 %102, 2
   %104 = add nsw i64 %103, 1
   %105 = mul i64 %104, 4
   %106 = add nsw i64 %105, %6
   %107 = mul i64 %527, 4
   %108 = add nsw i64 %107, %6
   %109 = mul i64 %527, 1
   %110 = add nsw i64 %109, 0
   %111 = mul i64 %110, 9
   %112 = add nsw i64 %111, 5
   %113 = mul i64 %112, 2
   %114 = add nsw i64 %113, 0
   %115 = mul i64 %114, 4
   %116 = add nsw i64 %115, %6
   %117 = mul i64 %527, 4
   %118 = add nsw i64 %117, %6
   %119 = mul i64 %527, 1
   %120 = add nsw i64 %119, 0
   %121 = mul i64 %120, 9
   %122 = add nsw i64 %121, 5
   %123 = mul i64 %122, 2
   %124 = add nsw i64 %123, 1
   %125 = mul i64 %124, 4
   %126 = add nsw i64 %125, %6
   %127 = mul i64 %527, 4
   %128 = add nsw i64 %127, %6
   %129 = mul i64 %527, 1
   %130 = add nsw i64 %129, 0
   %131 = mul i64 %130, 9
   %132 = add nsw i64 %131, 6
   %133 = mul i64 %132, 2
   %134 = add nsw i64 %133, 0
   %135 = mul i64 %134, 4
   %136 = add nsw i64 %135, %6
   %137 = mul i64 %527, 4
   %138 = add nsw i64 %137, %6
   %139 = mul i64 %527, 1
   %140 = add nsw i64 %139, 0
   %141 = mul i64 %140, 9
   %142 = add nsw i64 %141, 6
   %143 = mul i64 %142, 2
   %144 = add nsw i64 %143, 1
   %145 = mul i64 %144, 4
   %146 = add nsw i64 %145, %6
   %147 = mul i64 %527, 4
   %148 = add nsw i64 %147, %6
   %149 = mul i64 %527, 1
   %150 = add nsw i64 %149, 0
   %151 = mul i64 %150, 9
   %152 = add nsw i64 %151, 7
   %153 = mul i64 %152, 2
   %154 = add nsw i64 %153, 0
   %155 = mul i64 %154, 4
   %156 = add nsw i64 %155, %6
   %157 = mul i64 %527, 4
   %158 = add nsw i64 %157, %6
   %159 = mul i64 %527, 1
   %160 = add nsw i64 %159, 0
   %161 = mul i64 %160, 9
   %162 = add nsw i64 %161, 7
   %163 = mul i64 %162, 2
   %164 = add nsw i64 %163, 1
   %165 = mul i64 %164, 4
   %166 = add nsw i64 %165, %6
   %167 = mul i64 %527, 4
   %168 = add nsw i64 %167, %6
   %169 = mul i64 %527, 1
   %170 = add nsw i64 %169, 0
   %171 = mul i64 %170, 9
   %172 = add nsw i64 %171, 8
   %173 = mul i64 %172, 2
   %174 = add nsw i64 %173, 0
   %175 = mul i64 %174, 4
   %176 = add nsw i64 %175, %6
   %177 = mul i64 %527, 4
   %178 = add nsw i64 %177, %6
   %179 = mul i64 %527, 1
   %180 = add nsw i64 %179, 0
   %181 = mul i64 %180, 9
   %182 = add nsw i64 %181, 8
   %183 = mul i64 %182, 2
   %184 = add nsw i64 %183, 1
   %185 = mul i64 %184, 4
   %186 = add nsw i64 %185, %6
   %187 = getelementptr float* %arg6, i64 %16
   %188 = load float* %187
   %189 = getelementptr float* %arg6, i64 %26
   %190 = load float* %189
   %191 = getelementptr float* %arg6, i64 %36
   %192 = load float* %191
   %193 = getelementptr float* %arg6, i64 %46
   %194 = load float* %193
   %195 = getelementptr float* %arg6, i64 %56
   %196 = load float* %195
   %197 = getelementptr float* %arg6, i64 %66
   %198 = load float* %197
   %199 = getelementptr float* %arg6, i64 %76
   %200 = load float* %199
   %201 = getelementptr float* %arg6, i64 %86
   %202 = load float* %201
   %203 = getelementptr float* %arg6, i64 %96
   %204 = load float* %203
   %205 = getelementptr float* %arg6, i64 %106
   %206 = load float* %205
   %207 = getelementptr float* %arg6, i64 %116
   %208 = load float* %207
   %209 = getelementptr float* %arg6, i64 %126
   %210 = load float* %209
   %211 = getelementptr float* %arg6, i64 %136
   %212 = load float* %211
   %213 = getelementptr float* %arg6, i64 %146
   %214 = load float* %213
   %215 = getelementptr float* %arg6, i64 %156
   %216 = load float* %215
   %217 = getelementptr float* %arg6, i64 %166
   %218 = load float* %217
   %219 = getelementptr float* %arg6, i64 %176
   %220 = load float* %219
   %221 = getelementptr float* %arg6, i64 %186
   %222 = load float* %221
   %223 = mul i64 %527, 4
   %224 = add nsw i64 %223, %6
   %225 = mul i64 %527, 1
   %226 = add nsw i64 %225, 0
   %227 = mul i64 %226, 9
   %228 = add nsw i64 %227, 0
   %229 = mul i64 %228, 2
   %230 = add nsw i64 %229, 0
   %231 = mul i64 %230, 4
   %232 = add nsw i64 %231, %6
   %233 = mul i64 %527, 4
   %234 = add nsw i64 %233, %6
   %235 = mul i64 %527, 1
   %236 = add nsw i64 %235, 0
   %237 = mul i64 %236, 9
   %238 = add nsw i64 %237, 0
   %239 = mul i64 %238, 2
   %240 = add nsw i64 %239, 1
   %241 = mul i64 %240, 4
   %242 = add nsw i64 %241, %6
   %243 = mul i64 %527, 4
   %244 = add nsw i64 %243, %6
   %245 = mul i64 %527, 1
   %246 = add nsw i64 %245, 0
   %247 = mul i64 %246, 9
   %248 = add nsw i64 %247, 1
   %249 = mul i64 %248, 2
   %250 = add nsw i64 %249, 0
   %251 = mul i64 %250, 4
   %252 = add nsw i64 %251, %6
   %253 = mul i64 %527, 4
   %254 = add nsw i64 %253, %6
   %255 = mul i64 %527, 1
   %256 = add nsw i64 %255, 0
   %257 = mul i64 %256, 9
   %258 = add nsw i64 %257, 1
   %259 = mul i64 %258, 2
   %260 = add nsw i64 %259, 1
   %261 = mul i64 %260, 4
   %262 = add nsw i64 %261, %6
   %263 = mul i64 %527, 4
   %264 = add nsw i64 %263, %6
   %265 = mul i64 %527, 1
   %266 = add nsw i64 %265, 0
   %267 = mul i64 %266, 9
   %268 = add nsw i64 %267, 2
   %269 = mul i64 %268, 2
   %270 = add nsw i64 %269, 0
   %271 = mul i64 %270, 4
   %272 = add nsw i64 %271, %6
   %273 = mul i64 %527, 4
   %274 = add nsw i64 %273, %6
   %275 = mul i64 %527, 1
   %276 = add nsw i64 %275, 0
   %277 = mul i64 %276, 9
   %278 = add nsw i64 %277, 2
   %279 = mul i64 %278, 2
   %280 = add nsw i64 %279, 1
   %281 = mul i64 %280, 4
   %282 = add nsw i64 %281, %6
   %283 = mul i64 %527, 4
   %284 = add nsw i64 %283, %6
   %285 = mul i64 %527, 1
   %286 = add nsw i64 %285, 0
   %287 = mul i64 %286, 9
   %288 = add nsw i64 %287, 3
   %289 = mul i64 %288, 2
   %290 = add nsw i64 %289, 0
   %291 = mul i64 %290, 4
   %292 = add nsw i64 %291, %6
   %293 = mul i64 %527, 4
   %294 = add nsw i64 %293, %6
   %295 = mul i64 %527, 1
   %296 = add nsw i64 %295, 0
   %297 = mul i64 %296, 9
   %298 = add nsw i64 %297, 3
   %299 = mul i64 %298, 2
   %300 = add nsw i64 %299, 1
   %301 = mul i64 %300, 4
   %302 = add nsw i64 %301, %6
   %303 = mul i64 %527, 4
   %304 = add nsw i64 %303, %6
   %305 = mul i64 %527, 1
   %306 = add nsw i64 %305, 0
   %307 = mul i64 %306, 9
   %308 = add nsw i64 %307, 4
   %309 = mul i64 %308, 2
   %310 = add nsw i64 %309, 0
   %311 = mul i64 %310, 4
   %312 = add nsw i64 %311, %6
   %313 = mul i64 %527, 4
   %314 = add nsw i64 %313, %6
   %315 = mul i64 %527, 1
   %316 = add nsw i64 %315, 0
   %317 = mul i64 %316, 9
   %318 = add nsw i64 %317, 4
   %319 = mul i64 %318, 2
   %320 = add nsw i64 %319, 1
   %321 = mul i64 %320, 4
   %322 = add nsw i64 %321, %6
   %323 = mul i64 %527, 4
   %324 = add nsw i64 %323, %6
   %325 = mul i64 %527, 1
   %326 = add nsw i64 %325, 0
   %327 = mul i64 %326, 9
   %328 = add nsw i64 %327, 5
   %329 = mul i64 %328, 2
   %330 = add nsw i64 %329, 0
   %331 = mul i64 %330, 4
   %332 = add nsw i64 %331, %6
   %333 = mul i64 %527, 4
   %334 = add nsw i64 %333, %6
   %335 = mul i64 %527, 1
   %336 = add nsw i64 %335, 0
   %337 = mul i64 %336, 9
   %338 = add nsw i64 %337, 5
   %339 = mul i64 %338, 2
   %340 = add nsw i64 %339, 1
   %341 = mul i64 %340, 4
   %342 = add nsw i64 %341, %6
   %343 = mul i64 %527, 4
   %344 = add nsw i64 %343, %6
   %345 = mul i64 %527, 1
   %346 = add nsw i64 %345, 0
   %347 = mul i64 %346, 9
   %348 = add nsw i64 %347, 6
   %349 = mul i64 %348, 2
   %350 = add nsw i64 %349, 0
   %351 = mul i64 %350, 4
   %352 = add nsw i64 %351, %6
   %353 = mul i64 %527, 4
   %354 = add nsw i64 %353, %6
   %355 = mul i64 %527, 1
   %356 = add nsw i64 %355, 0
   %357 = mul i64 %356, 9
   %358 = add nsw i64 %357, 6
   %359 = mul i64 %358, 2
   %360 = add nsw i64 %359, 1
   %361 = mul i64 %360, 4
   %362 = add nsw i64 %361, %6
   %363 = mul i64 %527, 4
   %364 = add nsw i64 %363, %6
   %365 = mul i64 %527, 1
   %366 = add nsw i64 %365, 0
   %367 = mul i64 %366, 9
   %368 = add nsw i64 %367, 7
   %369 = mul i64 %368, 2
   %370 = add nsw i64 %369, 0
   %371 = mul i64 %370, 4
   %372 = add nsw i64 %371, %6
   %373 = mul i64 %527, 4
   %374 = add nsw i64 %373, %6
   %375 = mul i64 %527, 1
   %376 = add nsw i64 %375, 0
   %377 = mul i64 %376, 9
   %378 = add nsw i64 %377, 7
   %379 = mul i64 %378, 2
   %380 = add nsw i64 %379, 1
   %381 = mul i64 %380, 4
   %382 = add nsw i64 %381, %6
   %383 = mul i64 %527, 4
   %384 = add nsw i64 %383, %6
   %385 = mul i64 %527, 1
   %386 = add nsw i64 %385, 0
   %387 = mul i64 %386, 9
   %388 = add nsw i64 %387, 8
   %389 = mul i64 %388, 2
   %390 = add nsw i64 %389, 0
   %391 = mul i64 %390, 4
   %392 = add nsw i64 %391, %6
   %393 = mul i64 %527, 4
   %394 = add nsw i64 %393, %6
   %395 = mul i64 %527, 1
   %396 = add nsw i64 %395, 0
   %397 = mul i64 %396, 9
   %398 = add nsw i64 %397, 8
   %399 = mul i64 %398, 2
   %400 = add nsw i64 %399, 1
   %401 = mul i64 %400, 4
   %402 = add nsw i64 %401, %6
   %403 = getelementptr float* %arg7, i64 %232
   %404 = load float* %403
   %405 = getelementptr float* %arg7, i64 %242
   %406 = load float* %405
   %407 = getelementptr float* %arg7, i64 %252
   %408 = load float* %407
   %409 = getelementptr float* %arg7, i64 %262
   %410 = load float* %409
   %411 = getelementptr float* %arg7, i64 %272
   %412 = load float* %411
   %413 = getelementptr float* %arg7, i64 %282
   %414 = load float* %413
   %415 = getelementptr float* %arg7, i64 %292
   %416 = load float* %415
   %417 = getelementptr float* %arg7, i64 %302
   %418 = load float* %417
   %419 = getelementptr float* %arg7, i64 %312
   %420 = load float* %419
   %421 = getelementptr float* %arg7, i64 %322
   %422 = load float* %421
   %423 = getelementptr float* %arg7, i64 %332
   %424 = load float* %423
   %425 = getelementptr float* %arg7, i64 %342
   %426 = load float* %425
   %427 = getelementptr float* %arg7, i64 %352
   %428 = load float* %427
   %429 = getelementptr float* %arg7, i64 %362
   %430 = load float* %429
   %431 = getelementptr float* %arg7, i64 %372
   %432 = load float* %431
   %433 = getelementptr float* %arg7, i64 %382
   %434 = load float* %433
   %435 = getelementptr float* %arg7, i64 %392
   %436 = load float* %435
   %437 = getelementptr float* %arg7, i64 %402
   %438 = load float* %437
   %439 = fmul float %406, %188
   %440 = fmul float %404, %190
   %441 = fadd float %440, %439
   %442 = fmul float %406, %190
   %443 = fmul float %404, %188
   %444 = fsub float %443, %442
   %445 = fmul float %410, %200
   %446 = fmul float %408, %202
   %447 = fadd float %446, %445
   %448 = fmul float %410, %202
   %449 = fmul float %408, %200
   %450 = fsub float %449, %448
   %451 = fadd float %444, %450
   %452 = fadd float %441, %447
   %453 = fmul float %414, %212
   %454 = fmul float %412, %214
   %455 = fadd float %454, %453
   %456 = fmul float %414, %214
   %457 = fmul float %412, %212
   %458 = fsub float %457, %456
   %459 = fadd float %451, %458
   %460 = fadd float %452, %455
   %461 = fmul float %418, %192
   %462 = fmul float %416, %194
   %463 = fadd float %462, %461
   %464 = fmul float %418, %194
   %465 = fmul float %416, %192
   %466 = fsub float %465, %464
   %467 = fadd float %459, %466
   %468 = fadd float %460, %463
   %469 = fmul float %422, %204
   %470 = fmul float %420, %206
   %471 = fadd float %470, %469
   %472 = fmul float %422, %206
   %473 = fmul float %420, %204
   %474 = fsub float %473, %472
   %475 = fadd float %467, %474
   %476 = fadd float %468, %471
   %477 = fmul float %426, %216
   %478 = fmul float %424, %218
   %479 = fadd float %478, %477
   %480 = fmul float %426, %218
   %481 = fmul float %424, %216
   %482 = fsub float %481, %480
   %483 = fadd float %475, %482
   %484 = fadd float %476, %479
   %485 = fmul float %430, %196
   %486 = fmul float %428, %198
   %487 = fadd float %486, %485
   %488 = fmul float %430, %198
   %489 = fmul float %428, %196
   %490 = fsub float %489, %488
   %491 = fadd float %483, %490
   %492 = fadd float %484, %487
   %493 = fmul float %434, %208
   %494 = fmul float %432, %210
   %495 = fadd float %494, %493
   %496 = fmul float %434, %210
   %497 = fmul float %432, %208
   %498 = fsub float %497, %496
   %499 = fadd float %491, %498
   %500 = fadd float %492, %495
   %501 = fmul float %438, %220
   %502 = fmul float %436, %222
   %503 = fadd float %502, %501
   %504 = fmul float %438, %222
   %505 = fmul float %436, %220
   %506 = fsub float %505, %504
   %507 = fadd float %499, %506
   %508 = fadd float %500, %503
   %509 = getelementptr double* %arg8, i32 0
   %510 = load double* %509
   %511 = fpext float %507 to double
   %512 = fmul double %510, %511
   %513 = mul i64 %527, 4
   %514 = add nsw i64 %513, %6
   %515 = mul i64 %527, 1
   %516 = add nsw i64 %515, 0
   %517 = mul i64 %516, 1
   %518 = add nsw i64 %517, 0
   %519 = mul i64 %518, 1
   %520 = add nsw i64 %519, 0
   %521 = mul i64 %520, 4
   %522 = add nsw i64 %521, %6
   %523 = getelementptr float* %arg5, i64 %522
   %524 = fptrunc double %512 to float
   store float %524, float* %523
   br label %L7

L4:                                               ; preds = %L7
   %525 = add nsw i64 %527, 1
   %526 = icmp sge i64 %525, %5
   br i1 %526, label %L6, label %L5

L5:                                               ; preds = %L4, %L2
   %527 = phi i64 [ %525, %L4 ], [ %4, %L2 ]
   br label %L3

L6:                                               ; preds = %L4
   ret void

L7:                                               ; preds = %L3
   %528 = add nsw i64 %6, 1
   %529 = icmp sge i64 %528, 4
   br i1 %529, label %L4, label %L3
}






More information about the llvm-dev mailing list