[LLVMdev] loop vectorizer erroneously finds 256 bit vectors

Frank Winter fwinter at jlab.org
Sun Nov 10 06:05:18 PST 2013


I looked more into this. For the previously sent IR the vector width of 
256 bit is found mistakenly (and reproducibly) on this hardware:

model name    : Intel(R) Xeon(R) CPU E5-2650 0 @ 2.00GHz

For the same IR the loop vectorizer finds the correct vector width (128 
bit) on:

model name    : Intel(R) Xeon(R) CPU           E5630  @ 2.53GHz
model name    : Intel(R) Core(TM) i7 CPU       M 640  @ 2.80GHz

Thus, the behavior depends on which hardware I run on.

I am using the JIT execution engine (original interface).

Frank


On 09/11/13 23:50, Frank Winter wrote:
> The loop vectorizer is doing an amazing job so far. Most of the time.
> I just came across one function which led to unexpected behavior:
>
> On this function the loop vectorizer finds a 256 bit vector as the
> wides vector type for the x86-64 architecture. (!)
>
> This is strange, as it was always finding the correct size of 128 bit
> as the widest type. I isolated the IR of the function to check if this
> is reproducible outside of my application. And to my surprise it is!
>
> If I run
>
> opt -O1 -loop-vectorize -debug-only=loop-vectorize 
> -vectorizer-min-trip-count=4 strange.ll -S
>
> on the IR found below I get:
>
> LV: Checking a loop in "main"
> LV: Found a loop: L3
> LV: Found an induction variable.
> LV: We need to do 0 pointer comparisons.
> LV: We don't need a runtime memory check.
> LV: We can vectorize this loop!
> LV: Found trip count: 4
> LV: The Widest type: 32 bits.
> LV: The Widest register is: 256 bits.
>
> Wow, a Sandybridge processor with 256 bit SIMD?
>
> The vectorizer carries on and figures that 8 would be the best to go for.
>
> LV: Vector loop of width 8 costs: 38.
> LV: Selecting VF = : 8.
>
> I didn't look into the machine code but I guess there is something 
> going wrong earlier.
>
> I am wondering why it's reproducible and depending on the IR?!
>
> PS When running with -O3 it still find 256 bit, but later decides that 
> it's not worth
> vectorizing.
>
> Frank
>
>
>
>
>
>
> target datalayout = 
> "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
>
> target triple = "x86_64-unknown-linux-elf"
>
> define void @main(i64 %arg0, i64 %arg1, i64 %arg2, i1 %arg3, i64 
> %arg4, float* noalias %arg5, float* noalias %arg6, float* noalias 
> %arg7, double* noalias %arg8) {
> entrypoint:
>   br i1 %arg3, label %L0, label %L1
>
> L0:                                               ; preds = %entrypoint
>   %0 = add nsw i64 %arg0, %arg4
>   %1 = add nsw i64 %arg1, %arg4
>   br label %L2
>
> L1:                                               ; preds = %entrypoint
>   br label %L2
>
> L2:                                               ; preds = %L0, %L1
>   %2 = phi i64 [ %arg0, %L1 ], [ %0, %L0 ]
>   %3 = phi i64 [ %arg1, %L1 ], [ %1, %L0 ]
>   %4 = sdiv i64 %2, 4
>   %5 = sdiv i64 %3, 4
>   br label %L5
>
> L3:                                               ; preds = %L7, %L5
>   %6 = phi i64 [ %528, %L7 ], [ 0, %L5 ]
>   %7 = mul i64 %527, 4
>   %8 = add nsw i64 %7, %6
>   %9 = mul i64 %527, 1
>   %10 = add nsw i64 %9, 0
>   %11 = mul i64 %10, 9
>   %12 = add nsw i64 %11, 0
>   %13 = mul i64 %12, 2
>   %14 = add nsw i64 %13, 0
>   %15 = mul i64 %14, 4
>   %16 = add nsw i64 %15, %6
>   %17 = mul i64 %527, 4
>   %18 = add nsw i64 %17, %6
>   %19 = mul i64 %527, 1
>   %20 = add nsw i64 %19, 0
>   %21 = mul i64 %20, 9
>   %22 = add nsw i64 %21, 0
>   %23 = mul i64 %22, 2
>   %24 = add nsw i64 %23, 1
>   %25 = mul i64 %24, 4
>   %26 = add nsw i64 %25, %6
>   %27 = mul i64 %527, 4
>   %28 = add nsw i64 %27, %6
>   %29 = mul i64 %527, 1
>   %30 = add nsw i64 %29, 0
>   %31 = mul i64 %30, 9
>   %32 = add nsw i64 %31, 1
>   %33 = mul i64 %32, 2
>   %34 = add nsw i64 %33, 0
>   %35 = mul i64 %34, 4
>   %36 = add nsw i64 %35, %6
>   %37 = mul i64 %527, 4
>   %38 = add nsw i64 %37, %6
>   %39 = mul i64 %527, 1
>   %40 = add nsw i64 %39, 0
>   %41 = mul i64 %40, 9
>   %42 = add nsw i64 %41, 1
>   %43 = mul i64 %42, 2
>   %44 = add nsw i64 %43, 1
>   %45 = mul i64 %44, 4
>   %46 = add nsw i64 %45, %6
>   %47 = mul i64 %527, 4
>   %48 = add nsw i64 %47, %6
>   %49 = mul i64 %527, 1
>   %50 = add nsw i64 %49, 0
>   %51 = mul i64 %50, 9
>   %52 = add nsw i64 %51, 2
>   %53 = mul i64 %52, 2
>   %54 = add nsw i64 %53, 0
>   %55 = mul i64 %54, 4
>   %56 = add nsw i64 %55, %6
>   %57 = mul i64 %527, 4
>   %58 = add nsw i64 %57, %6
>   %59 = mul i64 %527, 1
>   %60 = add nsw i64 %59, 0
>   %61 = mul i64 %60, 9
>   %62 = add nsw i64 %61, 2
>   %63 = mul i64 %62, 2
>   %64 = add nsw i64 %63, 1
>   %65 = mul i64 %64, 4
>   %66 = add nsw i64 %65, %6
>   %67 = mul i64 %527, 4
>   %68 = add nsw i64 %67, %6
>   %69 = mul i64 %527, 1
>   %70 = add nsw i64 %69, 0
>   %71 = mul i64 %70, 9
>   %72 = add nsw i64 %71, 3
>   %73 = mul i64 %72, 2
>   %74 = add nsw i64 %73, 0
>   %75 = mul i64 %74, 4
>   %76 = add nsw i64 %75, %6
>   %77 = mul i64 %527, 4
>   %78 = add nsw i64 %77, %6
>   %79 = mul i64 %527, 1
>   %80 = add nsw i64 %79, 0
>   %81 = mul i64 %80, 9
>   %82 = add nsw i64 %81, 3
>   %83 = mul i64 %82, 2
>   %84 = add nsw i64 %83, 1
>   %85 = mul i64 %84, 4
>   %86 = add nsw i64 %85, %6
>   %87 = mul i64 %527, 4
>   %88 = add nsw i64 %87, %6
>   %89 = mul i64 %527, 1
>   %90 = add nsw i64 %89, 0
>   %91 = mul i64 %90, 9
>   %92 = add nsw i64 %91, 4
>   %93 = mul i64 %92, 2
>   %94 = add nsw i64 %93, 0
>   %95 = mul i64 %94, 4
>   %96 = add nsw i64 %95, %6
>   %97 = mul i64 %527, 4
>   %98 = add nsw i64 %97, %6
>   %99 = mul i64 %527, 1
>   %100 = add nsw i64 %99, 0
>   %101 = mul i64 %100, 9
>   %102 = add nsw i64 %101, 4
>   %103 = mul i64 %102, 2
>   %104 = add nsw i64 %103, 1
>   %105 = mul i64 %104, 4
>   %106 = add nsw i64 %105, %6
>   %107 = mul i64 %527, 4
>   %108 = add nsw i64 %107, %6
>   %109 = mul i64 %527, 1
>   %110 = add nsw i64 %109, 0
>   %111 = mul i64 %110, 9
>   %112 = add nsw i64 %111, 5
>   %113 = mul i64 %112, 2
>   %114 = add nsw i64 %113, 0
>   %115 = mul i64 %114, 4
>   %116 = add nsw i64 %115, %6
>   %117 = mul i64 %527, 4
>   %118 = add nsw i64 %117, %6
>   %119 = mul i64 %527, 1
>   %120 = add nsw i64 %119, 0
>   %121 = mul i64 %120, 9
>   %122 = add nsw i64 %121, 5
>   %123 = mul i64 %122, 2
>   %124 = add nsw i64 %123, 1
>   %125 = mul i64 %124, 4
>   %126 = add nsw i64 %125, %6
>   %127 = mul i64 %527, 4
>   %128 = add nsw i64 %127, %6
>   %129 = mul i64 %527, 1
>   %130 = add nsw i64 %129, 0
>   %131 = mul i64 %130, 9
>   %132 = add nsw i64 %131, 6
>   %133 = mul i64 %132, 2
>   %134 = add nsw i64 %133, 0
>   %135 = mul i64 %134, 4
>   %136 = add nsw i64 %135, %6
>   %137 = mul i64 %527, 4
>   %138 = add nsw i64 %137, %6
>   %139 = mul i64 %527, 1
>   %140 = add nsw i64 %139, 0
>   %141 = mul i64 %140, 9
>   %142 = add nsw i64 %141, 6
>   %143 = mul i64 %142, 2
>   %144 = add nsw i64 %143, 1
>   %145 = mul i64 %144, 4
>   %146 = add nsw i64 %145, %6
>   %147 = mul i64 %527, 4
>   %148 = add nsw i64 %147, %6
>   %149 = mul i64 %527, 1
>   %150 = add nsw i64 %149, 0
>   %151 = mul i64 %150, 9
>   %152 = add nsw i64 %151, 7
>   %153 = mul i64 %152, 2
>   %154 = add nsw i64 %153, 0
>   %155 = mul i64 %154, 4
>   %156 = add nsw i64 %155, %6
>   %157 = mul i64 %527, 4
>   %158 = add nsw i64 %157, %6
>   %159 = mul i64 %527, 1
>   %160 = add nsw i64 %159, 0
>   %161 = mul i64 %160, 9
>   %162 = add nsw i64 %161, 7
>   %163 = mul i64 %162, 2
>   %164 = add nsw i64 %163, 1
>   %165 = mul i64 %164, 4
>   %166 = add nsw i64 %165, %6
>   %167 = mul i64 %527, 4
>   %168 = add nsw i64 %167, %6
>   %169 = mul i64 %527, 1
>   %170 = add nsw i64 %169, 0
>   %171 = mul i64 %170, 9
>   %172 = add nsw i64 %171, 8
>   %173 = mul i64 %172, 2
>   %174 = add nsw i64 %173, 0
>   %175 = mul i64 %174, 4
>   %176 = add nsw i64 %175, %6
>   %177 = mul i64 %527, 4
>   %178 = add nsw i64 %177, %6
>   %179 = mul i64 %527, 1
>   %180 = add nsw i64 %179, 0
>   %181 = mul i64 %180, 9
>   %182 = add nsw i64 %181, 8
>   %183 = mul i64 %182, 2
>   %184 = add nsw i64 %183, 1
>   %185 = mul i64 %184, 4
>   %186 = add nsw i64 %185, %6
>   %187 = getelementptr float* %arg6, i64 %16
>   %188 = load float* %187
>   %189 = getelementptr float* %arg6, i64 %26
>   %190 = load float* %189
>   %191 = getelementptr float* %arg6, i64 %36
>   %192 = load float* %191
>   %193 = getelementptr float* %arg6, i64 %46
>   %194 = load float* %193
>   %195 = getelementptr float* %arg6, i64 %56
>   %196 = load float* %195
>   %197 = getelementptr float* %arg6, i64 %66
>   %198 = load float* %197
>   %199 = getelementptr float* %arg6, i64 %76
>   %200 = load float* %199
>   %201 = getelementptr float* %arg6, i64 %86
>   %202 = load float* %201
>   %203 = getelementptr float* %arg6, i64 %96
>   %204 = load float* %203
>   %205 = getelementptr float* %arg6, i64 %106
>   %206 = load float* %205
>   %207 = getelementptr float* %arg6, i64 %116
>   %208 = load float* %207
>   %209 = getelementptr float* %arg6, i64 %126
>   %210 = load float* %209
>   %211 = getelementptr float* %arg6, i64 %136
>   %212 = load float* %211
>   %213 = getelementptr float* %arg6, i64 %146
>   %214 = load float* %213
>   %215 = getelementptr float* %arg6, i64 %156
>   %216 = load float* %215
>   %217 = getelementptr float* %arg6, i64 %166
>   %218 = load float* %217
>   %219 = getelementptr float* %arg6, i64 %176
>   %220 = load float* %219
>   %221 = getelementptr float* %arg6, i64 %186
>   %222 = load float* %221
>   %223 = mul i64 %527, 4
>   %224 = add nsw i64 %223, %6
>   %225 = mul i64 %527, 1
>   %226 = add nsw i64 %225, 0
>   %227 = mul i64 %226, 9
>   %228 = add nsw i64 %227, 0
>   %229 = mul i64 %228, 2
>   %230 = add nsw i64 %229, 0
>   %231 = mul i64 %230, 4
>   %232 = add nsw i64 %231, %6
>   %233 = mul i64 %527, 4
>   %234 = add nsw i64 %233, %6
>   %235 = mul i64 %527, 1
>   %236 = add nsw i64 %235, 0
>   %237 = mul i64 %236, 9
>   %238 = add nsw i64 %237, 0
>   %239 = mul i64 %238, 2
>   %240 = add nsw i64 %239, 1
>   %241 = mul i64 %240, 4
>   %242 = add nsw i64 %241, %6
>   %243 = mul i64 %527, 4
>   %244 = add nsw i64 %243, %6
>   %245 = mul i64 %527, 1
>   %246 = add nsw i64 %245, 0
>   %247 = mul i64 %246, 9
>   %248 = add nsw i64 %247, 1
>   %249 = mul i64 %248, 2
>   %250 = add nsw i64 %249, 0
>   %251 = mul i64 %250, 4
>   %252 = add nsw i64 %251, %6
>   %253 = mul i64 %527, 4
>   %254 = add nsw i64 %253, %6
>   %255 = mul i64 %527, 1
>   %256 = add nsw i64 %255, 0
>   %257 = mul i64 %256, 9
>   %258 = add nsw i64 %257, 1
>   %259 = mul i64 %258, 2
>   %260 = add nsw i64 %259, 1
>   %261 = mul i64 %260, 4
>   %262 = add nsw i64 %261, %6
>   %263 = mul i64 %527, 4
>   %264 = add nsw i64 %263, %6
>   %265 = mul i64 %527, 1
>   %266 = add nsw i64 %265, 0
>   %267 = mul i64 %266, 9
>   %268 = add nsw i64 %267, 2
>   %269 = mul i64 %268, 2
>   %270 = add nsw i64 %269, 0
>   %271 = mul i64 %270, 4
>   %272 = add nsw i64 %271, %6
>   %273 = mul i64 %527, 4
>   %274 = add nsw i64 %273, %6
>   %275 = mul i64 %527, 1
>   %276 = add nsw i64 %275, 0
>   %277 = mul i64 %276, 9
>   %278 = add nsw i64 %277, 2
>   %279 = mul i64 %278, 2
>   %280 = add nsw i64 %279, 1
>   %281 = mul i64 %280, 4
>   %282 = add nsw i64 %281, %6
>   %283 = mul i64 %527, 4
>   %284 = add nsw i64 %283, %6
>   %285 = mul i64 %527, 1
>   %286 = add nsw i64 %285, 0
>   %287 = mul i64 %286, 9
>   %288 = add nsw i64 %287, 3
>   %289 = mul i64 %288, 2
>   %290 = add nsw i64 %289, 0
>   %291 = mul i64 %290, 4
>   %292 = add nsw i64 %291, %6
>   %293 = mul i64 %527, 4
>   %294 = add nsw i64 %293, %6
>   %295 = mul i64 %527, 1
>   %296 = add nsw i64 %295, 0
>   %297 = mul i64 %296, 9
>   %298 = add nsw i64 %297, 3
>   %299 = mul i64 %298, 2
>   %300 = add nsw i64 %299, 1
>   %301 = mul i64 %300, 4
>   %302 = add nsw i64 %301, %6
>   %303 = mul i64 %527, 4
>   %304 = add nsw i64 %303, %6
>   %305 = mul i64 %527, 1
>   %306 = add nsw i64 %305, 0
>   %307 = mul i64 %306, 9
>   %308 = add nsw i64 %307, 4
>   %309 = mul i64 %308, 2
>   %310 = add nsw i64 %309, 0
>   %311 = mul i64 %310, 4
>   %312 = add nsw i64 %311, %6
>   %313 = mul i64 %527, 4
>   %314 = add nsw i64 %313, %6
>   %315 = mul i64 %527, 1
>   %316 = add nsw i64 %315, 0
>   %317 = mul i64 %316, 9
>   %318 = add nsw i64 %317, 4
>   %319 = mul i64 %318, 2
>   %320 = add nsw i64 %319, 1
>   %321 = mul i64 %320, 4
>   %322 = add nsw i64 %321, %6
>   %323 = mul i64 %527, 4
>   %324 = add nsw i64 %323, %6
>   %325 = mul i64 %527, 1
>   %326 = add nsw i64 %325, 0
>   %327 = mul i64 %326, 9
>   %328 = add nsw i64 %327, 5
>   %329 = mul i64 %328, 2
>   %330 = add nsw i64 %329, 0
>   %331 = mul i64 %330, 4
>   %332 = add nsw i64 %331, %6
>   %333 = mul i64 %527, 4
>   %334 = add nsw i64 %333, %6
>   %335 = mul i64 %527, 1
>   %336 = add nsw i64 %335, 0
>   %337 = mul i64 %336, 9
>   %338 = add nsw i64 %337, 5
>   %339 = mul i64 %338, 2
>   %340 = add nsw i64 %339, 1
>   %341 = mul i64 %340, 4
>   %342 = add nsw i64 %341, %6
>   %343 = mul i64 %527, 4
>   %344 = add nsw i64 %343, %6
>   %345 = mul i64 %527, 1
>   %346 = add nsw i64 %345, 0
>   %347 = mul i64 %346, 9
>   %348 = add nsw i64 %347, 6
>   %349 = mul i64 %348, 2
>   %350 = add nsw i64 %349, 0
>   %351 = mul i64 %350, 4
>   %352 = add nsw i64 %351, %6
>   %353 = mul i64 %527, 4
>   %354 = add nsw i64 %353, %6
>   %355 = mul i64 %527, 1
>   %356 = add nsw i64 %355, 0
>   %357 = mul i64 %356, 9
>   %358 = add nsw i64 %357, 6
>   %359 = mul i64 %358, 2
>   %360 = add nsw i64 %359, 1
>   %361 = mul i64 %360, 4
>   %362 = add nsw i64 %361, %6
>   %363 = mul i64 %527, 4
>   %364 = add nsw i64 %363, %6
>   %365 = mul i64 %527, 1
>   %366 = add nsw i64 %365, 0
>   %367 = mul i64 %366, 9
>   %368 = add nsw i64 %367, 7
>   %369 = mul i64 %368, 2
>   %370 = add nsw i64 %369, 0
>   %371 = mul i64 %370, 4
>   %372 = add nsw i64 %371, %6
>   %373 = mul i64 %527, 4
>   %374 = add nsw i64 %373, %6
>   %375 = mul i64 %527, 1
>   %376 = add nsw i64 %375, 0
>   %377 = mul i64 %376, 9
>   %378 = add nsw i64 %377, 7
>   %379 = mul i64 %378, 2
>   %380 = add nsw i64 %379, 1
>   %381 = mul i64 %380, 4
>   %382 = add nsw i64 %381, %6
>   %383 = mul i64 %527, 4
>   %384 = add nsw i64 %383, %6
>   %385 = mul i64 %527, 1
>   %386 = add nsw i64 %385, 0
>   %387 = mul i64 %386, 9
>   %388 = add nsw i64 %387, 8
>   %389 = mul i64 %388, 2
>   %390 = add nsw i64 %389, 0
>   %391 = mul i64 %390, 4
>   %392 = add nsw i64 %391, %6
>   %393 = mul i64 %527, 4
>   %394 = add nsw i64 %393, %6
>   %395 = mul i64 %527, 1
>   %396 = add nsw i64 %395, 0
>   %397 = mul i64 %396, 9
>   %398 = add nsw i64 %397, 8
>   %399 = mul i64 %398, 2
>   %400 = add nsw i64 %399, 1
>   %401 = mul i64 %400, 4
>   %402 = add nsw i64 %401, %6
>   %403 = getelementptr float* %arg7, i64 %232
>   %404 = load float* %403
>   %405 = getelementptr float* %arg7, i64 %242
>   %406 = load float* %405
>   %407 = getelementptr float* %arg7, i64 %252
>   %408 = load float* %407
>   %409 = getelementptr float* %arg7, i64 %262
>   %410 = load float* %409
>   %411 = getelementptr float* %arg7, i64 %272
>   %412 = load float* %411
>   %413 = getelementptr float* %arg7, i64 %282
>   %414 = load float* %413
>   %415 = getelementptr float* %arg7, i64 %292
>   %416 = load float* %415
>   %417 = getelementptr float* %arg7, i64 %302
>   %418 = load float* %417
>   %419 = getelementptr float* %arg7, i64 %312
>   %420 = load float* %419
>   %421 = getelementptr float* %arg7, i64 %322
>   %422 = load float* %421
>   %423 = getelementptr float* %arg7, i64 %332
>   %424 = load float* %423
>   %425 = getelementptr float* %arg7, i64 %342
>   %426 = load float* %425
>   %427 = getelementptr float* %arg7, i64 %352
>   %428 = load float* %427
>   %429 = getelementptr float* %arg7, i64 %362
>   %430 = load float* %429
>   %431 = getelementptr float* %arg7, i64 %372
>   %432 = load float* %431
>   %433 = getelementptr float* %arg7, i64 %382
>   %434 = load float* %433
>   %435 = getelementptr float* %arg7, i64 %392
>   %436 = load float* %435
>   %437 = getelementptr float* %arg7, i64 %402
>   %438 = load float* %437
>   %439 = fmul float %406, %188
>   %440 = fmul float %404, %190
>   %441 = fadd float %440, %439
>   %442 = fmul float %406, %190
>   %443 = fmul float %404, %188
>   %444 = fsub float %443, %442
>   %445 = fmul float %410, %200
>   %446 = fmul float %408, %202
>   %447 = fadd float %446, %445
>   %448 = fmul float %410, %202
>   %449 = fmul float %408, %200
>   %450 = fsub float %449, %448
>   %451 = fadd float %444, %450
>   %452 = fadd float %441, %447
>   %453 = fmul float %414, %212
>   %454 = fmul float %412, %214
>   %455 = fadd float %454, %453
>   %456 = fmul float %414, %214
>   %457 = fmul float %412, %212
>   %458 = fsub float %457, %456
>   %459 = fadd float %451, %458
>   %460 = fadd float %452, %455
>   %461 = fmul float %418, %192
>   %462 = fmul float %416, %194
>   %463 = fadd float %462, %461
>   %464 = fmul float %418, %194
>   %465 = fmul float %416, %192
>   %466 = fsub float %465, %464
>   %467 = fadd float %459, %466
>   %468 = fadd float %460, %463
>   %469 = fmul float %422, %204
>   %470 = fmul float %420, %206
>   %471 = fadd float %470, %469
>   %472 = fmul float %422, %206
>   %473 = fmul float %420, %204
>   %474 = fsub float %473, %472
>   %475 = fadd float %467, %474
>   %476 = fadd float %468, %471
>   %477 = fmul float %426, %216
>   %478 = fmul float %424, %218
>   %479 = fadd float %478, %477
>   %480 = fmul float %426, %218
>   %481 = fmul float %424, %216
>   %482 = fsub float %481, %480
>   %483 = fadd float %475, %482
>   %484 = fadd float %476, %479
>   %485 = fmul float %430, %196
>   %486 = fmul float %428, %198
>   %487 = fadd float %486, %485
>   %488 = fmul float %430, %198
>   %489 = fmul float %428, %196
>   %490 = fsub float %489, %488
>   %491 = fadd float %483, %490
>   %492 = fadd float %484, %487
>   %493 = fmul float %434, %208
>   %494 = fmul float %432, %210
>   %495 = fadd float %494, %493
>   %496 = fmul float %434, %210
>   %497 = fmul float %432, %208
>   %498 = fsub float %497, %496
>   %499 = fadd float %491, %498
>   %500 = fadd float %492, %495
>   %501 = fmul float %438, %220
>   %502 = fmul float %436, %222
>   %503 = fadd float %502, %501
>   %504 = fmul float %438, %222
>   %505 = fmul float %436, %220
>   %506 = fsub float %505, %504
>   %507 = fadd float %499, %506
>   %508 = fadd float %500, %503
>   %509 = getelementptr double* %arg8, i32 0
>   %510 = load double* %509
>   %511 = fpext float %507 to double
>   %512 = fmul double %510, %511
>   %513 = mul i64 %527, 4
>   %514 = add nsw i64 %513, %6
>   %515 = mul i64 %527, 1
>   %516 = add nsw i64 %515, 0
>   %517 = mul i64 %516, 1
>   %518 = add nsw i64 %517, 0
>   %519 = mul i64 %518, 1
>   %520 = add nsw i64 %519, 0
>   %521 = mul i64 %520, 4
>   %522 = add nsw i64 %521, %6
>   %523 = getelementptr float* %arg5, i64 %522
>   %524 = fptrunc double %512 to float
>   store float %524, float* %523
>   br label %L7
>
> L4:                                               ; preds = %L7
>   %525 = add nsw i64 %527, 1
>   %526 = icmp sge i64 %525, %5
>   br i1 %526, label %L6, label %L5
>
> L5:                                               ; preds = %L4, %L2
>   %527 = phi i64 [ %525, %L4 ], [ %4, %L2 ]
>   br label %L3
>
> L6:                                               ; preds = %L4
>   ret void
>
> L7:                                               ; preds = %L3
>   %528 = add nsw i64 %6, 1
>   %529 = icmp sge i64 %528, 4
>   br i1 %529, label %L4, label %L3
> }
>
>
>
> _______________________________________________
> LLVM Developers mailing list
> LLVMdev at cs.uiuc.edu         http://llvm.cs.uiuc.edu
> http://lists.cs.uiuc.edu/mailman/listinfo/llvmdev





More information about the llvm-dev mailing list