[llvm] 41c42f5 - [InstCombine] adjust mul tests to avoid reliance on other folds; NFC
Sanjay Patel via llvm-commits
llvm-commits at lists.llvm.org
Mon Oct 24 06:20:27 PDT 2022
Author: Sanjay Patel
Date: 2022-10-24T09:14:46-04:00
New Revision: 41c42f5b1825d3f5dfd521f4092c9e64706325a8
URL: https://github.com/llvm/llvm-project/commit/41c42f5b1825d3f5dfd521f4092c9e64706325a8
DIFF: https://github.com/llvm/llvm-project/commit/41c42f5b1825d3f5dfd521f4092c9e64706325a8.diff
LOG: [InstCombine] adjust mul tests to avoid reliance on other folds; NFC
This gets the tests closer to the form that we are
trying to test in D136015. Note that the IR has
changed, but the check lines have not changed.
This also shows that the desired commuted pattern
coverage is not as expected.
Added:
Modified:
llvm/test/Transforms/InstCombine/mul_fold.ll
Removed:
################################################################################
diff --git a/llvm/test/Transforms/InstCombine/mul_fold.ll b/llvm/test/Transforms/InstCombine/mul_fold.ll
index 013435a3c57d..f9cb61a17829 100644
--- a/llvm/test/Transforms/InstCombine/mul_fold.ll
+++ b/llvm/test/Transforms/InstCombine/mul_fold.ll
@@ -32,8 +32,8 @@ define i8 @mul8_low_A0_B0(i8 %in0, i8 %in1) {
%In0Hi = lshr i8 %in0, 4
%In1Lo = and i8 %in1, 15
%In1Hi = lshr i8 %in1, 4
- %m10 = mul i8 %In1Hi, %In0Lo
- %m01 = mul i8 %In1Lo, %In0Hi
+ %m10 = mul i8 %In1Hi, %in0
+ %m01 = mul i8 %In0Hi, %in1
%m00 = mul i8 %In1Lo, %In0Lo
%addc = add i8 %m10, %m01
%shl = shl i8 %addc, 4
@@ -59,8 +59,8 @@ define i8 @mul8_low_A0_B1(i8 %in0, i8 %in1) {
%In0Hi = lshr i8 %in0, 4
%In1Lo = and i8 %in1, 15
%In1Hi = lshr i8 %in1, 4
- %m10 = mul i8 %In1Hi, %In0Lo
- %m01 = mul i8 %In1Lo, %In0Hi
+ %m10 = mul i8 %In1Hi, %in0
+ %m01 = mul i8 %In0Hi, %in1
%m00 = mul i8 %In1Lo, %In0Lo
%addc = add i8 %m10, %m01
%shl = shl i8 %addc, 4
@@ -86,8 +86,8 @@ define i8 @mul8_low_A0_B2(i8 %in0, i8 %in1) {
%In0Hi = lshr i8 %in0, 4
%In1Lo = and i8 %in1, 15
%In1Hi = lshr i8 %in1, 4
- %m10 = mul i8 %In1Hi, %In0Lo
- %m01 = mul i8 %In1Lo, %In0Hi
+ %m10 = mul i8 %In1Hi, %in0
+ %m01 = mul i8 %In0Hi, %in1
%m00 = mul i8 %In1Lo, %In0Lo
%addc = add i8 %m01, %m10
%shl = shl i8 %addc, 4
@@ -113,8 +113,8 @@ define i8 @mul8_low_A0_B3(i8 %in0, i8 %in1) {
%In0Hi = lshr i8 %in0, 4
%In1Lo = and i8 %in1, 15
%In1Hi = lshr i8 %in1, 4
- %m10 = mul i8 %In1Hi, %In0Lo
- %m01 = mul i8 %In1Lo, %In0Hi
+ %m10 = mul i8 %In1Hi, %in0
+ %m01 = mul i8 %In0Hi, %in1
%m00 = mul i8 %In1Lo, %In0Lo
%addc = add i8 %m01, %m10
%shl = shl i8 %addc, 4
@@ -269,7 +269,7 @@ define i32 @mul32_low_A2_B0(i32 %in0, i32 %in1) {
%In1Hi = lshr i32 %in1, 16
%m10 = mul i32 %In1Hi, %In0Lo
call void @use32(i32 %m10)
- %m01 = mul i32 %In0Hi, %In1Lo
+ %m01 = mul i32 %In0Hi, %in1
%m00 = mul i32 %In1Lo, %In0Lo
%addc = add i32 %m10, %m01
%shl = shl i32 %addc, 16
@@ -298,7 +298,7 @@ define i32 @mul32_low_A2_B1(i32 %in0, i32 %in1) {
%In1Hi = lshr i32 %in1, 16
%m10 = mul i32 %In1Hi, %In0Lo
call void @use32(i32 %m10)
- %m01 = mul i32 %In0Hi, %In1Lo
+ %m01 = mul i32 %In0Hi, %in1
%m00 = mul i32 %In1Lo, %In0Lo
%addc = add i32 %m10, %m01
%shl = shl i32 %addc, 16
@@ -327,7 +327,7 @@ define i32 @mul32_low_A2_B2(i32 %in0, i32 %in1) {
%In1Hi = lshr i32 %in1, 16
%m10 = mul i32 %In1Hi, %In0Lo
call void @use32(i32 %m10)
- %m01 = mul i32 %In0Hi, %In1Lo
+ %m01 = mul i32 %In0Hi, %in1
%m00 = mul i32 %In1Lo, %In0Lo
%addc = add i32 %m01, %m10
%shl = shl i32 %addc, 16
@@ -356,7 +356,7 @@ define i32 @mul32_low_A2_B3(i32 %in0, i32 %in1) {
%In1Hi = lshr i32 %in1, 16
%m10 = mul i32 %In1Hi, %In0Lo
call void @use32(i32 %m10)
- %m01 = mul i32 %In0Hi, %In1Lo
+ %m01 = mul i32 %In0Hi, %in1
%m00 = mul i32 %In1Lo, %In0Lo
%addc = add i32 %m01, %m10
%shl = shl i32 %addc, 16
@@ -384,7 +384,7 @@ define i64 @mul64_low_A3_B0(i64 %in0, i64 %in1) {
%In0Hi = lshr i64 %in0, 32
%In1Lo = and i64 %in1, 4294967295
%In1Hi = lshr i64 %in1, 32
- %m10 = mul i64 %In0Lo, %In1Hi
+ %m10 = mul i64 %In1Hi, %in0
%m01 = mul i64 %In0Hi, %In1Lo
call void @use64(i64 %m01)
%m00 = mul i64 %In1Lo, %In0Lo
@@ -413,7 +413,7 @@ define i64 @mul64_low_A3_B1(i64 %in0, i64 %in1) {
%In0Hi = lshr i64 %in0, 32
%In1Lo = and i64 %in1, 4294967295
%In1Hi = lshr i64 %in1, 32
- %m10 = mul i64 %In0Lo, %In1Hi
+ %m10 = mul i64 %In1Hi, %in0
%m01 = mul i64 %In0Hi, %In1Lo
call void @use64(i64 %m01)
%m00 = mul i64 %In1Lo, %In0Lo
@@ -442,7 +442,7 @@ define i64 @mul64_low_A3_B2(i64 %in0, i64 %in1) {
%In0Hi = lshr i64 %in0, 32
%In1Lo = and i64 %in1, 4294967295
%In1Hi = lshr i64 %in1, 32
- %m10 = mul i64 %In0Lo, %In1Hi
+ %m10 = mul i64 %In1Hi, %in0
%m01 = mul i64 %In0Hi, %In1Lo
call void @use64(i64 %m01)
%m00 = mul i64 %In1Lo, %In0Lo
@@ -471,7 +471,7 @@ define i64 @mul64_low_A3_B3(i64 %in0, i64 %in1) {
%In0Hi = lshr i64 %in0, 32
%In1Lo = and i64 %in1, 4294967295
%In1Hi = lshr i64 %in1, 32
- %m10 = mul i64 %In0Lo, %In1Hi
+ %m10 = mul i64 %In1Hi, %in0
%m01 = mul i64 %In0Hi, %In1Lo
call void @use64(i64 %m01)
%m00 = mul i64 %In1Lo, %In0Lo
More information about the llvm-commits
mailing list