[llvm] 41c42f5 - [InstCombine] adjust mul tests to avoid reliance on other folds; NFC

Sanjay Patel via llvm-commits llvm-commits at lists.llvm.org
Mon Oct 24 06:20:27 PDT 2022


Author: Sanjay Patel
Date: 2022-10-24T09:14:46-04:00
New Revision: 41c42f5b1825d3f5dfd521f4092c9e64706325a8

URL: https://github.com/llvm/llvm-project/commit/41c42f5b1825d3f5dfd521f4092c9e64706325a8
DIFF: https://github.com/llvm/llvm-project/commit/41c42f5b1825d3f5dfd521f4092c9e64706325a8.diff

LOG: [InstCombine] adjust mul tests to avoid reliance on other folds; NFC

This gets the tests closer to the form that we are
trying to test in D136015. Note that the IR has
changed, but the check lines have not changed.

This also shows that the desired commuted pattern
coverage is not as expected.

Added: 
    

Modified: 
    llvm/test/Transforms/InstCombine/mul_fold.ll

Removed: 
    


################################################################################
diff  --git a/llvm/test/Transforms/InstCombine/mul_fold.ll b/llvm/test/Transforms/InstCombine/mul_fold.ll
index 013435a3c57d..f9cb61a17829 100644
--- a/llvm/test/Transforms/InstCombine/mul_fold.ll
+++ b/llvm/test/Transforms/InstCombine/mul_fold.ll
@@ -32,8 +32,8 @@ define i8 @mul8_low_A0_B0(i8 %in0, i8 %in1) {
   %In0Hi = lshr i8 %in0, 4
   %In1Lo = and i8 %in1, 15
   %In1Hi = lshr i8 %in1, 4
-  %m10 = mul i8 %In1Hi, %In0Lo
-  %m01 = mul i8 %In1Lo, %In0Hi
+  %m10 = mul i8 %In1Hi, %in0
+  %m01 = mul i8 %In0Hi, %in1
   %m00 = mul i8 %In1Lo, %In0Lo
   %addc = add i8 %m10, %m01
   %shl = shl i8 %addc, 4
@@ -59,8 +59,8 @@ define i8 @mul8_low_A0_B1(i8 %in0, i8 %in1) {
   %In0Hi = lshr i8 %in0, 4
   %In1Lo = and i8 %in1, 15
   %In1Hi = lshr i8 %in1, 4
-  %m10 = mul i8 %In1Hi, %In0Lo
-  %m01 = mul i8 %In1Lo, %In0Hi
+  %m10 = mul i8 %In1Hi, %in0
+  %m01 = mul i8 %In0Hi, %in1
   %m00 = mul i8 %In1Lo, %In0Lo
   %addc = add i8 %m10, %m01
   %shl = shl i8 %addc, 4
@@ -86,8 +86,8 @@ define i8 @mul8_low_A0_B2(i8 %in0, i8 %in1) {
   %In0Hi = lshr i8 %in0, 4
   %In1Lo = and i8 %in1, 15
   %In1Hi = lshr i8 %in1, 4
-  %m10 = mul i8 %In1Hi, %In0Lo
-  %m01 = mul i8 %In1Lo, %In0Hi
+  %m10 = mul i8 %In1Hi, %in0
+  %m01 = mul i8 %In0Hi, %in1
   %m00 = mul i8 %In1Lo, %In0Lo
   %addc = add i8 %m01, %m10
   %shl = shl i8 %addc, 4
@@ -113,8 +113,8 @@ define i8 @mul8_low_A0_B3(i8 %in0, i8 %in1) {
   %In0Hi = lshr i8 %in0, 4
   %In1Lo = and i8 %in1, 15
   %In1Hi = lshr i8 %in1, 4
-  %m10 = mul i8 %In1Hi, %In0Lo
-  %m01 = mul i8 %In1Lo, %In0Hi
+  %m10 = mul i8 %In1Hi, %in0
+  %m01 = mul i8 %In0Hi, %in1
   %m00 = mul i8 %In1Lo, %In0Lo
   %addc = add i8 %m01, %m10
   %shl = shl i8 %addc, 4
@@ -269,7 +269,7 @@ define i32 @mul32_low_A2_B0(i32 %in0, i32 %in1) {
   %In1Hi = lshr i32 %in1, 16
   %m10 = mul i32 %In1Hi, %In0Lo
   call void @use32(i32 %m10)
-  %m01 = mul i32 %In0Hi, %In1Lo
+  %m01 = mul i32 %In0Hi, %in1
   %m00 = mul i32 %In1Lo, %In0Lo
   %addc = add i32 %m10, %m01
   %shl = shl i32 %addc, 16
@@ -298,7 +298,7 @@ define i32 @mul32_low_A2_B1(i32 %in0, i32 %in1) {
   %In1Hi = lshr i32 %in1, 16
   %m10 = mul i32 %In1Hi, %In0Lo
   call void @use32(i32 %m10)
-  %m01 = mul i32 %In0Hi, %In1Lo
+  %m01 = mul i32 %In0Hi, %in1
   %m00 = mul i32 %In1Lo, %In0Lo
   %addc = add i32 %m10, %m01
   %shl = shl i32 %addc, 16
@@ -327,7 +327,7 @@ define i32 @mul32_low_A2_B2(i32 %in0, i32 %in1) {
   %In1Hi = lshr i32 %in1, 16
   %m10 = mul i32 %In1Hi, %In0Lo
   call void @use32(i32 %m10)
-  %m01 = mul i32 %In0Hi, %In1Lo
+  %m01 = mul i32 %In0Hi, %in1
   %m00 = mul i32 %In1Lo, %In0Lo
   %addc = add i32 %m01, %m10
   %shl = shl i32 %addc, 16
@@ -356,7 +356,7 @@ define i32 @mul32_low_A2_B3(i32 %in0, i32 %in1) {
   %In1Hi = lshr i32 %in1, 16
   %m10 = mul i32 %In1Hi, %In0Lo
   call void @use32(i32 %m10)
-  %m01 = mul i32 %In0Hi, %In1Lo
+  %m01 = mul i32 %In0Hi, %in1
   %m00 = mul i32 %In1Lo, %In0Lo
   %addc = add i32 %m01, %m10
   %shl = shl i32 %addc, 16
@@ -384,7 +384,7 @@ define i64 @mul64_low_A3_B0(i64 %in0, i64 %in1) {
   %In0Hi = lshr i64 %in0, 32
   %In1Lo = and i64 %in1, 4294967295
   %In1Hi = lshr i64 %in1, 32
-  %m10 = mul i64 %In0Lo, %In1Hi
+  %m10 = mul i64 %In1Hi, %in0
   %m01 = mul i64 %In0Hi, %In1Lo
   call void @use64(i64 %m01)
   %m00 = mul i64 %In1Lo, %In0Lo
@@ -413,7 +413,7 @@ define i64 @mul64_low_A3_B1(i64 %in0, i64 %in1) {
   %In0Hi = lshr i64 %in0, 32
   %In1Lo = and i64 %in1, 4294967295
   %In1Hi = lshr i64 %in1, 32
-  %m10 = mul i64 %In0Lo, %In1Hi
+  %m10 = mul i64 %In1Hi, %in0
   %m01 = mul i64 %In0Hi, %In1Lo
   call void @use64(i64 %m01)
   %m00 = mul i64 %In1Lo, %In0Lo
@@ -442,7 +442,7 @@ define i64 @mul64_low_A3_B2(i64 %in0, i64 %in1) {
   %In0Hi = lshr i64 %in0, 32
   %In1Lo = and i64 %in1, 4294967295
   %In1Hi = lshr i64 %in1, 32
-  %m10 = mul i64 %In0Lo, %In1Hi
+  %m10 = mul i64 %In1Hi, %in0
   %m01 = mul i64 %In0Hi, %In1Lo
   call void @use64(i64 %m01)
   %m00 = mul i64 %In1Lo, %In0Lo
@@ -471,7 +471,7 @@ define i64 @mul64_low_A3_B3(i64 %in0, i64 %in1) {
   %In0Hi = lshr i64 %in0, 32
   %In1Lo = and i64 %in1, 4294967295
   %In1Hi = lshr i64 %in1, 32
-  %m10 = mul i64 %In0Lo, %In1Hi
+  %m10 = mul i64 %In1Hi, %in0
   %m01 = mul i64 %In0Hi, %In1Lo
   call void @use64(i64 %m01)
   %m00 = mul i64 %In1Lo, %In0Lo


        


More information about the llvm-commits mailing list