<html xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40">
<head>
<meta http-equiv="Content-Type" content="text/html; charset=us-ascii">
<meta name="Generator" content="Microsoft Word 15 (filtered medium)">
<style><!--
/* Font Definitions */
@font-face
        {font-family:"Cambria Math";
        panose-1:2 4 5 3 5 4 6 3 2 4;}
@font-face
        {font-family:DengXian;
        panose-1:2 1 6 0 3 1 1 1 1 1;}
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
@font-face
        {font-family:"\@DengXian";
        panose-1:2 1 6 0 3 1 1 1 1 1;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0in;
        font-size:10.0pt;
        font-family:"Calibri",sans-serif;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-size:10.0pt;
        mso-ligatures:none;}
@page WordSection1
        {size:8.5in 11.0in;
        margin:1.0in 1.0in 1.0in 1.0in;}
div.WordSection1
        {page:WordSection1;}
--></style>
</head>
<body lang="EN-US" link="blue" vlink="purple" style="word-wrap:break-word">
<div class="WordSection1">
<div id="mail-editor-reference-message-container">
<div>
<p class="MsoNormal"><span style="font-size:11.0pt">Hi Simon,</span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt"> </span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt">The test now has hard-coded stack offsets such as ` subl $176, %esp` that fails our downstream testing. It may also not be immune to future codegen changes. Would it make sense to make them symbolic?</span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt"> </span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt">Thanks,</span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt">Hongtao</span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt"> </span><o:p></o:p></p>
<p class="MsoNormal"><span style="font-size:11.0pt"> </span><o:p></o:p></p>
<div id="mail-editor-reference-message-container">
<div>
<div style="border:none;border-top:solid #B5C4DF 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal" style="margin-bottom:12.0pt"><b><span style="font-size:12.0pt;color:black">From:
</span></b><span style="font-size:12.0pt;color:black">llvm-commits <llvm-commits-bounces@lists.llvm.org> on behalf of Simon Pilgrim via llvm-commits <llvm-commits@lists.llvm.org><br>
<b>Date: </b>Wednesday, October 25, 2023 at 5:25 AM<br>
<b>To: </b>llvm-commits@lists.llvm.org <llvm-commits@lists.llvm.org><br>
<b>Subject: </b>[llvm] a8913f8 - [X86] Regenerate pr38539.ll</span><o:p></o:p></p>
</div>
<div>
<p class="MsoNormal"><span style="font-size:11.0pt">!-------------------------------------------------------------------|<br>
  This Message Is From an External Sender<br>
<br>
|-------------------------------------------------------------------!<br>
<br>
<br>
Author: Simon Pilgrim<br>
Date: 2023-10-25T13:25:15+01:00<br>
New Revision: a8913f8e04bea5ab446d1ccce681657013fc0fa9<br>
<br>
URL: </span><a href="https://github.com/llvm/llvm-project/commit/a8913f8e04bea5ab446d1ccce681657013fc0fa9"><span style="font-size:11.0pt">https://github.com/llvm/llvm-project/commit/a8913f8e04bea5ab446d1ccce681657013fc0fa9</span></a><span style="font-size:11.0pt"><br>
DIFF: </span><a href="https://github.com/llvm/llvm-project/commit/a8913f8e04bea5ab446d1ccce681657013fc0fa9.diff"><span style="font-size:11.0pt">https://github.com/llvm/llvm-project/commit/a8913f8e04bea5ab446d1ccce681657013fc0fa9.diff</span></a><span style="font-size:11.0pt"><br>
<br>
LOG: [X86] Regenerate pr38539.ll<br>
<br>
Even though we're only interested in the X64 codegen for the first test, its much easier to maintain if we just let the update script generate the codegen checks for X86 as well.<br>
<br>
Added: <br>
    <br>
<br>
Modified: <br>
    llvm/test/CodeGen/X86/pr38539.ll<br>
<br>
Removed: <br>
    <br>
<br>
<br>
################################################################################<br>
diff  --git a/llvm/test/CodeGen/X86/pr38539.ll b/llvm/test/CodeGen/X86/pr38539.ll<br>
index 97f5985cf9092b9..04aff9b7d2e5863 100644<br>
--- a/llvm/test/CodeGen/X86/pr38539.ll<br>
+++ b/llvm/test/CodeGen/X86/pr38539.ll<br>
@@ -3,7 +3,7 @@<br>
 ; RUN: llc < %s -mtriple=i686-unknown -verify-machineinstrs | FileCheck %s --check-prefix=X86<br>
 <br>
 ; This test is targeted at 64-bit mode. It used to crash due to the creation of an EXTRACT_SUBREG after the peephole pass had ran.<br>
-define void @f() {<br>
+define void @f() nounwind {<br>
 ; X64-LABEL: f:<br>
 ; X64:       # %bb.0: # %BB<br>
 ; X64-NEXT:    movzbl (%rax), %eax<br>
@@ -13,6 +13,242 @@ define void @f() {<br>
 ; X64-NEXT:    movq %rax, (%rax)<br>
 ; X64-NEXT:    movb $0, (%rax)<br>
 ; X64-NEXT:    retq<br>
+;<br>
+; X86-LABEL: f:<br>
+; X86:       # %bb.0: # %BB_udiv-special-cases<br>
+; X86-NEXT:    pushl %ebp<br>
+; X86-NEXT:    movl %esp, %ebp<br>
+; X86-NEXT:    pushl %ebx<br>
+; X86-NEXT:    pushl %edi<br>
+; X86-NEXT:    pushl %esi<br>
+; X86-NEXT:    andl $-16, %esp<br>
+; X86-NEXT:    subl $176, %esp<br>
+; X86-NEXT:    movzbl {{[0-9]+}}(%esp), %edx<br>
+; X86-NEXT:    movl {{[0-9]+}}(%esp), %esi<br>
+; X86-NEXT:    movl {{[0-9]+}}(%esp), %edi<br>
+; X86-NEXT:    movzbl (%eax), %eax<br>
+; X86-NEXT:    movzbl (%eax), %ecx<br>
+; X86-NEXT:    movzbl %al, %eax<br>
+; X86-NEXT:    movb %cl, {{[-0-9]+}}(%e{{[sb]}}p) # 1-byte Spill<br>
+; X86-NEXT:    divb %cl<br>
+; X86-NEXT:    movl %edx, %eax<br>
+; X86-NEXT:    shll $30, %eax<br>
+; X86-NEXT:    movl %eax, %ecx<br>
+; X86-NEXT:    sarl $30, %ecx<br>
+; X86-NEXT:    sarl $31, %eax<br>
+; X86-NEXT:    shrdl $1, %eax, %ecx<br>
+; X86-NEXT:    xorl %eax, %edx<br>
+; X86-NEXT:    xorl %eax, %edi<br>
+; X86-NEXT:    xorl %ecx, %esi<br>
+; X86-NEXT:    subl %ecx, %esi<br>
+; X86-NEXT:    sbbl %eax, %edi<br>
+; X86-NEXT:    sbbl %eax, %edx<br>
+; X86-NEXT:    andl $3, %edx<br>
+; X86-NEXT:    testl %edi, %edi<br>
+; X86-NEXT:    jne .LBB0_1<br>
+; X86-NEXT:  # %bb.2: # %BB_udiv-special-cases<br>
+; X86-NEXT:    bsrl %esi, %ecx<br>
+; X86-NEXT:    xorl $31, %ecx<br>
+; X86-NEXT:    addl $32, %ecx<br>
+; X86-NEXT:    jmp .LBB0_3<br>
+; X86-NEXT:  .LBB0_1:<br>
+; X86-NEXT:    bsrl %edi, %ecx<br>
+; X86-NEXT:    xorl $31, %ecx<br>
+; X86-NEXT:  .LBB0_3: # %BB_udiv-special-cases<br>
+; X86-NEXT:    xorl %eax, %eax<br>
+; X86-NEXT:    testl %edx, %edx<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    jne .LBB0_4<br>
+; X86-NEXT:  # %bb.5: # %BB_udiv-special-cases<br>
+; X86-NEXT:    addl $64, %ecx<br>
+; X86-NEXT:    jmp .LBB0_6<br>
+; X86-NEXT:  .LBB0_4:<br>
+; X86-NEXT:    bsrl %edx, %ecx<br>
+; X86-NEXT:    xorl $31, %ecx<br>
+; X86-NEXT:    addl $32, %ecx<br>
+; X86-NEXT:  .LBB0_6: # %BB_udiv-special-cases<br>
+; X86-NEXT:    subl $62, %ecx<br>
+; X86-NEXT:    movl $0, %ebx<br>
+; X86-NEXT:    sbbl %ebx, %ebx<br>
+; X86-NEXT:    sbbl %eax, %eax<br>
+; X86-NEXT:    addl $-66, %ecx<br>
+; X86-NEXT:    adcl $-1, %ebx<br>
+; X86-NEXT:    adcl $3, %eax<br>
+; X86-NEXT:    movl %eax, %edi<br>
+; X86-NEXT:    movb $1, %al<br>
+; X86-NEXT:    testb %al, %al<br>
+; X86-NEXT:    jne .LBB0_11<br>
+; X86-NEXT:  # %bb.7: # %BB_udiv-special-cases<br>
+; X86-NEXT:    andl $3, %edi<br>
+; X86-NEXT:    movl %ecx, %eax<br>
+; X86-NEXT:    xorl $65, %eax<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    orl %edi, %eax<br>
+; X86-NEXT:    orl %ebx, %eax<br>
+; X86-NEXT:    je .LBB0_11<br>
+; X86-NEXT:  # %bb.8: # %udiv-bb1<br>
+; X86-NEXT:    movl %esi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl %ecx, %eax<br>
+; X86-NEXT:    addl $1, %ecx<br>
+; X86-NEXT:    movl %ecx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    adcl $0, %ebx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %esi # 4-byte Reload<br>
+; X86-NEXT:    adcl $0, %esi<br>
+; X86-NEXT:    andl $3, %esi<br>
+; X86-NEXT:    movl %esi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movb $65, %cl<br>
+; X86-NEXT:    subb %al, %cl<br>
+; X86-NEXT:    movb %cl, %ch<br>
+; X86-NEXT:    andb $7, %ch<br>
+; X86-NEXT:    shrb $3, %cl<br>
+; X86-NEXT:    andb $15, %cl<br>
+; X86-NEXT:    negb %cl<br>
+; X86-NEXT:    movsbl %cl, %eax<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl %edx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl 136(%esp,%eax), %edx<br>
+; X86-NEXT:    movb %ch, %cl<br>
+; X86-NEXT:    shll %cl, %edx<br>
+; X86-NEXT:    notb %cl<br>
+; X86-NEXT:    movl 128(%esp,%eax), %edi<br>
+; X86-NEXT:    movl 132(%esp,%eax), %esi<br>
+; X86-NEXT:    movl %esi, %eax<br>
+; X86-NEXT:    shrl %eax<br>
+; X86-NEXT:    shrl %cl, %eax<br>
+; X86-NEXT:    movb %ch, %cl<br>
+; X86-NEXT:    shldl %cl, %edi, %esi<br>
+; X86-NEXT:    movl %esi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    shll %cl, %edi<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %ecx # 4-byte Reload<br>
+; X86-NEXT:    orl {{[-0-9]+}}(%e{{[sb]}}p), %ecx # 4-byte Folded Reload<br>
+; X86-NEXT:    orl %ebx, %ecx<br>
+; X86-NEXT:    je .LBB0_11<br>
+; X86-NEXT:  # %bb.9: # %udiv-preheader<br>
+; X86-NEXT:    orl %eax, %edx<br>
+; X86-NEXT:    andl $3, %edx<br>
+; X86-NEXT:    movl %edx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl $0, {{[0-9]+}}(%esp)<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    movb %al, %ch<br>
+; X86-NEXT:    andb $7, %ch<br>
+; X86-NEXT:    # kill: def $al killed $al killed $eax<br>
+; X86-NEXT:    shrb $3, %al<br>
+; X86-NEXT:    andb $15, %al<br>
+; X86-NEXT:    movzbl %al, %esi<br>
+; X86-NEXT:    movl 80(%esp,%esi), %edx<br>
+; X86-NEXT:    movl 84(%esp,%esi), %eax<br>
+; X86-NEXT:    movl %eax, %edi<br>
+; X86-NEXT:    movb %ch, %cl<br>
+; X86-NEXT:    shrl %cl, %edi<br>
+; X86-NEXT:    notb %cl<br>
+; X86-NEXT:    movl 88(%esp,%esi), %esi<br>
+; X86-NEXT:    addl %esi, %esi<br>
+; X86-NEXT:    shll %cl, %esi<br>
+; X86-NEXT:    orl %edi, %esi<br>
+; X86-NEXT:    movb %ch, %cl<br>
+; X86-NEXT:    shrdl %cl, %eax, %edx<br>
+; X86-NEXT:    movl %edx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl $0, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Folded Spill<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    addl $-1, %eax<br>
+; X86-NEXT:    movl %eax, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    adcl $-1, %eax<br>
+; X86-NEXT:    movl %eax, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    adcl $3, %eax<br>
+; X86-NEXT:    andl $3, %eax<br>
+; X86-NEXT:    movl %eax, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl $0, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Folded Spill<br>
+; X86-NEXT:    xorl %ecx, %ecx<br>
+; X86-NEXT:    .p2align 4, 0x90<br>
+; X86-NEXT:  .LBB0_10: # %udiv-do-while<br>
+; X86-NEXT:    # =>This Inner Loop Header: Depth=1<br>
+; X86-NEXT:    movl %ebx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    shldl $1, %esi, %ecx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %edx # 4-byte Reload<br>
+; X86-NEXT:    shldl $1, %edx, %esi<br>
+; X86-NEXT:    movl %esi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %ebx # 4-byte Reload<br>
+; X86-NEXT:    movl %ebx, %eax<br>
+; X86-NEXT:    andl $2, %eax<br>
+; X86-NEXT:    shrl %eax<br>
+; X86-NEXT:    leal (%eax,%edx,2), %edx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %edi # 4-byte Reload<br>
+; X86-NEXT:    shldl $1, %edi, %ebx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %esi # 4-byte Reload<br>
+; X86-NEXT:    orl %esi, %ebx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    shldl $1, %eax, %edi<br>
+; X86-NEXT:    orl %esi, %edi<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %esi # 4-byte Reload<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    addl %eax, %eax<br>
+; X86-NEXT:    orl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Folded Reload<br>
+; X86-NEXT:    movl %eax, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    andl $3, %ebx<br>
+; X86-NEXT:    movl %ebx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    cmpl %edx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Folded Reload<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    sbbl %esi, %eax<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %ebx # 4-byte Reload<br>
+; X86-NEXT:    sbbl %ecx, %ebx<br>
+; X86-NEXT:    shll $30, %ebx<br>
+; X86-NEXT:    movl %ebx, %eax<br>
+; X86-NEXT:    sarl $30, %eax<br>
+; X86-NEXT:    sarl $31, %ebx<br>
+; X86-NEXT:    shrdl $1, %ebx, %eax<br>
+; X86-NEXT:    movl %eax, %edi<br>
+; X86-NEXT:    andl $1, %edi<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    andl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Folded Reload<br>
+; X86-NEXT:    movl %ebx, %edi<br>
+; X86-NEXT:    andl {{[-0-9]+}}(%e{{[sb]}}p), %edi # 4-byte Folded Reload<br>
+; X86-NEXT:    andl {{[-0-9]+}}(%e{{[sb]}}p), %ebx # 4-byte Folded Reload<br>
+; X86-NEXT:    subl %eax, %edx<br>
+; X86-NEXT:    movl %edx, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    sbbl %ebx, %esi<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %ebx # 4-byte Reload<br>
+; X86-NEXT:    sbbl %edi, %ecx<br>
+; X86-NEXT:    andl $3, %ecx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %eax # 4-byte Reload<br>
+; X86-NEXT:    addl $-1, %eax<br>
+; X86-NEXT:    adcl $-1, %ebx<br>
+; X86-NEXT:    movl {{[-0-9]+}}(%e{{[sb]}}p), %edi # 4-byte Reload<br>
+; X86-NEXT:    adcl $3, %edi<br>
+; X86-NEXT:    andl $3, %edi<br>
+; X86-NEXT:    movl %eax, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    movl %edi, {{[-0-9]+}}(%e{{[sb]}}p) # 4-byte Spill<br>
+; X86-NEXT:    orl %edi, %eax<br>
+; X86-NEXT:    orl %ebx, %eax<br>
+; X86-NEXT:    jne .LBB0_10<br>
+; X86-NEXT:  .LBB0_11: # %udiv-end<br>
+; X86-NEXT:    cmpb $0, {{[-0-9]+}}(%e{{[sb]}}p) # 1-byte Folded Reload<br>
+; X86-NEXT:    setne (%eax)<br>
+; X86-NEXT:    leal {{[0-9]+}}(%esp), %eax<br>
+; X86-NEXT:    movl %eax, (%eax)<br>
+; X86-NEXT:    movb $0, (%eax)<br>
+; X86-NEXT:    leal -12(%ebp), %esp<br>
+; X86-NEXT:    popl %esi<br>
+; X86-NEXT:    popl %edi<br>
+; X86-NEXT:    popl %ebx<br>
+; X86-NEXT:    popl %ebp<br>
+; X86-NEXT:    retl<br>
 BB:<br>
   %A30 = alloca i66<br>
   %L17 = load i66, ptr %A30<br>
@@ -38,7 +274,7 @@ BB:<br>
 }<br>
 <br>
 ; Similar to above, but bitwidth adjusted to target 32-bit mode. This also shows that we didn't constrain the register class when extracting a subreg.<br>
-define void @g() {<br>
+define void @g() nounwind {<br>
 ; X64-LABEL: g:<br>
 ; X64:       # %bb.0: # %BB<br>
 ; X64-NEXT:    movzbl (%rax), %eax<br>
@@ -52,10 +288,7 @@ define void @g() {<br>
 ; X86-LABEL: g:<br>
 ; X86:       # %bb.0: # %BB<br>
 ; X86-NEXT:    pushl %ebp<br>
-; X86-NEXT:    .cfi_def_cfa_offset 8<br>
-; X86-NEXT:    .cfi_offset %ebp, -8<br>
 ; X86-NEXT:    movl %esp, %ebp<br>
-; X86-NEXT:    .cfi_def_cfa_register %ebp<br>
 ; X86-NEXT:    andl $-8, %esp<br>
 ; X86-NEXT:    subl $8, %esp<br>
 ; X86-NEXT:    movzbl (%eax), %eax<br>
@@ -66,7 +299,6 @@ define void @g() {<br>
 ; X86-NEXT:    movb $0, (%eax)<br>
 ; X86-NEXT:    movl %ebp, %esp<br>
 ; X86-NEXT:    popl %ebp<br>
-; X86-NEXT:    .cfi_def_cfa %esp, 4<br>
 ; X86-NEXT:    retl<br>
 BB:<br>
   %A30 = alloca i34<br>
<br>
<br>
        <br>
_______________________________________________<br>
llvm-commits mailing list<br>
llvm-commits@lists.llvm.org<br>
</span><a href="https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-commits"><span style="font-size:11.0pt">https://lists.llvm.org/cgi-bin/mailman/listinfo/llvm-commits</span></a><span style="font-size:11.0pt">
</span><o:p></o:p></p>
</div>
</div>
</div>
</div>
</div>
</div>
</body>
</html>