|  | ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py | 
|  | ; RUN: llc < %s -mtriple=x86_64-unknown | FileCheck %s | 
|  |  | 
|  | declare { i8, i64 } @llvm.x86.addcarry.64(i8, i64, i64) | 
|  | declare { i64, i1 } @llvm.uadd.with.overflow.i64(i64, i64) #1 | 
|  | declare { i64, i1 } @llvm.usub.with.overflow.i64(i64, i64) #1 | 
|  | declare { i128, i1 } @llvm.sadd.with.overflow.i128(i128, i128) | 
|  |  | 
|  | define i128 @add128(i128 %a, i128 %b) nounwind { | 
|  | ; CHECK-LABEL: add128: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = add i128 %a, %b | 
|  | ret i128 %0 | 
|  | } | 
|  |  | 
|  | define void @add128_rmw(ptr %a, i128 %b) nounwind { | 
|  | ; CHECK-LABEL: add128_rmw: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = load i128, ptr %a | 
|  | %1 = add i128 %0, %b | 
|  | store i128 %1, ptr %a | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @add128_rmw2(i128 %a, ptr %b) nounwind { | 
|  | ; CHECK-LABEL: add128_rmw2: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rdi, (%rdx) | 
|  | ; CHECK-NEXT:    adcq %rsi, 8(%rdx) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = load i128, ptr %b | 
|  | %1 = add i128 %a, %0 | 
|  | store i128 %1, ptr %b | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define i256 @add256(i256 %a, i256 %b) nounwind { | 
|  | ; CHECK-LABEL: add256: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %r9, %rsi | 
|  | ; CHECK-NEXT:    adcq {{[0-9]+}}(%rsp), %rdx | 
|  | ; CHECK-NEXT:    adcq {{[0-9]+}}(%rsp), %rcx | 
|  | ; CHECK-NEXT:    adcq {{[0-9]+}}(%rsp), %r8 | 
|  | ; CHECK-NEXT:    movq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    movq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    movq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    movq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = add i256 %a, %b | 
|  | ret i256 %0 | 
|  | } | 
|  |  | 
|  | define void @add256_rmw(ptr %a, i256 %b) nounwind { | 
|  | ; CHECK-LABEL: add256_rmw: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = load i256, ptr %a | 
|  | %1 = add i256 %0, %b | 
|  | store i256 %1, ptr %a | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @add256_rmw2(i256 %a, ptr %b) nounwind { | 
|  | ; CHECK-LABEL: add256_rmw2: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rdi, (%r8) | 
|  | ; CHECK-NEXT:    adcq %rsi, 8(%r8) | 
|  | ; CHECK-NEXT:    adcq %rdx, 16(%r8) | 
|  | ; CHECK-NEXT:    adcq %rcx, 24(%r8) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = load i256, ptr %b | 
|  | %1 = add i256 %a, %0 | 
|  | store i256 %1, ptr %b | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @a(ptr nocapture %s, ptr nocapture %t, i64 %a, i64 %b, i64 %c) nounwind { | 
|  | ; CHECK-LABEL: a: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rcx, %rdx | 
|  | ; CHECK-NEXT:    adcq $0, %r8 | 
|  | ; CHECK-NEXT:    movq %r8, (%rdi) | 
|  | ; CHECK-NEXT:    movq %rdx, (%rsi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %a to i128 | 
|  | %1 = zext i64 %b to i128 | 
|  | %2 = add i128 %1, %0 | 
|  | %3 = zext i64 %c to i128 | 
|  | %4 = shl i128 %3, 64 | 
|  | %5 = add i128 %4, %2 | 
|  | %6 = lshr i128 %5, 64 | 
|  | %7 = trunc i128 %6 to i64 | 
|  | store i64 %7, ptr %s, align 8 | 
|  | %8 = trunc i128 %2 to i64 | 
|  | store i64 %8, ptr %t, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @b(ptr nocapture %r, i64 %a, i64 %b, i32 %c) nounwind { | 
|  | ; CHECK-LABEL: b: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rdx, %rsi | 
|  | ; CHECK-NEXT:    adcl $0, %ecx | 
|  | ; CHECK-NEXT:    movl %ecx, (%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %a to i128 | 
|  | %1 = zext i64 %b to i128 | 
|  | %2 = zext i32 %c to i128 | 
|  | %3 = add i128 %1, %0 | 
|  | %4 = lshr i128 %3, 64 | 
|  | %5 = add i128 %4, %2 | 
|  | %6 = trunc i128 %5 to i32 | 
|  | store i32 %6, ptr %r, align 4 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @c(ptr nocapture %r, i64 %a, i64 %b, i16 %c) nounwind { | 
|  | ; CHECK-LABEL: c: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rdx, %rsi | 
|  | ; CHECK-NEXT:    adcw $0, %cx | 
|  | ; CHECK-NEXT:    movw %cx, (%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %a to i128 | 
|  | %1 = zext i64 %b to i128 | 
|  | %2 = zext i16 %c to i128 | 
|  | %3 = add i128 %1, %0 | 
|  | %4 = lshr i128 %3, 64 | 
|  | %5 = add i128 %4, %2 | 
|  | %6 = trunc i128 %5 to i16 | 
|  | store i16 %6, ptr %r, align 4 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define void @d(ptr nocapture %r, i64 %a, i64 %b, i8 %c) nounwind { | 
|  | ; CHECK-LABEL: d: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    addq %rdx, %rsi | 
|  | ; CHECK-NEXT:    adcb $0, %cl | 
|  | ; CHECK-NEXT:    movb %cl, (%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %a to i128 | 
|  | %1 = zext i64 %b to i128 | 
|  | %2 = zext i8 %c to i128 | 
|  | %3 = add i128 %1, %0 | 
|  | %4 = lshr i128 %3, 64 | 
|  | %5 = add i128 %4, %2 | 
|  | %6 = trunc i128 %5 to i8 | 
|  | store i8 %6, ptr %r, align 4 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define i8 @e(ptr nocapture %a, i32 %b) nounwind { | 
|  | ; CHECK-LABEL: e: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    # kill: def $esi killed $esi def $rsi | 
|  | ; CHECK-NEXT:    movl (%rdi), %ecx | 
|  | ; CHECK-NEXT:    leal (%rsi,%rcx), %edx | 
|  | ; CHECK-NEXT:    addl %esi, %edx | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    addl %ecx, %esi | 
|  | ; CHECK-NEXT:    movl %edx, (%rdi) | 
|  | ; CHECK-NEXT:    adcb $0, %al | 
|  | ; CHECK-NEXT:    retq | 
|  | %1 = load i32, ptr %a, align 4 | 
|  | %2 = add i32 %1, %b | 
|  | %3 = icmp ult i32 %2, %b | 
|  | %4 = zext i1 %3 to i8 | 
|  | %5 = add i32 %2, %b | 
|  | store i32 %5, ptr %a, align 4 | 
|  | %6 = icmp ult i32 %5, %b | 
|  | %7 = zext i1 %6 to i8 | 
|  | %8 = add nuw nsw i8 %7, %4 | 
|  | ret i8 %8 | 
|  | } | 
|  |  | 
|  | %scalar = type { [4 x i64] } | 
|  |  | 
|  | define %scalar @pr31719(ptr nocapture readonly %this, %scalar %arg.b) nounwind { | 
|  | ; CHECK-LABEL: pr31719: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq (%rsi), %rdx | 
|  | ; CHECK-NEXT:    adcq 8(%rsi), %rcx | 
|  | ; CHECK-NEXT:    adcq 16(%rsi), %r8 | 
|  | ; CHECK-NEXT:    adcq 24(%rsi), %r9 | 
|  | ; CHECK-NEXT:    movq %rdx, (%rdi) | 
|  | ; CHECK-NEXT:    movq %rcx, 8(%rdi) | 
|  | ; CHECK-NEXT:    movq %r8, 16(%rdi) | 
|  | ; CHECK-NEXT:    movq %r9, 24(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = extractvalue %scalar %arg.b, 0 | 
|  | %.elt = extractvalue [4 x i64] %0, 0 | 
|  | %.elt24 = extractvalue [4 x i64] %0, 1 | 
|  | %.elt26 = extractvalue [4 x i64] %0, 2 | 
|  | %.elt28 = extractvalue [4 x i64] %0, 3 | 
|  | %1 = load i64, ptr %this, align 8 | 
|  | %2 = zext i64 %1 to i128 | 
|  | %3 = zext i64 %.elt to i128 | 
|  | %4 = add nuw nsw i128 %2, %3 | 
|  | %5 = trunc i128 %4 to i64 | 
|  | %6 = lshr i128 %4, 64 | 
|  | %7 = getelementptr inbounds %scalar , ptr %this, i64 0, i32 0, i64 1 | 
|  | %8 = load i64, ptr %7, align 8 | 
|  | %9 = zext i64 %8 to i128 | 
|  | %10 = zext i64 %.elt24 to i128 | 
|  | %11 = add nuw nsw i128 %9, %10 | 
|  | %12 = add nuw nsw i128 %11, %6 | 
|  | %13 = trunc i128 %12 to i64 | 
|  | %14 = lshr i128 %12, 64 | 
|  | %15 = getelementptr inbounds %scalar , ptr %this, i64 0, i32 0, i64 2 | 
|  | %16 = load i64, ptr %15, align 8 | 
|  | %17 = zext i64 %16 to i128 | 
|  | %18 = zext i64 %.elt26 to i128 | 
|  | %19 = add nuw nsw i128 %17, %18 | 
|  | %20 = add nuw nsw i128 %19, %14 | 
|  | %21 = trunc i128 %20 to i64 | 
|  | %22 = lshr i128 %20, 64 | 
|  | %23 = getelementptr inbounds %scalar , ptr %this, i64 0, i32 0, i64 3 | 
|  | %24 = load i64, ptr %23, align 8 | 
|  | %25 = zext i64 %24 to i128 | 
|  | %26 = zext i64 %.elt28 to i128 | 
|  | %27 = add nuw nsw i128 %25, %26 | 
|  | %28 = add nuw nsw i128 %27, %22 | 
|  | %29 = trunc i128 %28 to i64 | 
|  | %30 = insertvalue [4 x i64] undef, i64 %5, 0 | 
|  | %31 = insertvalue [4 x i64] %30, i64 %13, 1 | 
|  | %32 = insertvalue [4 x i64] %31, i64 %21, 2 | 
|  | %33 = insertvalue [4 x i64] %32, i64 %29, 3 | 
|  | %34 = insertvalue %scalar undef, [4 x i64] %33, 0 | 
|  | ret %scalar %34 | 
|  | } | 
|  |  | 
|  | %accumulator= type { i64, i64, i32 } | 
|  |  | 
|  | define void @muladd(ptr nocapture %this, i64 %arg.a, i64 %arg.b) nounwind { | 
|  | ; CHECK-LABEL: muladd: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdx, %rax | 
|  | ; CHECK-NEXT:    mulq %rsi | 
|  | ; CHECK-NEXT:    addq %rax, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcl $0, 16(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %arg.a to i128 | 
|  | %1 = zext i64 %arg.b to i128 | 
|  | %2 = mul nuw i128 %1, %0 | 
|  | %3 = load i64, ptr %this, align 8 | 
|  | %4 = zext i64 %3 to i128 | 
|  | %5 = add i128 %4, %2 | 
|  | %6 = trunc i128 %5 to i64 | 
|  | store i64 %6, ptr %this, align 8 | 
|  | %7 = lshr i128 %5, 64 | 
|  | %8 = getelementptr inbounds %accumulator, ptr %this, i64 0, i32 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = zext i64 %9 to i128 | 
|  | %11 = add nuw nsw i128 %7, %10 | 
|  | %12 = trunc i128 %11 to i64 | 
|  | store i64 %12, ptr %8, align 8 | 
|  | %13 = lshr i128 %11, 64 | 
|  | %14 = getelementptr inbounds %accumulator, ptr %this, i64 0, i32 2 | 
|  | %15 = load i32, ptr %14, align 4 | 
|  | %16 = zext i32 %15 to i128 | 
|  | %17 = add nuw nsw i128 %13, %16 | 
|  | %18 = trunc i128 %17 to i32 | 
|  | store i32 %18, ptr %14, align 4 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define i64 @shiftadd(i64 %a, i64 %b, i64 %c, i64 %d) nounwind { | 
|  | ; CHECK-LABEL: shiftadd: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdx, %rax | 
|  | ; CHECK-NEXT:    addq %rsi, %rdi | 
|  | ; CHECK-NEXT:    adcq %rcx, %rax | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = zext i64 %a to i128 | 
|  | %1 = zext i64 %b to i128 | 
|  | %2 = add i128 %0, %1 | 
|  | %3 = lshr i128 %2, 64 | 
|  | %4 = trunc i128 %3 to i64 | 
|  | %5 = add i64 %c, %d | 
|  | %6 = add i64 %4, %5 | 
|  | ret i64 %6 | 
|  | } | 
|  |  | 
|  | %S = type { [4 x i64] } | 
|  |  | 
|  | define %S @readd(ptr nocapture readonly %this, %S %arg.b) nounwind { | 
|  | ; CHECK-LABEL: readd: | 
|  | ; CHECK:       # %bb.0: # %entry | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq (%rsi), %rdx | 
|  | ; CHECK-NEXT:    movq 8(%rsi), %rdi | 
|  | ; CHECK-NEXT:    adcq $0, %rdi | 
|  | ; CHECK-NEXT:    setb %r10b | 
|  | ; CHECK-NEXT:    movzbl %r10b, %r10d | 
|  | ; CHECK-NEXT:    addq %rcx, %rdi | 
|  | ; CHECK-NEXT:    adcq 16(%rsi), %r10 | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movzbl %cl, %ecx | 
|  | ; CHECK-NEXT:    addq %r8, %r10 | 
|  | ; CHECK-NEXT:    adcq 24(%rsi), %rcx | 
|  | ; CHECK-NEXT:    addq %r9, %rcx | 
|  | ; CHECK-NEXT:    movq %rdx, (%rax) | 
|  | ; CHECK-NEXT:    movq %rdi, 8(%rax) | 
|  | ; CHECK-NEXT:    movq %r10, 16(%rax) | 
|  | ; CHECK-NEXT:    movq %rcx, 24(%rax) | 
|  | ; CHECK-NEXT:    retq | 
|  | entry: | 
|  | %0 = extractvalue %S %arg.b, 0 | 
|  | %.elt6 = extractvalue [4 x i64] %0, 1 | 
|  | %.elt8 = extractvalue [4 x i64] %0, 2 | 
|  | %.elt10 = extractvalue [4 x i64] %0, 3 | 
|  | %.elt = extractvalue [4 x i64] %0, 0 | 
|  | %1 = load i64, ptr %this, align 8 | 
|  | %2 = zext i64 %1 to i128 | 
|  | %3 = zext i64 %.elt to i128 | 
|  | %4 = add nuw nsw i128 %2, %3 | 
|  | %5 = trunc i128 %4 to i64 | 
|  | %6 = lshr i128 %4, 64 | 
|  | %7 = getelementptr inbounds %S, ptr %this, i64 0, i32 0, i64 1 | 
|  | %8 = load i64, ptr %7, align 8 | 
|  | %9 = zext i64 %8 to i128 | 
|  | %10 = add nuw nsw i128 %6, %9 | 
|  | %11 = zext i64 %.elt6 to i128 | 
|  | %12 = add nuw nsw i128 %10, %11 | 
|  | %13 = trunc i128 %12 to i64 | 
|  | %14 = lshr i128 %12, 64 | 
|  | %15 = getelementptr inbounds %S, ptr %this, i64 0, i32 0, i64 2 | 
|  | %16 = load i64, ptr %15, align 8 | 
|  | %17 = zext i64 %16 to i128 | 
|  | %18 = add nuw nsw i128 %14, %17 | 
|  | %19 = zext i64 %.elt8 to i128 | 
|  | %20 = add nuw nsw i128 %18, %19 | 
|  | %21 = lshr i128 %20, 64 | 
|  | %22 = trunc i128 %20 to i64 | 
|  | %23 = getelementptr inbounds %S, ptr %this, i64 0,i32 0, i64 3 | 
|  | %24 = load i64, ptr %23, align 8 | 
|  | %25 = zext i64 %24 to i128 | 
|  | %26 = add nuw nsw i128 %21, %25 | 
|  | %27 = zext i64 %.elt10 to i128 | 
|  | %28 = add nuw nsw i128 %26, %27 | 
|  | %29 = trunc i128 %28 to i64 | 
|  | %30 = insertvalue [4 x i64] undef, i64 %5, 0 | 
|  | %31 = insertvalue [4 x i64] %30, i64 %13, 1 | 
|  | %32 = insertvalue [4 x i64] %31, i64 %22, 2 | 
|  | %33 = insertvalue [4 x i64] %32, i64 %29, 3 | 
|  | %34 = insertvalue %S undef, [4 x i64] %33, 0 | 
|  | ret %S %34 | 
|  | } | 
|  |  | 
|  | define i128 @addcarry1_not(i128 %n) nounwind { | 
|  | ; CHECK-LABEL: addcarry1_not: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    xorl %edx, %edx | 
|  | ; CHECK-NEXT:    negq %rax | 
|  | ; CHECK-NEXT:    sbbq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %1 = xor i128 %n, -1 | 
|  | %2 = add i128 %1, 1 | 
|  | ret i128 %2 | 
|  | } | 
|  |  | 
|  | define { i128, i1 } @saddo_not_1(i128 %x) nounwind { | 
|  | ; CHECK-LABEL: saddo_not_1: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    xorl %edx, %edx | 
|  | ; CHECK-NEXT:    negq %rax | 
|  | ; CHECK-NEXT:    sbbq %rsi, %rdx | 
|  | ; CHECK-NEXT:    seto %cl | 
|  | ; CHECK-NEXT:    retq | 
|  | %not = xor i128 %x, -1 | 
|  | %r = call { i128, i1 } @llvm.sadd.with.overflow.i128(i128 %not, i128 1) | 
|  | ret { i128, i1 } %r | 
|  | } | 
|  |  | 
|  | define { i128, i1 } @saddo_carry_not_1(i128 %x) nounwind { | 
|  | ; CHECK-LABEL: saddo_carry_not_1: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    negq %rax | 
|  | ; CHECK-NEXT:    movl $1, %edx | 
|  | ; CHECK-NEXT:    sbbq %rsi, %rdx | 
|  | ; CHECK-NEXT:    seto %cl | 
|  | ; CHECK-NEXT:    retq | 
|  | %not = xor i128 %x, -1 | 
|  | %r = call { i128, i1 } @llvm.sadd.with.overflow.i128(i128 %not, i128 u0x10000000000000001) | 
|  | ret { i128, i1 } %r | 
|  | } | 
|  |  | 
|  | define i128 @addcarry_to_subcarry(i64 %a, i64 %b) nounwind { | 
|  | ; CHECK-LABEL: addcarry_to_subcarry: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    cmpq %rsi, %rdi | 
|  | ; CHECK-NEXT:    notq %rsi | 
|  | ; CHECK-NEXT:    setae %cl | 
|  | ; CHECK-NEXT:    addb $-1, %cl | 
|  | ; CHECK-NEXT:    adcq $0, %rax | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movzbl %cl, %edx | 
|  | ; CHECK-NEXT:    addq %rsi, %rax | 
|  | ; CHECK-NEXT:    adcq $0, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %notb = xor i64 %b, -1 | 
|  | %notb128 = zext i64 %notb to i128 | 
|  | %a128 = zext i64 %a to i128 | 
|  | %sum1 = add i128 %a128, 1 | 
|  | %sub1 = add i128 %sum1, %notb128 | 
|  | %hi = lshr i128 %sub1, 64 | 
|  | %sum2 = add i128 %hi, %a128 | 
|  | %sub2 = add i128 %sum2, %notb128 | 
|  | ret i128 %sub2 | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() | 
|  | define { i64, i64, i1 } @addcarry_2x64(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_2x64: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = or i1 %k1, %k2 | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with carries behind zext/and/trunc | 
|  | define { i64, i64, i1 } @addcarry_hidden_2x64(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_hidden_2x64: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  | %k1i8 = zext i1 %k1 to i8 | 
|  | %k1and = and i8 %k1i8, 1 | 
|  | %k1hidden = trunc i8 %k1and to i1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  |  | 
|  | %k = or i1 %k1hidden, %k2 | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with carries behind zext/and/trunc | 
|  | define { i64, i64, i1 } @addcarry_hidden2_2x64(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_hidden2_2x64: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k2i8 = zext i1 %k2 to i8 | 
|  | %k2and = and i8 %k2i8, 1 | 
|  | %k2hidden = trunc i8 %k2and to i1 | 
|  |  | 
|  | %k = or i1 %k1, %k2hidden | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with or operands reversed | 
|  | define { i64, i64, i1 } @addcarry_2x64_or_reversed(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_2x64_or_reversed: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %zk0, i64 %s1)  ; reversed | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = or i1 %k2, %k1  ; reverse natural order of operands | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with xor operands reversed | 
|  | define { i64, i64, i1 } @addcarry_2x64_xor_reversed(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_2x64_xor_reversed: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = xor i1 %k2, %k1  ; reverse natural order of operands | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with and operands reversed | 
|  | define { i64, i64, i1 } @addcarry_2x64_and_reversed(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_2x64_and_reversed: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    xorl %ecx, %ecx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = and i1 %k2, %k1  ; reverse natural order of operands | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; basic test for combineCarryDiamond() with add operands reversed | 
|  | define { i64, i64, i1 } @addcarry_2x64_add_reversed(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_2x64_add_reversed: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = add i1 %k2, %k1  ; reverse natural order of operands | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | ; Here %carryin is considered as valid carry flag for combining into ADDCARRY | 
|  | ; although %carryin does not come from any carry-producing instruction. | 
|  | define { i64, i1 } @addcarry_fake_carry(i64 %a, i64 %b, i1 %carryin) nounwind { | 
|  | ; CHECK-LABEL: addcarry_fake_carry: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    btl $0, %edx | 
|  | ; CHECK-NEXT:    adcq %rsi, %rax | 
|  | ; CHECK-NEXT:    setb %dl | 
|  | ; CHECK-NEXT:    retq | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %a, i64 %b) | 
|  | %partial = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zcarryin = zext i1 %carryin to i64 | 
|  | %sum = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %partial, i64 %zcarryin) | 
|  | %k2 = extractvalue { i64, i1 } %sum, 1 | 
|  |  | 
|  | %carryout = or i1 %k1, %k2 | 
|  |  | 
|  | %ret = insertvalue { i64, i1 } %sum, i1 %carryout, 1 | 
|  | ret { i64, i1 } %ret | 
|  | } | 
|  |  | 
|  | ; negative test: %carryin does not look like carry | 
|  | define { i64, i1 } @addcarry_carry_not_zext(i64 %a, i64 %b, i64 %carryin) nounwind { | 
|  | ; CHECK-LABEL: addcarry_carry_not_zext: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rsi, %rax | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    setb %dl | 
|  | ; CHECK-NEXT:    orb %cl, %dl | 
|  | ; CHECK-NEXT:    retq | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %a, i64 %b) | 
|  | %partial = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %sum = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %partial, i64 %carryin) | 
|  | %k2 = extractvalue { i64, i1 } %sum, 1 | 
|  |  | 
|  | %carryout = or i1 %k1, %k2 | 
|  |  | 
|  | %ret = insertvalue { i64, i1 } %sum, i1 %carryout, 1 | 
|  | ret { i64, i1 } %ret | 
|  | } | 
|  |  | 
|  | ; negative test: %carryin does not look like carry | 
|  | define { i64, i1 } @addcarry_carry_not_i1(i64 %a, i64 %b, i8 %carryin) nounwind { | 
|  | ; CHECK-LABEL: addcarry_carry_not_i1: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, %rdi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    movzbl %dl, %eax | 
|  | ; CHECK-NEXT:    addq %rdi, %rax | 
|  | ; CHECK-NEXT:    setb %dl | 
|  | ; CHECK-NEXT:    orb %cl, %dl | 
|  | ; CHECK-NEXT:    retq | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %a, i64 %b) | 
|  | %partial = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zcarryin = zext i8 %carryin to i64 | 
|  | %sum = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %partial, i64 %zcarryin) | 
|  | %k2 = extractvalue { i64, i1 } %sum, 1 | 
|  |  | 
|  | %carryout = or i1 %k1, %k2 | 
|  |  | 
|  | %ret = insertvalue { i64, i1 } %sum, i1 %carryout, 1 | 
|  | ret { i64, i1 } %ret | 
|  | } | 
|  |  | 
|  | ; Check that we can reconstruct a carry if it is masked. | 
|  | define { i64, i1 } @addcarry_carry_and_1(i64 %a, i64 %b, i64 %carryin) nounwind { | 
|  | ; CHECK-LABEL: addcarry_carry_and_1: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    btl $0, %edx | 
|  | ; CHECK-NEXT:    adcq %rsi, %rax | 
|  | ; CHECK-NEXT:    setb %dl | 
|  | ; CHECK-NEXT:    retq | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %a, i64 %b) | 
|  | %partial = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %mcarryin = and i64 %carryin, 1 | 
|  | %sum = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %partial, i64 %mcarryin) | 
|  | %k2 = extractvalue { i64, i1 } %sum, 1 | 
|  |  | 
|  | %carryout = or i1 %k1, %k2 | 
|  |  | 
|  | %ret = insertvalue { i64, i1 } %sum, i1 %carryout, 1 | 
|  | ret { i64, i1 } %ret | 
|  | } | 
|  |  | 
|  | ; negative test for combineCarryDiamond(): uaddo mixed with usubo | 
|  | define { i64, i64, i1 } @addcarry_mixed_2x64(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_mixed_2x64: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %dil | 
|  | ; CHECK-NEXT:    addq %rdx, %rax | 
|  | ; CHECK-NEXT:    sbbq $0, %rsi | 
|  | ; CHECK-NEXT:    setb %cl | 
|  | ; CHECK-NEXT:    orb %dil, %cl | 
|  | ; CHECK-NEXT:    movq %rsi, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %t0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %s0 = extractvalue { i64, i1 } %t0, 0 | 
|  | %k0 = extractvalue { i64, i1 } %t0, 1 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %s1 = extractvalue { i64, i1 } %t1, 0 | 
|  | %k1 = extractvalue { i64, i1 } %t1, 1 | 
|  |  | 
|  | %zk0 = zext i1 %k0 to i64 | 
|  | %t2 = call { i64, i1 } @llvm.usub.with.overflow.i64(i64 %s1, i64 %zk0) | 
|  | %s2 = extractvalue { i64, i1 } %t2, 0 | 
|  | %k2 = extractvalue { i64, i1 } %t2, 1 | 
|  | %k = or i1 %k1, %k2 | 
|  |  | 
|  | %r0 = insertvalue { i64, i64, i1 } poison, i64 %s0, 0 | 
|  | %r1 = insertvalue { i64, i64, i1 } %r0, i64 %s2, 1 | 
|  | %r = insertvalue { i64, i64, i1 } %r1, i1 %k, 2 | 
|  | ret { i64, i64, i1 } %r | 
|  | } | 
|  |  | 
|  | %struct.U320 = type { [5 x i64] } | 
|  |  | 
|  | define i32 @add_U320_without_i128_add(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: add_U320_without_i128_add: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq 16(%rdi), %rax | 
|  | ; CHECK-NEXT:    movq 24(%rdi), %r10 | 
|  | ; CHECK-NEXT:    movq 32(%rdi), %r11 | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    movq %rax, %rdx | 
|  | ; CHECK-NEXT:    adcq %rcx, %rdx | 
|  | ; CHECK-NEXT:    addq %rcx, %rax | 
|  | ; CHECK-NEXT:    movq %r10, %rcx | 
|  | ; CHECK-NEXT:    adcq %r8, %rcx | 
|  | ; CHECK-NEXT:    cmpq %rax, %rdx | 
|  | ; CHECK-NEXT:    adcq $0, %rcx | 
|  | ; CHECK-NEXT:    leaq (%r11,%r9), %rsi | 
|  | ; CHECK-NEXT:    addq %r8, %r10 | 
|  | ; CHECK-NEXT:    movq %r11, %r8 | 
|  | ; CHECK-NEXT:    adcq %r9, %r8 | 
|  | ; CHECK-NEXT:    cmpq %r10, %rcx | 
|  | ; CHECK-NEXT:    adcq $0, %r8 | 
|  | ; CHECK-NEXT:    xorl %eax, %eax | 
|  | ; CHECK-NEXT:    cmpq %rsi, %r8 | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    addq %r9, %r11 | 
|  | ; CHECK-NEXT:    movq %rdx, 16(%rdi) | 
|  | ; CHECK-NEXT:    movq %rcx, 24(%rdi) | 
|  | ; CHECK-NEXT:    movq %r8, 32(%rdi) | 
|  | ; CHECK-NEXT:    adcl $0, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = add i64 %7, %1 | 
|  | %17 = add i64 %9, %2 | 
|  | %18 = icmp ult i64 %16, %1 | 
|  | %19 = zext i1 %18 to i64 | 
|  | %20 = add i64 %17, %19 | 
|  | %21 = add i64 %11, %3 | 
|  | %22 = icmp ult i64 %17, %9 | 
|  | %23 = zext i1 %22 to i64 | 
|  | %24 = icmp ult i64 %20, %17 | 
|  | %25 = zext i1 %24 to i64 | 
|  | %26 = add i64 %21, %23 | 
|  | %27 = add i64 %26, %25 | 
|  | %28 = add i64 %13, %4 | 
|  | %29 = icmp ult i64 %21, %11 | 
|  | %30 = zext i1 %29 to i64 | 
|  | %31 = icmp ult i64 %27, %21 | 
|  | %32 = zext i1 %31 to i64 | 
|  | %33 = add i64 %28, %30 | 
|  | %34 = add i64 %33, %32 | 
|  | %35 = add i64 %15, %5 | 
|  | %36 = icmp ult i64 %28, %13 | 
|  | %37 = zext i1 %36 to i64 | 
|  | %38 = icmp ult i64 %34, %28 | 
|  | %39 = zext i1 %38 to i64 | 
|  | %40 = add i64 %35, %37 | 
|  | %41 = add i64 %40, %39 | 
|  | store i64 %16, ptr %0, align 8 | 
|  | store i64 %20, ptr %8, align 8 | 
|  | store i64 %27, ptr %10, align 8 | 
|  | store i64 %34, ptr %12, align 8 | 
|  | store i64 %41, ptr %14, align 8 | 
|  | %42 = icmp ult i64 %35, %15 | 
|  | %43 = zext i1 %42 to i32 | 
|  | %44 = icmp ult i64 %41, %35 | 
|  | %45 = zext i1 %44 to i32 | 
|  | %46 = add nuw nsw i32 %45, %43 | 
|  | ret i32 %46 | 
|  | } | 
|  |  | 
|  | define i32 @add_U320_without_i128_or(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: add_U320_without_i128_or: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r9, 32(%rdi) | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    movzbl %al, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = add i64 %7, %1 | 
|  | %17 = add i64 %9, %2 | 
|  | %18 = icmp ult i64 %16, %1 | 
|  | %19 = zext i1 %18 to i64 | 
|  | %20 = add i64 %17, %19 | 
|  | %21 = add i64 %11, %3 | 
|  | %22 = icmp ult i64 %17, %9 | 
|  | %23 = icmp ult i64 %20, %17 | 
|  | %24 = or i1 %22, %23 | 
|  | %25 = zext i1 %24 to i64 | 
|  | %26 = add i64 %21, %25 | 
|  | %27 = add i64 %13, %4 | 
|  | %28 = icmp ult i64 %21, %11 | 
|  | %29 = icmp ult i64 %26, %21 | 
|  | %30 = or i1 %28, %29 | 
|  | %31 = zext i1 %30 to i64 | 
|  | %32 = add i64 %27, %31 | 
|  | %33 = add i64 %15, %5 | 
|  | %34 = icmp ult i64 %27, %13 | 
|  | %35 = icmp ult i64 %32, %27 | 
|  | %36 = or i1 %34, %35 | 
|  | %37 = zext i1 %36 to i64 | 
|  | %38 = add i64 %33, %37 | 
|  | store i64 %16, ptr %0, align 8 | 
|  | store i64 %20, ptr %8, align 8 | 
|  | store i64 %26, ptr %10, align 8 | 
|  | store i64 %32, ptr %12, align 8 | 
|  | store i64 %38, ptr %14, align 8 | 
|  | %39 = icmp ult i64 %33, %15 | 
|  | %40 = icmp ult i64 %38, %33 | 
|  | %41 = or i1 %39, %40 | 
|  | %42 = zext i1 %41 to i32 | 
|  | ret i32 %42 | 
|  | } | 
|  |  | 
|  | define i32 @add_U320_without_i128_xor(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: add_U320_without_i128_xor: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r9, 32(%rdi) | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    movzbl %al, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = add i64 %7, %1 | 
|  | %17 = add i64 %9, %2 | 
|  | %18 = icmp ult i64 %16, %1 | 
|  | %19 = zext i1 %18 to i64 | 
|  | %20 = add i64 %17, %19 | 
|  | %21 = add i64 %11, %3 | 
|  | %22 = icmp ult i64 %17, %9 | 
|  | %23 = icmp ult i64 %20, %17 | 
|  | %24 = xor i1 %22, %23 | 
|  | %25 = zext i1 %24 to i64 | 
|  | %26 = add i64 %21, %25 | 
|  | %27 = add i64 %13, %4 | 
|  | %28 = icmp ult i64 %21, %11 | 
|  | %29 = icmp ult i64 %26, %21 | 
|  | %30 = xor i1 %28, %29 | 
|  | %31 = zext i1 %30 to i64 | 
|  | %32 = add i64 %27, %31 | 
|  | %33 = add i64 %15, %5 | 
|  | %34 = icmp ult i64 %27, %13 | 
|  | %35 = icmp ult i64 %32, %27 | 
|  | %36 = xor i1 %34, %35 | 
|  | %37 = zext i1 %36 to i64 | 
|  | %38 = add i64 %33, %37 | 
|  | store i64 %16, ptr %0, align 8 | 
|  | store i64 %20, ptr %8, align 8 | 
|  | store i64 %26, ptr %10, align 8 | 
|  | store i64 %32, ptr %12, align 8 | 
|  | store i64 %38, ptr %14, align 8 | 
|  | %39 = icmp ult i64 %33, %15 | 
|  | %40 = icmp ult i64 %38, %33 | 
|  | %41 = xor i1 %39, %40 | 
|  | %42 = zext i1 %41 to i32 | 
|  | ret i32 %42 | 
|  | } | 
|  |  | 
|  | ; Either the primary addition can overflow or the addition of the carry, but | 
|  | ; they cannot both overflow. | 
|  | define i32 @bogus_add_U320_without_i128_and(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: bogus_add_U320_without_i128_and: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    addq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    addq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    addq %r9, 32(%rdi) | 
|  | ; CHECK-NEXT:    xorl %eax, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = add i64 %7, %1 | 
|  | %17 = add i64 %9, %2 | 
|  | %18 = icmp ult i64 %16, %1 | 
|  | %19 = zext i1 %18 to i64 | 
|  | %20 = add i64 %17, %19 | 
|  | %21 = add i64 %11, %3 | 
|  | %22 = icmp ult i64 %17, %9 | 
|  | %23 = icmp ult i64 %20, %17 | 
|  | %24 = and i1 %22, %23 | 
|  | %25 = zext i1 %24 to i64 | 
|  | %26 = add i64 %21, %25 | 
|  | %27 = add i64 %13, %4 | 
|  | %28 = icmp ult i64 %21, %11 | 
|  | %29 = icmp ult i64 %26, %21 | 
|  | %30 = and i1 %28, %29 | 
|  | %31 = zext i1 %30 to i64 | 
|  | %32 = add i64 %27, %31 | 
|  | %33 = add i64 %15, %5 | 
|  | %34 = icmp ult i64 %27, %13 | 
|  | %35 = icmp ult i64 %32, %27 | 
|  | %36 = and i1 %34, %35 | 
|  | %37 = zext i1 %36 to i64 | 
|  | %38 = add i64 %33, %37 | 
|  | store i64 %16, ptr %0, align 8 | 
|  | store i64 %20, ptr %8, align 8 | 
|  | store i64 %26, ptr %10, align 8 | 
|  | store i64 %32, ptr %12, align 8 | 
|  | store i64 %38, ptr %14, align 8 | 
|  | %39 = icmp ult i64 %33, %15 | 
|  | %40 = icmp ult i64 %38, %33 | 
|  | %41 = and i1 %39, %40 | 
|  | %42 = zext i1 %41 to i32 | 
|  | ret i32 %42 | 
|  | } | 
|  |  | 
|  | define void @add_U320_without_i128_or_no_ret(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: add_U320_without_i128_or_no_ret: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r9, 32(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = add i64 %7, %1 | 
|  | %17 = add i64 %9, %2 | 
|  | %18 = icmp ult i64 %16, %1 | 
|  | %19 = zext i1 %18 to i64 | 
|  | %20 = add i64 %17, %19 | 
|  | %21 = add i64 %11, %3 | 
|  | %22 = icmp ult i64 %17, %9 | 
|  | %23 = icmp ult i64 %20, %17 | 
|  | %24 = or i1 %22, %23 | 
|  | %25 = zext i1 %24 to i64 | 
|  | %26 = add i64 %21, %25 | 
|  | %27 = add i64 %13, %4 | 
|  | %28 = icmp ult i64 %21, %11 | 
|  | %29 = icmp ult i64 %26, %21 | 
|  | %30 = or i1 %28, %29 | 
|  | %31 = zext i1 %30 to i64 | 
|  | %32 = add i64 %27, %31 | 
|  | %33 = add i64 %15, %5 | 
|  | %34 = icmp ult i64 %27, %13 | 
|  | %35 = icmp ult i64 %32, %27 | 
|  | %36 = or i1 %34, %35 | 
|  | %37 = zext i1 %36 to i64 | 
|  | %38 = add i64 %33, %37 | 
|  | store i64 %16, ptr %0, align 8 | 
|  | store i64 %20, ptr %8, align 8 | 
|  | store i64 %26, ptr %10, align 8 | 
|  | store i64 %32, ptr %12, align 8 | 
|  | store i64 %38, ptr %14, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define i32 @add_U320_uaddo(ptr nocapture dereferenceable(40) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5) nounwind { | 
|  | ; CHECK-LABEL: add_U320_uaddo: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rsi, (%rdi) | 
|  | ; CHECK-NEXT:    adcq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    adcq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r8, 24(%rdi) | 
|  | ; CHECK-NEXT:    adcq %r9, 32(%rdi) | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    movzbl %al, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %7 = load i64, ptr %0, align 8 | 
|  | %8 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 2 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 3 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = getelementptr inbounds %struct.U320, ptr %0, i64 0, i32 0, i64 4 | 
|  | %15 = load i64, ptr %14, align 8 | 
|  | %16 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %7, i64 %1) | 
|  | %17 = extractvalue { i64, i1 } %16, 1 | 
|  | %18 = extractvalue { i64, i1 } %16, 0 | 
|  | %19 = zext i1 %17 to i64 | 
|  | %20 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %9, i64 %2) | 
|  | %21 = extractvalue { i64, i1 } %20, 1 | 
|  | %22 = extractvalue { i64, i1 } %20, 0 | 
|  | %23 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %22, i64 %19) | 
|  | %24 = extractvalue { i64, i1 } %23, 1 | 
|  | %25 = extractvalue { i64, i1 } %23, 0 | 
|  | %26 = or i1 %21, %24 | 
|  | %27 = zext i1 %26 to i64 | 
|  | %28 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %11, i64 %3) | 
|  | %29 = extractvalue { i64, i1 } %28, 1 | 
|  | %30 = extractvalue { i64, i1 } %28, 0 | 
|  | %31 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %30, i64 %27) | 
|  | %32 = extractvalue { i64, i1 } %31, 1 | 
|  | %33 = extractvalue { i64, i1 } %31, 0 | 
|  | %34 = or i1 %29, %32 | 
|  | %35 = zext i1 %34 to i64 | 
|  | %36 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %13, i64 %4) | 
|  | %37 = extractvalue { i64, i1 } %36, 1 | 
|  | %38 = extractvalue { i64, i1 } %36, 0 | 
|  | %39 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %38, i64 %35) | 
|  | %40 = extractvalue { i64, i1 } %39, 1 | 
|  | %41 = extractvalue { i64, i1 } %39, 0 | 
|  | %42 = or i1 %37, %40 | 
|  | %43 = zext i1 %42 to i64 | 
|  | %44 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %15, i64 %5) | 
|  | %45 = extractvalue { i64, i1 } %44, 1 | 
|  | %46 = extractvalue { i64, i1 } %44, 0 | 
|  | %47 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %46, i64 %43) | 
|  | %48 = extractvalue { i64, i1 } %47, 1 | 
|  | %49 = extractvalue { i64, i1 } %47, 0 | 
|  | %50 = or i1 %45, %48 | 
|  | store i64 %18, ptr %0, align 8 | 
|  | store i64 %25, ptr %8, align 8 | 
|  | store i64 %33, ptr %10, align 8 | 
|  | store i64 %41, ptr %12, align 8 | 
|  | store i64 %49, ptr %14, align 8 | 
|  | %51 = zext i1 %50 to i32 | 
|  | ret i32 %51 | 
|  | } | 
|  |  | 
|  | %struct.U192 = type { [3 x i64] } | 
|  |  | 
|  | define void @PR39464(ptr noalias nocapture sret(%struct.U192) %0, ptr nocapture readonly dereferenceable(24) %1, ptr nocapture readonly dereferenceable(24) %2) nounwind { | 
|  | ; CHECK-LABEL: PR39464: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    movq (%rsi), %rcx | 
|  | ; CHECK-NEXT:    addq (%rdx), %rcx | 
|  | ; CHECK-NEXT:    movq %rcx, (%rdi) | 
|  | ; CHECK-NEXT:    movq 8(%rsi), %rcx | 
|  | ; CHECK-NEXT:    adcq 8(%rdx), %rcx | 
|  | ; CHECK-NEXT:    movq %rcx, 8(%rdi) | 
|  | ; CHECK-NEXT:    movq 16(%rsi), %rcx | 
|  | ; CHECK-NEXT:    adcq 16(%rdx), %rcx | 
|  | ; CHECK-NEXT:    movq %rcx, 16(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | %4 = load i64, ptr %1, align 8 | 
|  | %5 = load i64, ptr %2, align 8 | 
|  | %6 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %4, i64 %5) | 
|  | %7 = extractvalue { i64, i1 } %6, 1 | 
|  | %8 = extractvalue { i64, i1 } %6, 0 | 
|  | %9 = zext i1 %7 to i64 | 
|  | store i64 %8, ptr %0, align 8 | 
|  | %10 = getelementptr inbounds %struct.U192, ptr %1, i64 0, i32 0, i64 1 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = getelementptr inbounds %struct.U192, ptr %2, i64 0, i32 0, i64 1 | 
|  | %13 = load i64, ptr %12, align 8 | 
|  | %14 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %11, i64 %13) | 
|  | %15 = extractvalue { i64, i1 } %14, 1 | 
|  | %16 = extractvalue { i64, i1 } %14, 0 | 
|  | %17 = tail call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %16, i64 %9) | 
|  | %18 = extractvalue { i64, i1 } %17, 1 | 
|  | %19 = extractvalue { i64, i1 } %17, 0 | 
|  | %20 = or i1 %15, %18 | 
|  | %21 = zext i1 %20 to i64 | 
|  | %22 = getelementptr inbounds %struct.U192, ptr %0, i64 0, i32 0, i64 1 | 
|  | store i64 %19, ptr %22, align 8 | 
|  | %23 = getelementptr inbounds %struct.U192, ptr %1, i64 0, i32 0, i64 2 | 
|  | %24 = load i64, ptr %23, align 8 | 
|  | %25 = getelementptr inbounds %struct.U192, ptr %2, i64 0, i32 0, i64 2 | 
|  | %26 = load i64, ptr %25, align 8 | 
|  | %27 = add i64 %24, %26 | 
|  | %28 = add i64 %27, %21 | 
|  | %29 = getelementptr inbounds %struct.U192, ptr %0, i64 0, i32 0, i64 2 | 
|  | store i64 %28, ptr %29, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  |  | 
|  | %uint128 = type { i64, i64 } | 
|  |  | 
|  | define zeroext i1 @uaddo_U128_without_i128_or(i64 %0, i64 %1, i64 %2, i64 %3, ptr nocapture %4) nounwind { | 
|  | ; CHECK-LABEL: uaddo_U128_without_i128_or: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    addq %rdx, %rdi | 
|  | ; CHECK-NEXT:    adcq %rcx, %rsi | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    movq %rsi, (%r8) | 
|  | ; CHECK-NEXT:    movq %rdi, 8(%r8) | 
|  | ; CHECK-NEXT:    retq | 
|  | %6 = add i64 %2, %0 | 
|  | %7 = icmp ult i64 %6, %0 | 
|  | %8 = add i64 %3, %1 | 
|  | %9 = icmp ult i64 %8, %1 | 
|  | %10 = zext i1 %7 to i64 | 
|  | %11 = add i64 %8, %10 | 
|  | %12 = icmp ult i64 %11, %8 | 
|  | %13 = or i1 %9, %12 | 
|  | store i64 %11, ptr %4, align 8 | 
|  | %14 = getelementptr inbounds %uint128, ptr %4, i64 0, i32 1 | 
|  | store i64 %6, ptr %14, align 8 | 
|  | ret i1 %13 | 
|  | } | 
|  |  | 
|  |  | 
|  | %uint192 = type { i64, i64, i64 } | 
|  |  | 
|  | define void @add_U192_without_i128_or(ptr sret(%uint192) %0, i64 %1, i64 %2, i64 %3, i64 %4, i64 %5, i64 %6) nounwind { | 
|  | ; CHECK-LABEL: add_U192_without_i128_or: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    addq %r8, %rsi | 
|  | ; CHECK-NEXT:    adcq %r9, %rdx | 
|  | ; CHECK-NEXT:    adcq {{[0-9]+}}(%rsp), %rcx | 
|  | ; CHECK-NEXT:    movq %rcx, (%rdi) | 
|  | ; CHECK-NEXT:    movq %rdx, 8(%rdi) | 
|  | ; CHECK-NEXT:    movq %rsi, 16(%rdi) | 
|  | ; CHECK-NEXT:    retq | 
|  | %8 = add i64 %4, %1 | 
|  | %9 = icmp ult i64 %8, %1 | 
|  | %10 = add i64 %5, %2 | 
|  | %11 = icmp ult i64 %10, %2 | 
|  | %12 = zext i1 %9 to i64 | 
|  | %13 = add i64 %10, %12 | 
|  | %14 = icmp ult i64 %13, %10 | 
|  | %15 = or i1 %11, %14 | 
|  | %16 = add i64 %6, %3 | 
|  | %17 = zext i1 %15 to i64 | 
|  | %18 = add i64 %16, %17 | 
|  | store i64 %18, ptr %0, align 8 | 
|  | %19 = getelementptr inbounds %uint192, ptr %0, i64 0, i32 1 | 
|  | store i64 %13, ptr %19, align 8 | 
|  | %20 = getelementptr inbounds %uint192, ptr %0, i64 0, i32 2 | 
|  | store i64 %8, ptr %20, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  |  | 
|  | %uint256 = type { %uint128, %uint128 } | 
|  |  | 
|  | ; Classic unrolled 256-bit addition implementation using i64 as the word type. | 
|  | ; It starts by adding least significant words and propagates carry to additions of the higher words. | 
|  | define void @add_U256_without_i128_or_by_i64_words(ptr sret(%uint256) %0, ptr %1, ptr %2) nounwind { | 
|  | ; CHECK-LABEL: add_U256_without_i128_or_by_i64_words: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    movq (%rdx), %rcx | 
|  | ; CHECK-NEXT:    movq 8(%rdx), %rdi | 
|  | ; CHECK-NEXT:    addq (%rsi), %rcx | 
|  | ; CHECK-NEXT:    adcq 8(%rsi), %rdi | 
|  | ; CHECK-NEXT:    movq 16(%rdx), %r8 | 
|  | ; CHECK-NEXT:    adcq 16(%rsi), %r8 | 
|  | ; CHECK-NEXT:    movq 24(%rdx), %rdx | 
|  | ; CHECK-NEXT:    adcq 24(%rsi), %rdx | 
|  | ; CHECK-NEXT:    movq %rdx, (%rax) | 
|  | ; CHECK-NEXT:    movq %r8, 8(%rax) | 
|  | ; CHECK-NEXT:    movq %rdi, 16(%rax) | 
|  | ; CHECK-NEXT:    movq %rcx, 24(%rax) | 
|  | ; CHECK-NEXT:    retq | 
|  | %4 = load i64, ptr %1, align 8 | 
|  | %5 = load i64, ptr %2, align 8 | 
|  | %6 = add i64 %5, %4 | 
|  | %7 = icmp ult i64 %6, %4 | 
|  | %8 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 0, i32 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 0, i32 1 | 
|  | %11 = load i64, ptr %10, align 8 | 
|  | %12 = add i64 %11, %9 | 
|  | %13 = icmp ult i64 %12, %9 | 
|  | %14 = zext i1 %7 to i64 | 
|  | %15 = add i64 %12, %14 | 
|  | %16 = icmp ult i64 %15, %14 | 
|  | %17 = or i1 %13, %16 | 
|  | %18 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 1, i32 0 | 
|  | %19 = load i64, ptr %18, align 8 | 
|  | %20 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 1, i32 0 | 
|  | %21 = load i64, ptr %20, align 8 | 
|  | %22 = add i64 %21, %19 | 
|  | %23 = icmp ult i64 %22, %19 | 
|  | %24 = zext i1 %17 to i64 | 
|  | %25 = add i64 %22, %24 | 
|  | %26 = icmp ult i64 %25, %24 | 
|  | %27 = or i1 %23, %26 | 
|  | %28 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 1, i32 1 | 
|  | %29 = load i64, ptr %28, align 8 | 
|  | %30 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 1, i32 1 | 
|  | %31 = load i64, ptr %30, align 8 | 
|  | %32 = add i64 %31, %29 | 
|  | %33 = zext i1 %27 to i64 | 
|  | %34 = add i64 %32, %33 | 
|  | store i64 %34, ptr %0, align 8 | 
|  | %35 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 0, i32 1 | 
|  | store i64 %25, ptr %35, align 8 | 
|  | %36 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 1, i32 0 | 
|  | store i64 %15, ptr %36, align 8 | 
|  | %37 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 1, i32 1 | 
|  | store i64 %6, ptr %37, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | ; The 256-bit addition implementation using two inlined uaddo procedures for U128 type { i64, i64 }. | 
|  | ; This is similar to how LLVM legalize types in CodeGen. | 
|  | define void @add_U256_without_i128_or_recursive(ptr sret(%uint256) %0, ptr %1, ptr %2) nounwind { | 
|  | ; CHECK-LABEL: add_U256_without_i128_or_recursive: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rdi, %rax | 
|  | ; CHECK-NEXT:    movq (%rdx), %rcx | 
|  | ; CHECK-NEXT:    movq 8(%rdx), %rdi | 
|  | ; CHECK-NEXT:    addq (%rsi), %rcx | 
|  | ; CHECK-NEXT:    adcq 8(%rsi), %rdi | 
|  | ; CHECK-NEXT:    movq 16(%rdx), %r8 | 
|  | ; CHECK-NEXT:    movq 24(%rdx), %rdx | 
|  | ; CHECK-NEXT:    adcq 16(%rsi), %r8 | 
|  | ; CHECK-NEXT:    adcq 24(%rsi), %rdx | 
|  | ; CHECK-NEXT:    movq %rcx, (%rax) | 
|  | ; CHECK-NEXT:    movq %rdi, 8(%rax) | 
|  | ; CHECK-NEXT:    movq %r8, 16(%rax) | 
|  | ; CHECK-NEXT:    movq %rdx, 24(%rax) | 
|  | ; CHECK-NEXT:    retq | 
|  | %4 = load i64, ptr %1, align 8 | 
|  | %5 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 0, i32 1 | 
|  | %6 = load i64, ptr %5, align 8 | 
|  | %7 = load i64, ptr %2, align 8 | 
|  | %8 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 0, i32 1 | 
|  | %9 = load i64, ptr %8, align 8 | 
|  | %10 = add i64 %7, %4 | 
|  | %11 = icmp ult i64 %10, %4 | 
|  | %12 = add i64 %9, %6 | 
|  | %13 = icmp ult i64 %12, %6 | 
|  | %14 = zext i1 %11 to i64 | 
|  | %15 = add i64 %12, %14 | 
|  | %16 = icmp ult i64 %15, %12 | 
|  | %17 = or i1 %13, %16 | 
|  | %18 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 1, i32 0 | 
|  | %19 = load i64, ptr %18, align 8 | 
|  | %20 = getelementptr inbounds %uint256, ptr %1, i64 0, i32 1, i32 1 | 
|  | %21 = load i64, ptr %20, align 8 | 
|  | %22 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 1, i32 0 | 
|  | %23 = load i64, ptr %22, align 8 | 
|  | %24 = getelementptr inbounds %uint256, ptr %2, i64 0, i32 1, i32 1 | 
|  | %25 = load i64, ptr %24, align 8 | 
|  | %26 = add i64 %23, %19 | 
|  | %27 = icmp ult i64 %26, %19 | 
|  | %28 = add i64 %25, %21 | 
|  | %29 = zext i1 %27 to i64 | 
|  | %30 = add i64 %28, %29 | 
|  | %31 = zext i1 %17 to i64 | 
|  | %32 = add i64 %26, %31 | 
|  | %33 = icmp ult i64 %32, %26 | 
|  | %34 = zext i1 %33 to i64 | 
|  | %35 = add i64 %30, %34 | 
|  | store i64 %10, ptr %0, align 8 | 
|  | %36 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 0, i32 1 | 
|  | store i64 %15, ptr %36, align 8 | 
|  | %37 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 1, i32 0 | 
|  | store i64 %32, ptr %37, align 8 | 
|  | %38 = getelementptr inbounds %uint256, ptr %0, i64 0, i32 1, i32 1 | 
|  | store i64 %35, ptr %38, align 8 | 
|  | ret void | 
|  | } | 
|  |  | 
|  | define i32 @addcarry_ult(i32 %a, i32 %b, i32 %x, i32 %y) nounwind { | 
|  | ; CHECK-LABEL: addcarry_ult: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movl %edi, %eax | 
|  | ; CHECK-NEXT:    cmpl %ecx, %edx | 
|  | ; CHECK-NEXT:    adcl %esi, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %s = add i32 %a, %b | 
|  | %k = icmp ult i32 %x, %y | 
|  | %z = zext i1 %k to i32 | 
|  | %r = add i32 %s, %z | 
|  | ret i32 %r | 
|  | } | 
|  |  | 
|  | define i32 @addcarry_ugt(i32 %a, i32 %b, i32 %x, i32 %y) nounwind { | 
|  | ; CHECK-LABEL: addcarry_ugt: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movl %edi, %eax | 
|  | ; CHECK-NEXT:    cmpl %edx, %ecx | 
|  | ; CHECK-NEXT:    adcl %esi, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %s = add i32 %a, %b | 
|  | %k = icmp ugt i32 %x, %y | 
|  | %z = zext i1 %k to i32 | 
|  | %r = add i32 %s, %z | 
|  | ret i32 %r | 
|  | } | 
|  |  | 
|  | define i32 @addcarry_ule(i32 %a, i32 %b, i32 %x, i32 %y) nounwind { | 
|  | ; CHECK-LABEL: addcarry_ule: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    # kill: def $esi killed $esi def $rsi | 
|  | ; CHECK-NEXT:    # kill: def $edi killed $edi def $rdi | 
|  | ; CHECK-NEXT:    leal (%rdi,%rsi), %eax | 
|  | ; CHECK-NEXT:    cmpl %edx, %ecx | 
|  | ; CHECK-NEXT:    sbbl $-1, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %s = add i32 %a, %b | 
|  | %k = icmp ule i32 %x, %y | 
|  | %z = zext i1 %k to i32 | 
|  | %r = add i32 %s, %z | 
|  | ret i32 %r | 
|  | } | 
|  |  | 
|  | define i32 @addcarry_uge(i32 %a, i32 %b, i32 %x, i32 %y) nounwind { | 
|  | ; CHECK-LABEL: addcarry_uge: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    # kill: def $esi killed $esi def $rsi | 
|  | ; CHECK-NEXT:    # kill: def $edi killed $edi def $rdi | 
|  | ; CHECK-NEXT:    leal (%rdi,%rsi), %eax | 
|  | ; CHECK-NEXT:    cmpl %ecx, %edx | 
|  | ; CHECK-NEXT:    sbbl $-1, %eax | 
|  | ; CHECK-NEXT:    retq | 
|  | %s = add i32 %a, %b | 
|  | %k = icmp uge i32 %x, %y | 
|  | %z = zext i1 %k to i32 | 
|  | %r = add i32 %s, %z | 
|  | ret i32 %r | 
|  | } | 
|  |  | 
|  | define { i64, i64 } @addcarry_commutative_1(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_commutative_1: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rsi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rdi | 
|  | ; CHECK-NEXT:    adcq %rcx, %rax | 
|  | ; CHECK-NEXT:    movq %rax, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %z0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %k0 = extractvalue { i64, i1 } %z0, 1 | 
|  | %k0z = zext i1 %k0 to i64 | 
|  |  | 
|  | %t1s = add i64 %x1, %y1 | 
|  | %z1s = add i64 %t1s, %k0z | 
|  |  | 
|  | ; same as the above, but args swapped | 
|  | %a1s = add i64 %y1, %x1 | 
|  | %b1s = add i64 %a1s, %k0z | 
|  |  | 
|  | %r0 = insertvalue { i64, i64 } poison, i64 %z1s, 0 | 
|  | %r1 = insertvalue { i64, i64 } %r0, i64 %b1s, 1 | 
|  | ret { i64, i64 } %r1 | 
|  | } | 
|  |  | 
|  | define { i64, i64 } @addcarry_commutative_2(i64 %x0, i64 %x1, i64 %y0, i64 %y1) nounwind { | 
|  | ; CHECK-LABEL: addcarry_commutative_2: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    movq %rsi, %rax | 
|  | ; CHECK-NEXT:    addq %rdx, %rdi | 
|  | ; CHECK-NEXT:    adcq %rcx, %rax | 
|  | ; CHECK-NEXT:    movq %rax, %rdx | 
|  | ; CHECK-NEXT:    retq | 
|  | %z0 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x0, i64 %y0) | 
|  | %k0 = extractvalue { i64, i1 } %z0, 1 | 
|  | %k0z = zext i1 %k0 to i64 | 
|  |  | 
|  | %t1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %x1, i64 %y1) | 
|  | %t1s = extractvalue { i64, i1 } %t1, 0 | 
|  | %z1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %t1s, i64 %k0z) | 
|  | %z1s = extractvalue { i64, i1 } %z1, 0 | 
|  |  | 
|  | ; same as the above, but args swapped | 
|  | %a1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %y1, i64 %x1) | 
|  | %a1s = extractvalue { i64, i1 } %a1, 0 | 
|  | %b1 = call { i64, i1 } @llvm.uadd.with.overflow.i64(i64 %a1s, i64 %k0z) | 
|  | %b1s = extractvalue { i64, i1 } %b1, 0 | 
|  |  | 
|  | %r0 = insertvalue { i64, i64 } poison, i64 %z1s, 0 | 
|  | %r1 = insertvalue { i64, i64 } %r0, i64 %b1s, 1 | 
|  | ret { i64, i64 } %r1 | 
|  | } | 
|  |  | 
|  | define i1 @pr84831(i64 %arg) { | 
|  | ; CHECK-LABEL: pr84831: | 
|  | ; CHECK:       # %bb.0: | 
|  | ; CHECK-NEXT:    testq %rdi, %rdi | 
|  | ; CHECK-NEXT:    setne %al | 
|  | ; CHECK-NEXT:    xorl %ecx, %ecx | 
|  | ; CHECK-NEXT:    addb $-1, %al | 
|  | ; CHECK-NEXT:    adcq $1, %rcx | 
|  | ; CHECK-NEXT:    setb %al | 
|  | ; CHECK-NEXT:    retq | 
|  | %a = icmp ult i64 0, %arg | 
|  | %add1 = add i64 0, 1 | 
|  | %carryout1 = icmp ult i64 %add1, 0 | 
|  | %b = zext i1 %a to i64 | 
|  | %add2 = add i64 %add1, %b | 
|  | %carryout2 = icmp ult i64 %add2, %add1 | 
|  | %zc1 = zext i1 %carryout1 to i63 | 
|  | %zc2 = zext i1 %carryout2 to i63 | 
|  | %or = or i63 %zc1, %zc2 | 
|  | %trunc = trunc i63 %or to i1 | 
|  | ret i1 %trunc | 
|  | } |