| 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091 | 	.section ".text.memcpy","ax"	.balign 4	.globl	memcpymemcpy:#if 0	j	__memcpy_misaligned#else	or	a5, a0, a1	or	a5, a5, a2	andi	a5, a5, 3	.option	norvc	bnez	a5, __memcpy_misaligned	.option rvc#endif	.type memcpy, @function	.size memcpy, . - memcpy	.balign 4	.globl __memcpy_aligned__memcpy_aligned:	add	a4, a0, a2	mv	a3, a0	andi	a2, a2, 7*4	.option	norelax	lui	a5, %hi(.L_case0)	sub	a5, a5, a2	jr	a5, %lo(.L_case0)	.option	relax	.balign	4.L_aligned_loop:	add	a1, a1, a2	li	a2, 32	c.lw	a5, 28(a1)	c.sw	a5, 28(a3).L_case7:	c.lw	a5, 24(a1)	c.sw	a5, 24(a3).L_case6:	c.lw	a5, 20(a1)	c.sw	a5, 20(a3).L_case5:	c.lw	a5, 16(a1)	c.sw	a5, 16(a3).L_case4:	c.lw	a5, 12(a1)	c.sw	a5, 12(a3).L_case3:	c.lw	a5,  8(a1)	c.sw	a5,  8(a3).L_case2:	c.lw	a5,  4(a1)	c.sw	a5,  4(a3).L_case1:	c.lw	a5,  0(a1)	c.sw	a5,  0(a3).L_case0:	add	a3, a3, a2	bltu	a3, a4, .L_aligned_loop.L_empty:	ret	.type	__memcpy_aligned, @function	.size	__memcpy_aligned, . - __memcpy_aligned	.balign 4__memcpy_misaligned:	.option norvc	add	a4, a0, a2	mv	a3, a0	.option	rvc	// This could be optimized if it ever matters...	.balign 4.L_misaligned_loop:	lbu	a5, 0(a1)	sb	a5, 0(a3)	addi	a1, a1, 1	addi	a3, a3, 1	bltu	a3, a4, .L_misaligned_loop	ret	.type	__memcpy_misaligned, @function	.size	__memcpy_misaligned, . - __memcpy_misaligned
 |