copy_page.S 6.0 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382383384385386387388389
  1. /*
  2. * copy_page, __copy_user_page, __copy_user implementation of SuperH
  3. *
  4. * Copyright (C) 2001 Niibe Yutaka & Kaz Kojima
  5. * Copyright (C) 2002 Toshinobu Sugioka
  6. * Copyright (C) 2006 Paul Mundt
  7. */
  8. #include <linux/linkage.h>
  9. #include <asm/page.h>
  10. /*
  11. * copy_page
  12. * @to: P1 address
  13. * @from: P1 address
  14. *
  15. * void copy_page(void *to, void *from)
  16. */
  17. /*
  18. * r0, r1, r2, r3, r4, r5, r6, r7 --- scratch
  19. * r8 --- from + PAGE_SIZE
  20. * r9 --- not used
  21. * r10 --- to
  22. * r11 --- from
  23. */
  24. ENTRY(copy_page)
  25. mov.l r8,@-r15
  26. mov.l r10,@-r15
  27. mov.l r11,@-r15
  28. mov r4,r10
  29. mov r5,r11
  30. mov r5,r8
  31. mov #(PAGE_SIZE >> 10), r0
  32. shll8 r0
  33. shll2 r0
  34. add r0,r8
  35. !
  36. 1: mov.l @r11+,r0
  37. mov.l @r11+,r1
  38. mov.l @r11+,r2
  39. mov.l @r11+,r3
  40. mov.l @r11+,r4
  41. mov.l @r11+,r5
  42. mov.l @r11+,r6
  43. mov.l @r11+,r7
  44. #if defined(CONFIG_CPU_SH4)
  45. movca.l r0,@r10
  46. #else
  47. mov.l r0,@r10
  48. #endif
  49. add #32,r10
  50. mov.l r7,@-r10
  51. mov.l r6,@-r10
  52. mov.l r5,@-r10
  53. mov.l r4,@-r10
  54. mov.l r3,@-r10
  55. mov.l r2,@-r10
  56. mov.l r1,@-r10
  57. cmp/eq r11,r8
  58. bf/s 1b
  59. add #28,r10
  60. !
  61. mov.l @r15+,r11
  62. mov.l @r15+,r10
  63. mov.l @r15+,r8
  64. rts
  65. nop
  66. /*
  67. * __kernel_size_t __copy_user(void *to, const void *from, __kernel_size_t n);
  68. * Return the number of bytes NOT copied
  69. */
  70. #define EX(...) \
  71. 9999: __VA_ARGS__ ; \
  72. .section __ex_table, "a"; \
  73. .long 9999b, 6000f ; \
  74. .previous
  75. #define EX_NO_POP(...) \
  76. 9999: __VA_ARGS__ ; \
  77. .section __ex_table, "a"; \
  78. .long 9999b, 6005f ; \
  79. .previous
  80. ENTRY(__copy_user)
  81. ! Check if small number of bytes
  82. mov #11,r0
  83. mov r4,r3
  84. cmp/gt r0,r6 ! r6 (len) > r0 (11)
  85. bf/s .L_cleanup_loop_no_pop
  86. add r6,r3 ! last destination address
  87. ! Calculate bytes needed to align to src
  88. mov.l r11,@-r15
  89. neg r5,r0
  90. mov.l r10,@-r15
  91. add #4,r0
  92. mov.l r9,@-r15
  93. and #3,r0
  94. mov.l r8,@-r15
  95. tst r0,r0
  96. bt 2f
  97. 1:
  98. ! Copy bytes to long word align src
  99. EX( mov.b @r5+,r1 )
  100. dt r0
  101. add #-1,r6
  102. EX( mov.b r1,@r4 )
  103. bf/s 1b
  104. add #1,r4
  105. ! Jump to appropriate routine depending on dest
  106. 2: mov #3,r1
  107. mov r6, r2
  108. and r4,r1
  109. shlr2 r2
  110. shll2 r1
  111. mova .L_jump_tbl,r0
  112. mov.l @(r0,r1),r1
  113. jmp @r1
  114. nop
  115. .align 2
  116. .L_jump_tbl:
  117. .long .L_dest00
  118. .long .L_dest01
  119. .long .L_dest10
  120. .long .L_dest11
  121. /*
  122. * Come here if there are less than 12 bytes to copy
  123. *
  124. * Keep the branch target close, so the bf/s callee doesn't overflow
  125. * and result in a more expensive branch being inserted. This is the
  126. * fast-path for small copies, the jump via the jump table will hit the
  127. * default slow-path cleanup. -PFM.
  128. */
  129. .L_cleanup_loop_no_pop:
  130. tst r6,r6 ! Check explicitly for zero
  131. bt 1f
  132. 2:
  133. EX_NO_POP( mov.b @r5+,r0 )
  134. dt r6
  135. EX_NO_POP( mov.b r0,@r4 )
  136. bf/s 2b
  137. add #1,r4
  138. 1: mov #0,r0 ! normal return
  139. 5000:
  140. # Exception handler:
  141. .section .fixup, "ax"
  142. 6005:
  143. mov.l 8000f,r1
  144. mov r3,r0
  145. jmp @r1
  146. sub r4,r0
  147. .align 2
  148. 8000: .long 5000b
  149. .previous
  150. rts
  151. nop
  152. ! Destination = 00
  153. .L_dest00:
  154. ! Skip the large copy for small transfers
  155. mov #(32+32-4), r0
  156. cmp/gt r6, r0 ! r0 (60) > r6 (len)
  157. bt 1f
  158. ! Align dest to a 32 byte boundary
  159. neg r4,r0
  160. add #0x20, r0
  161. and #0x1f, r0
  162. tst r0, r0
  163. bt 2f
  164. sub r0, r6
  165. shlr2 r0
  166. 3:
  167. EX( mov.l @r5+,r1 )
  168. dt r0
  169. EX( mov.l r1,@r4 )
  170. bf/s 3b
  171. add #4,r4
  172. 2:
  173. EX( mov.l @r5+,r0 )
  174. EX( mov.l @r5+,r1 )
  175. EX( mov.l @r5+,r2 )
  176. EX( mov.l @r5+,r7 )
  177. EX( mov.l @r5+,r8 )
  178. EX( mov.l @r5+,r9 )
  179. EX( mov.l @r5+,r10 )
  180. EX( mov.l @r5+,r11 )
  181. #ifdef CONFIG_CPU_SH4
  182. EX( movca.l r0,@r4 )
  183. #else
  184. EX( mov.l r0,@r4 )
  185. #endif
  186. add #-32, r6
  187. EX( mov.l r1,@(4,r4) )
  188. mov #32, r0
  189. EX( mov.l r2,@(8,r4) )
  190. cmp/gt r6, r0 ! r0 (32) > r6 (len)
  191. EX( mov.l r7,@(12,r4) )
  192. EX( mov.l r8,@(16,r4) )
  193. EX( mov.l r9,@(20,r4) )
  194. EX( mov.l r10,@(24,r4) )
  195. EX( mov.l r11,@(28,r4) )
  196. bf/s 2b
  197. add #32,r4
  198. 1: mov r6, r0
  199. shlr2 r0
  200. tst r0, r0
  201. bt .L_cleanup
  202. 1:
  203. EX( mov.l @r5+,r1 )
  204. dt r0
  205. EX( mov.l r1,@r4 )
  206. bf/s 1b
  207. add #4,r4
  208. bra .L_cleanup
  209. nop
  210. ! Destination = 10
  211. .L_dest10:
  212. mov r2,r7
  213. shlr2 r7
  214. shlr r7
  215. tst r7,r7
  216. mov #7,r0
  217. bt/s 1f
  218. and r0,r2
  219. 2:
  220. dt r7
  221. #ifdef CONFIG_CPU_LITTLE_ENDIAN
  222. EX( mov.l @r5+,r0 )
  223. EX( mov.l @r5+,r1 )
  224. EX( mov.l @r5+,r8 )
  225. EX( mov.l @r5+,r9 )
  226. EX( mov.l @r5+,r10 )
  227. EX( mov.w r0,@r4 )
  228. add #2,r4
  229. xtrct r1,r0
  230. xtrct r8,r1
  231. xtrct r9,r8
  232. xtrct r10,r9
  233. EX( mov.l r0,@r4 )
  234. EX( mov.l r1,@(4,r4) )
  235. EX( mov.l r8,@(8,r4) )
  236. EX( mov.l r9,@(12,r4) )
  237. EX( mov.l @r5+,r1 )
  238. EX( mov.l @r5+,r8 )
  239. EX( mov.l @r5+,r0 )
  240. xtrct r1,r10
  241. xtrct r8,r1
  242. xtrct r0,r8
  243. shlr16 r0
  244. EX( mov.l r10,@(16,r4) )
  245. EX( mov.l r1,@(20,r4) )
  246. EX( mov.l r8,@(24,r4) )
  247. EX( mov.w r0,@(28,r4) )
  248. bf/s 2b
  249. add #30,r4
  250. #else
  251. EX( mov.l @(28,r5),r0 )
  252. EX( mov.l @(24,r5),r8 )
  253. EX( mov.l @(20,r5),r9 )
  254. EX( mov.l @(16,r5),r10 )
  255. EX( mov.w r0,@(30,r4) )
  256. add #-2,r4
  257. xtrct r8,r0
  258. xtrct r9,r8
  259. xtrct r10,r9
  260. EX( mov.l r0,@(28,r4) )
  261. EX( mov.l r8,@(24,r4) )
  262. EX( mov.l r9,@(20,r4) )
  263. EX( mov.l @(12,r5),r0 )
  264. EX( mov.l @(8,r5),r8 )
  265. xtrct r0,r10
  266. EX( mov.l @(4,r5),r9 )
  267. mov.l r10,@(16,r4)
  268. EX( mov.l @r5,r10 )
  269. xtrct r8,r0
  270. xtrct r9,r8
  271. xtrct r10,r9
  272. EX( mov.l r0,@(12,r4) )
  273. EX( mov.l r8,@(8,r4) )
  274. swap.w r10,r0
  275. EX( mov.l r9,@(4,r4) )
  276. EX( mov.w r0,@(2,r4) )
  277. add #32,r5
  278. bf/s 2b
  279. add #34,r4
  280. #endif
  281. tst r2,r2
  282. bt .L_cleanup
  283. 1: ! Read longword, write two words per iteration
  284. EX( mov.l @r5+,r0 )
  285. dt r2
  286. #ifdef CONFIG_CPU_LITTLE_ENDIAN
  287. EX( mov.w r0,@r4 )
  288. shlr16 r0
  289. EX( mov.w r0,@(2,r4) )
  290. #else
  291. EX( mov.w r0,@(2,r4) )
  292. shlr16 r0
  293. EX( mov.w r0,@r4 )
  294. #endif
  295. bf/s 1b
  296. add #4,r4
  297. bra .L_cleanup
  298. nop
  299. ! Destination = 01 or 11
  300. .L_dest01:
  301. .L_dest11:
  302. ! Read longword, write byte, word, byte per iteration
  303. EX( mov.l @r5+,r0 )
  304. dt r2
  305. #ifdef CONFIG_CPU_LITTLE_ENDIAN
  306. EX( mov.b r0,@r4 )
  307. shlr8 r0
  308. add #1,r4
  309. EX( mov.w r0,@r4 )
  310. shlr16 r0
  311. EX( mov.b r0,@(2,r4) )
  312. bf/s .L_dest01
  313. add #3,r4
  314. #else
  315. EX( mov.b r0,@(3,r4) )
  316. shlr8 r0
  317. swap.w r0,r7
  318. EX( mov.b r7,@r4 )
  319. add #1,r4
  320. EX( mov.w r0,@r4 )
  321. bf/s .L_dest01
  322. add #3,r4
  323. #endif
  324. ! Cleanup last few bytes
  325. .L_cleanup:
  326. mov r6,r0
  327. and #3,r0
  328. tst r0,r0
  329. bt .L_exit
  330. mov r0,r6
  331. .L_cleanup_loop:
  332. EX( mov.b @r5+,r0 )
  333. dt r6
  334. EX( mov.b r0,@r4 )
  335. bf/s .L_cleanup_loop
  336. add #1,r4
  337. .L_exit:
  338. mov #0,r0 ! normal return
  339. 5000:
  340. # Exception handler:
  341. .section .fixup, "ax"
  342. 6000:
  343. mov.l 8000f,r1
  344. mov r3,r0
  345. jmp @r1
  346. sub r4,r0
  347. .align 2
  348. 8000: .long 5000b
  349. .previous
  350. mov.l @r15+,r8
  351. mov.l @r15+,r9
  352. mov.l @r15+,r10
  353. rts
  354. mov.l @r15+,r11