5 #ifndef __ASM_ARM_BARRIER_H
6 #define __ASM_ARM_BARRIER_H
10 #define sevl() asm volatile("sevl" : : : "memory")
11 #define sev() asm volatile("sev" : : : "memory")
12 #define wfe() asm volatile("wfe" : : : "memory")
13 #define wfi() asm volatile("wfi" : : : "memory")
15 #define isb() asm volatile("isb" : : : "memory")
16 #define dsb() asm volatile("dsb sy" : : : "memory")
17 #define dmb() asm volatile("dmb sy" : : : "memory")
20 #define rmb() asm volatile("dsb ld" : : : "memory")
21 #define wmb() asm volatile("dsb st" : : : "memory")
24 #define barrier() __asm__ __volatile__("": : :"memory")
27 #define nop() asm volatile("nop");
29 #define force_read(x) (*(volatile typeof(x) *)&(x))
31 #define load_acquire(p) \
34 switch (sizeof(*p)) { \
36 asm volatile ("ldar %w0, %1" \
37 : "=r" (___p1) : "Q" (*p) : "memory"); \
40 asm volatile ("ldar %0, %1" \
41 : "=r" (___p1) : "Q" (*p) : "memory"); \
47 #define store_release(p, v) \
49 switch (sizeof(*p)) { \
51 asm volatile ("stlr %w1, %0" \
52 : "=Q" (*p) : "r" (v) : "memory"); \
55 asm volatile ("stlr %1, %0" \
56 : "=Q" (*p) : "r" (v) : "memory"); \
61 #define load_acquire_exclusive(p) \
64 switch (sizeof(*p)) { \
66 asm volatile ("ldaxr %w0, %1" \
67 : "=r" (___p1) : "Q" (*p) : "memory"); \
70 asm volatile ("ldaxr %0, %1" \
71 : "=r" (___p1) : "Q" (*p) : "memory"); \
78 #define store_release_exclusive(p, v) \
81 switch (sizeof(*p)) { \
83 asm volatile ("stlxr %w0, %w2, %1" \
84 : "=&r" (ret), "=Q" (*p) : "r" (v) \
88 asm volatile ("stlxr %w0, %2, %1" \
89 : "=&r" (ret), "=Q" (*p) : "r" (v) \