spi_context.h 8.3 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224225226227228229230231232233234235236237238239240241242243244245246247248249250251252253254255256257258259260261262263264265266267268269270271272273274275276277278279280281282283284285286287288289290291292293294295296297298299300301302303304305306307308309310311312313314315316317318319320321322323324325326327328329330331332333334335336337338339340341342343344345346347348349350351352353354355356357358359360361362363364365366367368369370371372373374375376377378379380381382
  1. /*
  2. * Copyright (c) 2017 Intel Corporation
  3. *
  4. * SPDX-License-Identifier: Apache-2.0
  5. */
  6. /**
  7. * @file
  8. * @brief Private API for SPI drivers
  9. */
  10. #ifndef ZEPHYR_DRIVERS_SPI_SPI_CONTEXT_H_
  11. #define ZEPHYR_DRIVERS_SPI_SPI_CONTEXT_H_
  12. #include <drivers/gpio.h>
  13. #include <drivers/spi.h>
  14. #ifdef __cplusplus
  15. extern "C" {
  16. #endif
  17. enum spi_ctx_runtime_op_mode {
  18. SPI_CTX_RUNTIME_OP_MODE_MASTER = BIT(0),
  19. SPI_CTX_RUNTIME_OP_MODE_SLAVE = BIT(1),
  20. };
  21. struct spi_context {
  22. const struct spi_config *config;
  23. struct k_sem lock;
  24. struct k_sem sync;
  25. int sync_status;
  26. #ifdef CONFIG_SPI_ASYNC
  27. struct k_poll_signal *signal;
  28. bool asynchronous;
  29. #endif /* CONFIG_SPI_ASYNC */
  30. const struct spi_buf *current_tx;
  31. size_t tx_count;
  32. const struct spi_buf *current_rx;
  33. size_t rx_count;
  34. const uint8_t *tx_buf;
  35. size_t tx_len;
  36. uint8_t *rx_buf;
  37. size_t rx_len;
  38. #ifdef CONFIG_SPI_SLAVE
  39. int recv_frames;
  40. #endif /* CONFIG_SPI_SLAVE */
  41. };
  42. #define SPI_CONTEXT_INIT_LOCK(_data, _ctx_name) \
  43. ._ctx_name.lock = Z_SEM_INITIALIZER(_data._ctx_name.lock, 0, 1)
  44. #define SPI_CONTEXT_INIT_SYNC(_data, _ctx_name) \
  45. ._ctx_name.sync = Z_SEM_INITIALIZER(_data._ctx_name.sync, 0, 1)
  46. static inline bool spi_context_configured(struct spi_context *ctx,
  47. const struct spi_config *config)
  48. {
  49. return !!(ctx->config == config);
  50. }
  51. static inline bool spi_context_is_slave(struct spi_context *ctx)
  52. {
  53. return (ctx->config->operation & SPI_OP_MODE_SLAVE);
  54. }
  55. static inline void spi_context_lock(struct spi_context *ctx,
  56. bool asynchronous,
  57. struct k_poll_signal *signal)
  58. {
  59. k_sem_take(&ctx->lock, K_FOREVER);
  60. #ifdef CONFIG_SPI_ASYNC
  61. ctx->asynchronous = asynchronous;
  62. ctx->signal = signal;
  63. #endif /* CONFIG_SPI_ASYNC */
  64. }
  65. static inline void spi_context_release(struct spi_context *ctx, int status)
  66. {
  67. #ifdef CONFIG_SPI_SLAVE
  68. if (status >= 0 && (ctx->config->operation & SPI_LOCK_ON)) {
  69. return;
  70. }
  71. #endif /* CONFIG_SPI_SLAVE */
  72. #ifdef CONFIG_SPI_ASYNC
  73. if (!ctx->asynchronous || (status < 0)) {
  74. k_sem_give(&ctx->lock);
  75. }
  76. #else
  77. k_sem_give(&ctx->lock);
  78. #endif /* CONFIG_SPI_ASYNC */
  79. }
  80. static inline int spi_context_wait_for_completion(struct spi_context *ctx)
  81. {
  82. int status = 0;
  83. uint32_t timeout_ms;
  84. timeout_ms = MAX(ctx->tx_len, ctx->rx_len) * 8 * 1000 /
  85. ctx->config->frequency;
  86. timeout_ms += CONFIG_SPI_COMPLETION_TIMEOUT_TOLERANCE;
  87. #ifdef CONFIG_SPI_ASYNC
  88. if (!ctx->asynchronous) {
  89. if (k_sem_take(&ctx->sync, K_MSEC(timeout_ms))) {
  90. LOG_ERR("Timeout waiting for transfer complete");
  91. return -ETIMEDOUT;
  92. }
  93. status = ctx->sync_status;
  94. }
  95. #else
  96. if (k_sem_take(&ctx->sync, K_MSEC(timeout_ms))) {
  97. LOG_ERR("Timeout waiting for transfer complete");
  98. return -ETIMEDOUT;
  99. }
  100. status = ctx->sync_status;
  101. #endif /* CONFIG_SPI_ASYNC */
  102. #ifdef CONFIG_SPI_SLAVE
  103. if (spi_context_is_slave(ctx) && !status) {
  104. return ctx->recv_frames;
  105. }
  106. #endif /* CONFIG_SPI_SLAVE */
  107. return status;
  108. }
  109. static inline void spi_context_complete(struct spi_context *ctx, int status)
  110. {
  111. #ifdef CONFIG_SPI_ASYNC
  112. if (!ctx->asynchronous) {
  113. ctx->sync_status = status;
  114. k_sem_give(&ctx->sync);
  115. } else {
  116. if (ctx->signal) {
  117. #ifdef CONFIG_SPI_SLAVE
  118. if (spi_context_is_slave(ctx) && !status) {
  119. /* Let's update the status so it tells
  120. * about number of received frames.
  121. */
  122. status = ctx->recv_frames;
  123. }
  124. #endif /* CONFIG_SPI_SLAVE */
  125. k_poll_signal_raise(ctx->signal, status);
  126. }
  127. if (!(ctx->config->operation & SPI_LOCK_ON)) {
  128. k_sem_give(&ctx->lock);
  129. }
  130. }
  131. #else
  132. ctx->sync_status = status;
  133. k_sem_give(&ctx->sync);
  134. #endif /* CONFIG_SPI_ASYNC */
  135. }
  136. static inline int spi_context_cs_active_value(struct spi_context *ctx)
  137. {
  138. if (ctx->config->operation & SPI_CS_ACTIVE_HIGH) {
  139. return 1;
  140. }
  141. return 0;
  142. }
  143. static inline int spi_context_cs_inactive_value(struct spi_context *ctx)
  144. {
  145. if (ctx->config->operation & SPI_CS_ACTIVE_HIGH) {
  146. return 0;
  147. }
  148. return 1;
  149. }
  150. static inline void spi_context_cs_configure(struct spi_context *ctx)
  151. {
  152. if (ctx->config->cs && ctx->config->cs->gpio_dev) {
  153. gpio_pin_configure(ctx->config->cs->gpio_dev,
  154. ctx->config->cs->gpio_pin, GPIO_OUTPUT);
  155. gpio_pin_set(ctx->config->cs->gpio_dev,
  156. ctx->config->cs->gpio_pin,
  157. spi_context_cs_inactive_value(ctx));
  158. } else {
  159. LOG_INF("CS control inhibited (no GPIO device)");
  160. }
  161. }
  162. static inline void _spi_context_cs_control(struct spi_context *ctx,
  163. bool on, bool force_off)
  164. {
  165. if (ctx->config && ctx->config->cs && ctx->config->cs->gpio_dev) {
  166. if (on) {
  167. gpio_pin_set(ctx->config->cs->gpio_dev,
  168. ctx->config->cs->gpio_pin,
  169. spi_context_cs_active_value(ctx));
  170. k_busy_wait(ctx->config->cs->delay);
  171. } else {
  172. if (!force_off &&
  173. ctx->config->operation & SPI_HOLD_ON_CS) {
  174. return;
  175. }
  176. k_busy_wait(ctx->config->cs->delay);
  177. gpio_pin_set(ctx->config->cs->gpio_dev,
  178. ctx->config->cs->gpio_pin,
  179. spi_context_cs_inactive_value(ctx));
  180. }
  181. }
  182. }
  183. static inline void spi_context_cs_control(struct spi_context *ctx, bool on)
  184. {
  185. _spi_context_cs_control(ctx, on, false);
  186. }
  187. static inline void spi_context_unlock_unconditionally(struct spi_context *ctx)
  188. {
  189. /* Forcing CS to go to inactive status */
  190. _spi_context_cs_control(ctx, false, true);
  191. if (!k_sem_count_get(&ctx->lock)) {
  192. k_sem_give(&ctx->lock);
  193. }
  194. }
  195. static inline
  196. void spi_context_buffers_setup(struct spi_context *ctx,
  197. const struct spi_buf_set *tx_bufs,
  198. const struct spi_buf_set *rx_bufs,
  199. uint8_t dfs)
  200. {
  201. LOG_DBG("tx_bufs %p - rx_bufs %p - %u", tx_bufs, rx_bufs, dfs);
  202. if (tx_bufs) {
  203. ctx->current_tx = tx_bufs->buffers;
  204. ctx->tx_count = tx_bufs->count;
  205. ctx->tx_buf = (const uint8_t *)ctx->current_tx->buf;
  206. ctx->tx_len = ctx->current_tx->len / dfs;
  207. } else {
  208. ctx->current_tx = NULL;
  209. ctx->tx_count = 0;
  210. ctx->tx_buf = NULL;
  211. ctx->tx_len = 0;
  212. }
  213. if (rx_bufs) {
  214. ctx->current_rx = rx_bufs->buffers;
  215. ctx->rx_count = rx_bufs->count;
  216. ctx->rx_buf = (uint8_t *)ctx->current_rx->buf;
  217. ctx->rx_len = ctx->current_rx->len / dfs;
  218. } else {
  219. ctx->current_rx = NULL;
  220. ctx->rx_count = 0;
  221. ctx->rx_buf = NULL;
  222. ctx->rx_len = 0;
  223. }
  224. ctx->sync_status = 0;
  225. #ifdef CONFIG_SPI_SLAVE
  226. ctx->recv_frames = 0;
  227. #endif /* CONFIG_SPI_SLAVE */
  228. LOG_DBG("current_tx %p (%zu), current_rx %p (%zu),"
  229. " tx buf/len %p/%zu, rx buf/len %p/%zu",
  230. ctx->current_tx, ctx->tx_count,
  231. ctx->current_rx, ctx->rx_count,
  232. ctx->tx_buf, ctx->tx_len, ctx->rx_buf, ctx->rx_len);
  233. }
  234. static ALWAYS_INLINE
  235. void spi_context_update_tx(struct spi_context *ctx, uint8_t dfs, uint32_t len)
  236. {
  237. if (!ctx->tx_len) {
  238. return;
  239. }
  240. if (len > ctx->tx_len) {
  241. LOG_ERR("Update exceeds current buffer");
  242. return;
  243. }
  244. ctx->tx_len -= len;
  245. if (!ctx->tx_len) {
  246. ctx->tx_count--;
  247. if (ctx->tx_count) {
  248. ctx->current_tx++;
  249. ctx->tx_buf = (const uint8_t *)ctx->current_tx->buf;
  250. ctx->tx_len = ctx->current_tx->len / dfs;
  251. } else {
  252. ctx->tx_buf = NULL;
  253. }
  254. } else if (ctx->tx_buf) {
  255. ctx->tx_buf += dfs * len;
  256. }
  257. LOG_DBG("tx buf/len %p/%zu", ctx->tx_buf, ctx->tx_len);
  258. }
  259. static ALWAYS_INLINE
  260. bool spi_context_tx_on(struct spi_context *ctx)
  261. {
  262. return !!(ctx->tx_len);
  263. }
  264. static ALWAYS_INLINE
  265. bool spi_context_tx_buf_on(struct spi_context *ctx)
  266. {
  267. return !!(ctx->tx_buf && ctx->tx_len);
  268. }
  269. static ALWAYS_INLINE
  270. void spi_context_update_rx(struct spi_context *ctx, uint8_t dfs, uint32_t len)
  271. {
  272. #ifdef CONFIG_SPI_SLAVE
  273. if (spi_context_is_slave(ctx)) {
  274. ctx->recv_frames += len;
  275. }
  276. #endif /* CONFIG_SPI_SLAVE */
  277. if (!ctx->rx_len) {
  278. return;
  279. }
  280. if (len > ctx->rx_len) {
  281. LOG_ERR("Update exceeds current buffer");
  282. return;
  283. }
  284. ctx->rx_len -= len;
  285. if (!ctx->rx_len) {
  286. ctx->rx_count--;
  287. if (ctx->rx_count) {
  288. ctx->current_rx++;
  289. ctx->rx_buf = (uint8_t *)ctx->current_rx->buf;
  290. ctx->rx_len = ctx->current_rx->len / dfs;
  291. } else {
  292. ctx->rx_buf = NULL;
  293. }
  294. } else if (ctx->rx_buf) {
  295. ctx->rx_buf += dfs * len;
  296. }
  297. LOG_DBG("rx buf/len %p/%zu", ctx->rx_buf, ctx->rx_len);
  298. }
  299. static ALWAYS_INLINE
  300. bool spi_context_rx_on(struct spi_context *ctx)
  301. {
  302. return !!(ctx->rx_len);
  303. }
  304. static ALWAYS_INLINE
  305. bool spi_context_rx_buf_on(struct spi_context *ctx)
  306. {
  307. return !!(ctx->rx_buf && ctx->rx_len);
  308. }
  309. static inline size_t spi_context_longest_current_buf(struct spi_context *ctx)
  310. {
  311. if (!ctx->tx_len) {
  312. return ctx->rx_len;
  313. } else if (!ctx->rx_len) {
  314. return ctx->tx_len;
  315. } else if (ctx->tx_len < ctx->rx_len) {
  316. return ctx->tx_len;
  317. }
  318. return ctx->rx_len;
  319. }
  320. #ifdef __cplusplus
  321. }
  322. #endif
  323. #endif /* ZEPHYR_DRIVERS_SPI_SPI_CONTEXT_H_ */