mirror of
https://github.com/chai2010/advanced-go-programming-book.git
synced 2025-05-24 04:22:22 +00:00
fix 5.3
This commit is contained in:
parent
188c1b47e3
commit
2e22cc595b
@ -39,7 +39,7 @@ func hello(wr http.ResponseWriter, r *http.Request) {
|
|||||||
|
|
||||||
这样便可以在每次接收到http请求时,打印出当前请求所消耗的时间。
|
这样便可以在每次接收到http请求时,打印出当前请求所消耗的时间。
|
||||||
|
|
||||||
完成了这个需求之后,我们继续进行业务开发,提供的 api 逐渐增加,现在我们的路由看起来是这个样子:
|
完成了这个需求之后,我们继续进行业务开发,提供的API逐渐增加,现在我们的路由看起来是这个样子:
|
||||||
|
|
||||||
```go
|
```go
|
||||||
// middleware/hello_with_more_routes.go
|
// middleware/hello_with_more_routes.go
|
||||||
|
@ -10,9 +10,9 @@
|
|||||||
|
|
||||||

|

|
||||||
|
|
||||||
图里的 vue 和 react 是现在前端界比较流行的两个框架,因为我们的重点不在这里,所以前端项目内的组织我们就不强调了。事实上,即使是简单的项目,业界也并没有完全遵守 MVC 框架提出者对于 M 和 C 所定义的分工。有很多公司的项目会在 controller 层塞入大量的逻辑,在 model 层就只管理数据的存储。这往往来源于对于 model 层字面含义的某种擅自引申理解。认为字面意思,这一层就是处理某种建模,而模型是什么?就是数据呗!
|
图里的Vue和React是现在前端界比较流行的两个框架,因为我们的重点不在这里,所以前端项目内的组织我们就不强调了。事实上,即使是简单的项目,业界也并没有完全遵守MVC框架提出者对于M和C所定义的分工。有很多公司的项目会在controller层塞入大量的逻辑,在model层就只管理数据的存储。这往往来源于对于model层字面含义的某种擅自引申理解。认为字面意思,这一层就是处理某种建模,而模型是什么?就是数据呗!
|
||||||
|
|
||||||
这种理解显然是有问题的,业务流程也算是一种“模型”,是对真实世界用户行为或者既有流程的一种建模,并非只有按格式组织的数据才能叫模型。不过按照 MVC 的创始人的想法,我们如果把和数据打交道的代码还有业务流程全部塞进 MVC 里的 M 层的话,这个 M 层又会显得有些过于臃肿。对于复杂的项目,一个 C 和一个 M 层显然是不够用的,现在比较流行的纯后端 api 模块一般采用下述划分方法:
|
这种理解显然是有问题的,业务流程也算是一种“模型”,是对真实世界用户行为或者既有流程的一种建模,并非只有按格式组织的数据才能叫模型。不过按照MVC的创始人的想法,我们如果把和数据打交道的代码还有业务流程全部塞进MVC里的M层的话,这个M层又会显得有些过于臃肿。对于复杂的项目,一个C和一个M层显然是不够用的,现在比较流行的纯后端API模块一般采用下述划分方法:
|
||||||
|
|
||||||
1. Controller,与上述类似,服务入口,负责处理路由,参数校验,请求转发。
|
1. Controller,与上述类似,服务入口,负责处理路由,参数校验,请求转发。
|
||||||
2. Logic/Service,逻辑(服务)层,一般是业务逻辑的入口,可以认为从这里开始,所有的请求参数一定是合法的。业务逻辑和业务流程也都在这一层中。常见的设计中会将该层称为 Business Rules。
|
2. Logic/Service,逻辑(服务)层,一般是业务逻辑的入口,可以认为从这里开始,所有的请求参数一定是合法的。业务逻辑和业务流程也都在这一层中。常见的设计中会将该层称为 Business Rules。
|
||||||
@ -36,9 +36,9 @@ func CreateOrder(ctx context.Context, req *CreateOrderStruct) (
|
|||||||
}
|
}
|
||||||
```
|
```
|
||||||
|
|
||||||
CreateOrder 有两个参数,ctx 用来传入 trace_id 一类的需要串联请求的全局参数,req 里存储了我们创建订单所需要的所有输入信息。返回结果是一个响应结构体和错误。可以认为,我们的代码运行到 controller 层之后,就没有任何与“协议”相关的代码了。在这里你找不到 http.Request,也找不到 http.ResponseWriter,也找不到任何与 thrift 或者 gRPC 相关的字眼。
|
CreateOrder有两个参数,ctx用来传入trace_id一类的需要串联请求的全局参数,req里存储了我们创建订单所需要的所有输入信息。返回结果是一个响应结构体和错误。可以认为,我们的代码运行到controller层之后,就没有任何与“协议”相关的代码了。在这里你找不到`http.Request`,也找不到`http.ResponseWriter`,也找不到任何与thrift或者gRPC相关的字眼。
|
||||||
|
|
||||||
在 protocol 层,处理 http 协议的大概代码如下:
|
在协议(protocol)层,处理http协议的大概代码如下:
|
||||||
|
|
||||||
```go
|
```go
|
||||||
// defined in protocol layer
|
// defined in protocol layer
|
||||||
@ -68,7 +68,7 @@ func HTTPCreateOrderHandler(wr http.ResponseWriter, r *http.Request) {
|
|||||||
|
|
||||||
理论上我们可以用同一个request struct组合上不同的tag,来达到一个struct来给不同的协议复用的目的。不过遗憾的是在thrift中,request struct也是通过IDL生成的,其内容在自动生成的ttypes.go文件中,我们还是需要在thrift的入口将这个自动生成的struct映射到我们logic入口所需要的struct上。gRPC也是类似。这部分代码还是需要的。
|
理论上我们可以用同一个request struct组合上不同的tag,来达到一个struct来给不同的协议复用的目的。不过遗憾的是在thrift中,request struct也是通过IDL生成的,其内容在自动生成的ttypes.go文件中,我们还是需要在thrift的入口将这个自动生成的struct映射到我们logic入口所需要的struct上。gRPC也是类似。这部分代码还是需要的。
|
||||||
|
|
||||||
聪明的读者可能已经可以看出来了,协议细节处理这一层实际上有大量重复劳动,每一个接口在协议这一层的处理,无非是把数据从协议特定的 struct(例如 http.Request,thrift 的被包装过了) 读出来,再绑定到我们协议无关的 struct 上,再把这个 struct 映射到 controller 入口的 struct 上,这些代码实际上长得都差不多。差不多的代码都遵循着某种模式,那么我们可以对这些模式进行简单的抽象,用 codegen 来把繁复的协议处理代码从工作内容中抽离出去。
|
聪明的读者可能已经可以看出来了,协议细节处理这一层实际上有大量重复劳动,每一个接口在协议这一层的处理,无非是把数据从协议特定的struct(例如`http.Request`,thrift的被包装过了) 读出来,再绑定到我们协议无关的struct上,再把这个struct映射到controller入口的struct上,这些代码实际上长得都差不多。差不多的代码都遵循着某种模式,那么我们可以对这些模式进行简单的抽象,用代码生成的方式,把繁复的协议处理代码从工作内容中抽离出去。
|
||||||
|
|
||||||
先来看看http对应的struct、thrift对应的struct和我们协议无关的struct分别长什么样子:
|
先来看看http对应的struct、thrift对应的struct和我们协议无关的struct分别长什么样子:
|
||||||
|
|
||||||
@ -116,17 +116,17 @@ type FeatureSetParams struct {
|
|||||||
|
|
||||||

|

|
||||||
|
|
||||||
至于用什么手段来生成,你可以通过 go 语言内置的 parser 读取文本文件中的 Go 源代码,然后根据 ast 来生成目标代码,也可以简单地把这个源 struct 和 generator 的代码放在一起编译,让 struct 作为 generator 的输入参数(这样会更简单一些),都是可以的。
|
至于用什么手段来生成,你可以通过Go语言内置的Parser读取文本文件中的Go源代码,然后根据AST来生成目标代码,也可以简单地把这个源struct和generator的代码放在一起编译,让struct作为generator的输入参数(这样会更简单一些),都是可以的。
|
||||||
|
|
||||||
当然这种思路并不是唯一选择,我们还可以通过解析thrift的IDL,生成一套http接口的struct。如果你选择这么做,那整个流程就变成了这样:
|
当然这种思路并不是唯一选择,我们还可以通过解析thrift的IDL,生成一套http接口的struct。如果你选择这么做,那整个流程就变成了这样:
|
||||||
|
|
||||||

|

|
||||||
|
|
||||||
看起来比之前的图顺畅一点,不过如果你选择了这么做,你需要自行对 thrift 的 IDL 进行解析,也就是相当于可能要手写一个 thrift 的 IDL 的 parser,虽然现在有 antlr 或者 peg 能帮你简化这些 parser 的书写工作,但在“解析”的这一步我们不希望引入太多的工作量,所以量力而行即可。
|
看起来比之前的图顺畅一点,不过如果你选择了这么做,你需要自行对thrift的IDL进行解析,也就是相当于可能要手写一个thrift的IDL的Parser,虽然现在有Antlr或者peg能帮你简化这些Parser的书写工作,但在“解析”的这一步我们不希望引入太多的工作量,所以量力而行即可。
|
||||||
|
|
||||||
既然工作流已经成型,我们可以琢磨一下怎么让整个流程对用户更加友好。
|
既然工作流已经成型,我们可以琢磨一下怎么让整个流程对用户更加友好。
|
||||||
|
|
||||||
比如在前面的生成环境引入 GUI 或者 Web 页面,只要让用户点点鼠标就能生成 SDK,这些就靠读者自己去探索了。
|
比如在前面的生成环境引入Web页面,只要让用户点点鼠标就能生成SDK,这些就靠读者自己去探索了。
|
||||||
|
|
||||||
虽然我们成功地使自己的项目在入口支持了多种交互协议,但是还有一些问题没有解决。本节中所叙述的分层没有将middleware作为项目的分层考虑进去。如果我们考虑middleware的话,请求的流程是什么样的?
|
虽然我们成功地使自己的项目在入口支持了多种交互协议,但是还有一些问题没有解决。本节中所叙述的分层没有将middleware作为项目的分层考虑进去。如果我们考虑middleware的话,请求的流程是什么样的?
|
||||||
|
|
||||||
|
@ -41,7 +41,7 @@ Twitter 的 snowflake 算法是这种场景下的一个典型解法。先来看
|
|||||||
|
|
||||||
timestamp,datacenter_id,worker_id 和 sequence_id 这四个字段中,timestamp 和 sequence_id 是由程序在运行期生成的。但 datacenter_id 和 worker_id 需要我们在部署阶段就能够获取得到,并且一旦程序启动之后,就是不可更改的了(想想,如果可以随意更改,可能被不慎修改,造成最终生成的 id 有冲突)。
|
timestamp,datacenter_id,worker_id 和 sequence_id 这四个字段中,timestamp 和 sequence_id 是由程序在运行期生成的。但 datacenter_id 和 worker_id 需要我们在部署阶段就能够获取得到,并且一旦程序启动之后,就是不可更改的了(想想,如果可以随意更改,可能被不慎修改,造成最终生成的 id 有冲突)。
|
||||||
|
|
||||||
一般不同数据中心的机器,会提供对应的获取数据中心 id 的 api,所以 datacenter_id 我们可以在部署阶段轻松地获取到。而 worker_id 是我们逻辑上给机器分配的一个 id,这个要怎么办呢?比较简单的想法是由能够提供这种自增 id 功能的工具来支持,比如 MySQL:
|
一般不同数据中心的机器,会提供对应的获取数据中心id的API,所以 datacenter_id 我们可以在部署阶段轻松地获取到。而 worker_id 是我们逻辑上给机器分配的一个 id,这个要怎么办呢?比较简单的想法是由能够提供这种自增 id 功能的工具来支持,比如 MySQL:
|
||||||
|
|
||||||
```shell
|
```shell
|
||||||
mysql> insert into a (ip) values("10.1.2.101");
|
mysql> insert into a (ip) values("10.1.2.101");
|
||||||
|
@ -119,7 +119,7 @@ nc.Flush()
|
|||||||
|
|
||||||
#### 基本消息消费
|
#### 基本消息消费
|
||||||
|
|
||||||
直接使用 nats 的 subscribe api 并不能达到任务分发的目的,因为 pub sub 本身是广播性质的。所有消费者都会收到完全一样的所有消息。
|
直接使用nats的subscribe API并不能达到任务分发的目的,因为pub sub本身是广播性质的。所有消费者都会收到完全一样的所有消息。
|
||||||
|
|
||||||
除了普通的subscribe之外,nats还提供了queue subscribe的功能。只要提供一个queue group名字(类似kafka中的 consumer group),即可均衡地将任务分发给消费者。
|
除了普通的subscribe之外,nats还提供了queue subscribe的功能。只要提供一个queue group名字(类似kafka中的 consumer group),即可均衡地将任务分发给消费者。
|
||||||
|
|
||||||
|
Loading…
x
Reference in New Issue
Block a user