关于strconv.Atoi的信息
如何将任意Golang接口转换为字节数组
golang语言本身就是c的工具集,开发c的程序用到的大部分结构体,内存管理,携程等,golang基本都有,他只是在这个基础上又加了一些概念这里说一个很小的问题,就是字节数组转string的问题,网上大部分都是这样转的(包括google上):string(p[:]),这个转完了是有问题的,我们再来看一下string这个结构体:
struct String
{
byte* str;
intgo len;
};
这个结构体让我想起了nginx的string,他是这样定义的:
typedef struct {
size_t len;
u_char *data;
} ngx_str_t;
golang里边 string的概念其实不是以前遇到\0结尾的概念了,他其实就是一块连续的内存,首地址+长度,上面那样赋值,如果p里边有\0,他不会做处理这个时候,如果再对这个string做其他处理就可能出问题了,比如strconv.Atoi转成int就有错误,解决办法就是需要自己写一个正规的转换函数:
func byteString(p []byte) string {
for i := 0; i len(p); i++ {
if p[i] == 0 {
return string(p[0:i])
}
}
return string(p)
}
这样就不会出问题了
gin go并发案例
通过管道进行处理机制
package main
import (
"fmt"
"github.com/gin-gonic/gin"
"io/ioutil"
"os"
"strconv"
)
var sema = make(chan struct{},1)
func main() {
r := gin.Default()
r.GET("/ping",func(c *gin.Context) {
c.JSON(200, gin.H{
"message":"pong",
})
})
r.GET("/test",func(context *gin.Context) {
file2, _ := os.OpenFile("./3.txt", os.O_RDWR|os.O_APPEND,0766)
defer file2.Close()
file2.WriteString("11\r\n");
quUser()
getU()
context.JSON(200, gin.H{
"message":"test",
})
})
r.Run(":3300")// listen and serve on 0.0.0.0:8080
}
func quUser() int {
sema -struct{}{}
data, err := ioutil.ReadFile("./2.txt")
if err != nil {
}
balance, _ := strconv.Atoi(string(data))
balance = balance+1
? fmt.Println(balance,"存余额\r\n")
file, _ := os.OpenFile("./2.txt", os.O_RDWR,0766)
defer file.Close()
file.WriteString(strconv.Itoa(balance));
-sema
return balance
}
func getU() {
sema -struct{}{}
data, err := ioutil.ReadFile("./2.txt")
if err != nil {
}
balance, _ := strconv.Atoi(string(data))
fmt.Println(balance,"取余额\r\n")
-sema
}
Go语言int、int64、string之间的转换
import "strconv"
int, err := strconv.Atoi(string)
int64, err := strconv.ParseInt(string, 10, 64)
string := strconv.Itoa(int)
string := strconv.FormatInt(int64,15)
iris 真的是最快的Golang 路由框架吗
对各种Go http路由框架的比较, Iris明显胜出,它的性能远远超过其它Golang http路由框架。
但是,在真实的环境中,Iris真的就是最快的Golang http路由框架吗?
Benchmark测试分析
在那篇文章中我使用的是Julien Schmidt的 测试代码,他模拟了静态路由、Github API、Goolge+ API、Parse API的各种情况,因为这些API是知名网站的开放的API,看起来测试挺真实可靠的。
但是,这个测试存在着一个严重的问题,就是Handler的业务逻辑非常的简单,各个框架的handler类似,比如Iris的Handler的实现:
funcirisHandler(_ *iris.Context) {}funcirisHandlerWrite(c *iris.Context) { io.WriteString(c.ResponseWriter, c.Param("name"))}funcirisHandlerTest(c *iris.Context) { io.WriteString(c.ResponseWriter, c.Request.RequestURI)}
几乎没有任何的业务逻辑,最多是往Response中写入一个字符串。
这和生产环境中的情况严重不符!
实际的产品肯定会有一些业务的处理,比如参数的校验,数据的计算,本地文件的读取、远程服务的调用、缓存的读取、数据库的读取和写入等,有些操作可能花费的时间很多,一两个毫秒就可以搞定,有的却很耗时,可能需要几十毫秒,比如:
从一个网络连接中读取数据 写数据到硬盘中 调用其它服务,等待服务结果的返回 ……
这才是我们常用的case,而不是一个简单的写字符串。
因此那个测试框架的Handler还应该加入时间花费的情况。
模拟真实的Handler的情况
我们模拟一下真实的情况,看看Iris框架和Golang内置的Http路由框架的性能如何。
首先使用Iris实现一个Http Server:
packagemainimport("os""strconv""time""github.com/kataras/iris")funcmain() { api := iris.New() api.Get("/rest/hello",func(c *iris.Context) { sleepTime, _ := strconv.Atoi(os.Args[1])ifsleepTime 0{ time.Sleep(time.Duration(sleepTime) * time.Millisecond) } c.Text("Hello world") }) api.Listen(":8080")}
我们可以传递给它一个时间花费的参数sleepTime,模拟这个Handler在处理业务时要花费的时间,它会让处理这个Handler的暂停sleepTime毫秒,如果为0,则不需要暂停,这种情况类似上面的测试。
然后我们使用Go内置的路由功能实现一个Http Server:
packagemainimport("log""net/http""os""strconv""time")// There are some golang RESTful libraries and mux libraries but i use the simplest to test.funcmain() { http.HandleFunc("/rest/hello",func(w http.ResponseWriter, r *http.Request) { sleepTime, _ := strconv.Atoi(os.Args[1])ifsleepTime 0{ time.Sleep(time.Duration(sleepTime) * time.Millisecond) } w.Write([]byte("Hello world")) }) err := http.ListenAndServe(":8080",nil)iferr !=nil{ log.Fatal("ListenAndServe: ", err) }}
编译两个程序进行测试。
1、首先进行业务逻辑时间花费为0的测试
运行程序 iris 0,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
iris的吞吐率为46155 requests/second。
运行程序 gomux 0,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
Go内置的路由程序的吞吐率为55944 requests/second。
两者的吞吐量差别不大,iris略差一点
2、然后进行业务逻辑时间花费为10的测试
运行程序 iris 10,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
iris的吞吐率为97 requests/second。
运行程序 gomux 10,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
Go内置的路由程序的吞吐率为9294 requests/second。
3、最后进行业务逻辑时间花费为1000的测试
这次模拟一个极端的情况,业务处理很慢,处理一个业务需要1秒的时间。
运行程序 iris 1000,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
iris的吞吐率为1 requests/second。
运行程序 gomux 1000,然后执行 wrk -t16 -c100 -d30s 进行并发100,持续30秒的测试。
Go内置的路由程序的吞吐率为95 requests/second。
可以看到,如果加上业务逻辑的处理时间,Go内置的路由功能要远远好于Iris, 甚至可以说Iris的路由根本无法应用的有业务逻辑的产品中,随着业务逻辑的时间耗费加大,iris的吞吐量急剧下降。
而对于Go的内置路由来说,业务逻辑的时间耗费加大,单个client会等待更长的时间,但是并发量大的网站来说,吞吐率不会下降太多。
比如我们用1000的并发量测试 gomux 10和 gomux 1000。
gomux 10: 吞吐率为47664 gomux 1000: 吞吐率为979
这才是Http网站真实的情况,因为我们要应付的网站的并发量,网站应该支持同时有尽可能多的用户访问,即使单个用户得到返回页面需要上百毫秒也可以接受。
而Iris在业务逻辑的处理时间增大的情况下,无法支持大的吞吐率,即使在并发量很大的情况下(比如1000),吞吐率也很低。
深入了解Go http server的实现
Go http server实现的是每个request对应一个goroutine (goroutine per request), 考虑到Http Keep-Alive的情况,更准确的说是每个连接对应一个goroutine(goroutine per connection)。
因为goroutine是非常轻量级的,不会像Java那样 Thread per request会导致服务器资源不足,无法创建很多的Thread, Golang可以创建足够多的goroutine,所以goroutine per request的方式在Golang中没有问题。而且这还有一个好处,因为request是在一个goroutine中处理的,不必考虑对同一个Request/Response并发读写的问题。
如何查看Handler是在哪一个goroutine中执行的呢?我们需要实现一个函数来获取goroutine的Id:
funcgoID()int{varbuf[64]byte n := runtime.Stack(buf[:], false) idField := strings.Fields(strings.TrimPrefix(string(buf[:n]),"goroutine "))[0] id, err := strconv.Atoi(idField)iferr !=nil{panic(fmt.Sprintf("cannot get goroutine id: %v", err)) }returnid}
然后在handler中打印出当前的goroutine id:
func(c *iris.Context) { fmt.Println(goID()) ……}
和
func(w http.ResponseWriter, r *http.Request) { fmt.Println(goID()) ……}
启动 gomux 0,然后运行 ab -c 5 -n 5 测试一下,apache的ab命令使用5个并发并且每个并发两个请求访问服务器。
可以看到服务器的输出:
因为没有指定 -k参数,每个client发送两个请求会创建两个连接。
你可以加上 -k参数,可以看出会有重复的goroutine id出现,表明同一个持久连接会使用同一个goroutine处理。
以上是通过实验验证我们的理论,下面是代码分析。
net/http/server.go的 第2146行 go c.serve()表明,对于一个http连接,会启动一个goroutine:
func(srv *Server) Serve(l net.Listener) error {deferl.Close()iffn := testHookServerServe; fn !=nil{ fn(srv, l) }vartempDelay time.Duration// how long to sleep on accept failureiferr := srv.setupHTTP2(); err !=nil{returnerr }for{ rw, e := l.Accept() …… tempDelay =0 c := srv.newConn(rw) c.setState(c.rwc, StateNew) // before Serve can returngoc.serve() }}
而这个 c.serve方法会从连接中 读取request交由handler处理:
func(c *conn) serve() { ……for{ w, err := c.readRequest() …… req := w.req serverHandler{c.server}.ServeHTTP(w, w.req)ifc.hijacked() {return } w.finishRequest()if!w.shouldReuseConnection() {ifw.requestBodyLimitHit || w.closedRequestBodyEarly() { c.closeWriteAndWait() }return } c.setState(c.rwc, StateIdle) }}
而 ServeHTTP的实现如下,如果没有配置handler或者路由器,则使用缺省的 DefaultServeMux。
func(sh serverHandler) ServeHTTP(rw ResponseWriter, req *Request) { handler := sh.srv.Handlerifhandler ==nil{ handler = DefaultServeMux }ifreq.RequestURI =="*" req.Method =="OPTIONS"{ handler = globalOptionsHandler{} } handler.ServeHTTP(rw, req)}
可以看出这里并没有新开goroutine,而是在同一个connection对应的goroutine中执行的。如果试用Keep-Alive,还是在这个connection对应的goroutine中执行。
正如注释中所说的那样:
// HTTP cannot have multiple simultaneous active requests.[*] // Until the server replies to this request, it can't read another, // so we might as well run the handler in this goroutine. // [*] Not strictly true: HTTP pipelining. We could let them all process // in parallel even if their responses need to be serialized. serverHandler{c.server}.ServeHTTP(w, w.req)
因此业务逻辑的时间花费会影响单个goroutine的执行时间,并且反映到客户的浏览器是是延迟时间latency增大了,如果并发量足够多,影响的是系统中的goroutine的数量以及它们的调度,吞吐率不会剧烈影响。
Iris的分析
如果你使用Iris查看每个Handler是使用哪一个goroutine执行的,会发现每个连接也会用不同的goroutine执行,可是性能差在哪儿呢?
或者说,是什么原因导致Iris的性能急剧下降呢?
Iris服务器的监听和为连接启动一个goroutine没有什么明显不同,重要的不同在与Router处理Request的逻辑。
原因在于Iris为了提供性能,缓存了context,对于相同的请求url和method,它会从缓存中使用相同的context。
func(r *MemoryRouter) ServeHTTP(res http.ResponseWriter, req *http.Request) {ifctx := r.cache.GetItem(req.Method, req.URL.Path); ctx !=nil{ ctx.Redo(res, req)return } ctx := r.getStation().pool.Get().(*Context) ctx.Reset(res, req)ifr.processRequest(ctx) {//if something found and served then add it's clone to the cache r.cache.AddItem(req.Method, req.URL.Path, ctx.Clone()) } r.getStation().pool.Put(ctx)}
由于并发量较大的时候,多个client的请求都会进入到上面的 ServeHTTP方法中,导致相同的请求会进入下面的逻辑:
ifctx := r.cache.GetItem(req.Method, req.URL.Path); ctx !=nil{ ctx.Redo(res, req)return}
ctx.Redo(res, req)导致不断循环,直到每个请求处理完毕,将context放回到池子中。
所以对于Iris来说,并发量大的情况下,对于相同的请求(req.URL.Path和Method相同)会进入排队的状态,导致性能低下。