今天談談golang源碼netpoll部分實現的細節和協程阻塞調度原理
epoll原理
epoll是linux環境下i/o多路復用的模型,結合下圖簡單說明epoll工作原理
上圖說明了epoll生成描epoll表的基本流程,生成socket用來綁定和監聽新的連接,將該socket放入epoll內核表,然后調用wait等待就緒事件。
當epoll wait返回就緒事件時,判斷是否是新的連接,如果是新的連接則將描述符加入epoll表,監聽讀寫事件。如果不是新的連接,說明已建立的連接上有讀或寫就緒事件,這樣我們根據EPOLLOUT或者EPOLLIN進行寫或者讀操作,上圖是echo server的基本原理,實際生產中監聽EPOLLIN還是EPOLLOUT根據實際情況而定。以上是單線程下epoll工作原理。
golang 網絡層如何封裝的epoll
golang 網絡層封裝epoll核心文件在系統文件src/runtime/netpoll.go, 這個文件中調用了不同平台封裝的多路復用api,linux環境下epoll封裝的文件在src/runtime/netpoll_epoll.go中,windows環境下多路復用模型實現在src/runtime/netpoll_windows.go。golang的思想意在將epoll操作放在runtime包里,而runtime是負責協程調度的功能模塊,程序啟動后runtime運行時是在單獨的線程里,個人認為是MPG模型中M模型,epoll模型管理放在這個單獨M中調度,M其實是運行在內核態的,在這個內核態線程不斷輪詢檢測就緒事件,將讀寫就緒事件拋出,從而觸發用戶態協程讀寫調度。而我們常用的read,write,accept等操作其實是在用戶態操作的,也就是MPG模型中的G,舉個例子當read阻塞時,將該協程掛起,當epoll讀就緒事件觸發后查找阻塞的協程列表,將該協程激活,用戶態G激活后繼續讀,這樣在用戶態操作是阻塞的,在內核態其實一直是輪詢的,這就是golang將epoll和協程調度結合的原理。
golang 如何實現協程和描述符綁定
golang 在internal/poll/fd_windows.go和internal/poll/fd_unix.go中實現了基本的描述符結構
type netFD struct {
pfd poll.FD
// immutable until Close
family int
sotype int
isConnected bool // handshake completed or use of association with peer
net string
laddr Addr
raddr Addr
}
netFD中pfd結構如下
type FD struct {
// Lock sysfd and serialize access to Read and Write methods.
fdmu fdMutex
// System file descriptor. Immutable until Close.
Sysfd syscall.Handle
// Read operation.
rop operation
// Write operation.
wop operation
// I/O poller.
pd pollDesc
// Used to implement pread/pwrite.
l sync.Mutex
// For console I/O.
lastbits []byte // first few bytes of the last incomplete rune in last write
readuint16 []uint16 // buffer to hold uint16s obtained with ReadConsole
readbyte []byte // buffer to hold decoding of readuint16 from utf16 to utf8
readbyteOffset int // readbyte[readOffset:] is yet to be consumed with file.Read
// Semaphore signaled when file is closed.
csema uint32
skipSyncNotif bool
// Whether this is a streaming descriptor, as opposed to a
// packet-based descriptor like a UDP socket.
IsStream bool
// Whether a zero byte read indicates EOF. This is false for a
// message based socket connection.
ZeroReadIsEOF bool
// Whether this is a file rather than a network socket.
isFile bool
// The kind of this file.
kind fileKind
}
FD是用戶態基本的描述符結構,內部幾個變量通過注釋可以讀懂,挑幾個難理解的
fdmu 控制讀寫互斥訪問的鎖,因為可能幾個協程並發讀寫
Sysfd 系統返回的描述符,不會更改除非系統關閉回收
rop 為讀操作,這個其實是根據不同系統網絡模型封裝的統一類型,比如epoll,iocp等都封裝為統一的operation,根據不同的系統調用不同的模型
wop 為寫操作封裝的類型
pd 這個是最重要的結構,內部封裝了協程等基本信息,這個變量會和內核epoll線程通信,從而實現epoll通知和控制用戶態協程的效果。
下面我們着重看看pollDesc結構
type pollDesc struct {
runtimeCtx uintptr
}
pollDesc內部存儲了一個unintptr的變量,uintptr為四字節大小的變量,可以存儲指針。runtimeCtx顧名思義,為運行時上下文,其初始化代碼如下
func (pd *pollDesc) init(fd *FD) error {
serverInit.Do(runtime_pollServerInit)
ctx, errno := runtime_pollOpen(uintptr(fd.Sysfd))
if errno != 0 {
if ctx != 0 {
runtime_pollUnblock(ctx)
runtime_pollClose(ctx)
}
return errnoErr(syscall.Errno(errno))
}
pd.runtimeCtx = ctx
return nil
}
runtime_pollOpen實際link的是runtime包下的poll_runtime_pollOpen函數,具體實現在runtime/netpoll.go
//go:linkname poll_runtime_pollOpen internal/poll.runtime_pollOpen
func poll_runtime_pollOpen(fd uintptr) (*pollDesc, int) {
pd := pollcache.alloc()
lock(&pd.lock)
if pd.wg != 0 && pd.wg != pdReady {
throw("runtime: blocked write on free polldesc")
}
if pd.rg != 0 && pd.rg != pdReady {
throw("runtime: blocked read on free polldesc")
}
pd.fd = fd
pd.closing = false
pd.everr = false
pd.rseq++
pd.rg = 0
pd.rd = 0
pd.wseq++
pd.wg = 0
pd.wd = 0
unlock(&pd.lock)
var errno int32
errno = netpollopen(fd, pd)
return pd, int(errno)
}
可以看出通過pollcache.alloc返回*pollDesc類型的變量pd,並且用pd初始化了netpollopen,這里我們稍作停留,談談pollcache
func (c *pollCache) alloc() *pollDesc {
lock(&c.lock)
if c.first == nil {
const pdSize = unsafe.Sizeof(pollDesc{})
n := pollBlockSize / pdSize
if n == 0 {
n = 1
}
// Must be in non-GC memory because can be referenced
// only from epoll/kqueue internals.
mem := persistentalloc(n*pdSize, 0, &memstats.other_sys)
for i := uintptr(0); i < n; i++ {
pd := (*pollDesc)(add(mem, i*pdSize))
pd.link = c.first
c.first = pd
}
}
pd := c.first
c.first = pd.link
unlock(&c.lock)
return pd
}
alloc函數做了這樣的操作,如果鏈表頭為空則初始化pdSize個pollDesc節點,並pop出頭部,如果不為空則直接pop出頭部節點,每個節點的類型就是*pollDesc類型,具體實現在runtime/netpoll.go中
type pollDesc struct {
link *pollDesc // in pollcache, protected by pollcache.lock
// The lock protects pollOpen, pollSetDeadline, pollUnblock and deadlineimpl operations.
// This fully covers seq, rt and wt variables. fd is constant throughout the PollDesc lifetime.
// pollReset, pollWait, pollWaitCanceled and runtime·netpollready (IO readiness notification)
// proceed w/o taking the lock. So closing, everr, rg, rd, wg and wd are manipulated
// in a lock-free way by all operations.
// NOTE(dvyukov): the following code uses uintptr to store *g (rg/wg),
// that will blow up when GC starts moving objects.
lock mutex // protects the following fields
fd uintptr
closing bool
everr bool // marks event scanning error happened
user uint32 // user settable cookie
rseq uintptr // protects from stale read timers
rg uintptr // pdReady, pdWait, G waiting for read or nil
rt timer // read deadline timer (set if rt.f != nil)
rd int64 // read deadline
wseq uintptr // protects from stale write timers
wg uintptr // pdReady, pdWait, G waiting for write or nil
wt timer // write deadline timer
wd int64 // write deadline
}
其中rt和wt分別是讀寫定時器,用來防止讀寫超時。
fd為描述符指針,lock負責保護pollDesc內部成員變量讀寫防止多線程操作導致並發問題。
除此之外最重要的是rg和wg兩個變量,rg保存了用戶態操作pollDesc的讀協程地址,wg保存了用戶態操作pollDesc寫協程地址。
舉個例子,當我們在在用戶態協程調用read阻塞時rg就被設置為該讀協程,當內核態epoll_wait檢測read就緒后就會通過rg找到這個協程讓后恢復運行。
rg,wg默認是0,rg為pdReady表示讀就緒,可以將協程恢復,為pdWait表示讀阻塞,協程將要被掛起。wg也是如此。
所以golang其實是通過pollDesc實現用戶態和內核態信息的共享的。
回到之前poll_runtime_pollOpen函數,我們就理解了其內部生成*pollDesc,並且傳入netpollopen函數,netpollopen對應實現了epoll的init和wait,從而達到了用戶態信息和內核態的關聯。
netpollopen函數不同模型的實現不相同,epoll的實現在runtime/netpoll_epoll.go中
func netpollopen(fd uintptr, pd *pollDesc) int32 {
var ev epollevent
ev.events = _EPOLLIN | _EPOLLOUT | _EPOLLRDHUP | _EPOLLET
*(**pollDesc)(unsafe.Pointer(&ev.data)) = pd
return -epollctl(epfd, _EPOLL_CTL_ADD, int32(fd), &ev)
}
從而實現了epoll將fd添加至內核epoll表里,同樣pd作為event的data傳入內核表,從而實現內核態和用戶態協程的關聯。
runtime/netpoll_epoll.go實現了epoll模型的基本操作,詳見源碼。
golang如何將一個描述符加入epoll表中
傳統的流程為:
生成socket–> bind socket–> listen–> accept
在golang中生成socket,bind,以及listen統一封裝好了
Listen–> lc.Listen –> sl.listenTCP –> internetSocket
internetSocket –> socket –> newFD && listenStream
在newFD中完成了描述符創建,在listenStream完成了bind和listen。newFD只初始化了基本的結構,未完成pollDesc類型變量pd的初始化。
我們跟隨源碼查看listen的綁定流程
unc (lc *ListenConfig) Listen(ctx context.Context, network, address string) (Listener, error) {
addrs, err := DefaultResolver.resolveAddrList(ctx, "listen", network, address, nil)
if err != nil {
return nil, &OpError{Op: "listen", Net: network, Source: nil, Addr: nil, Err: err}
}
sl := &sysListener{
ListenConfig: *lc,
network: network,
address: address,
}
var l Listener
la := addrs.first(isIPv4)
switch la := la.(type) {
case *TCPAddr:
l, err = sl.listenTCP(ctx, la)
case *UnixAddr:
l, err = sl.listenUnix(ctx, la)
default:
return nil, &OpError{Op: "listen", Net: sl.network, Source: nil, Addr: la, Err: &AddrError{Err: "unexpected address type", Addr: address}}
}
if err != nil {
return nil, &OpError{Op: "listen", Net: sl.network, Source: nil, Addr: la, Err: err} // l is non-nil interface containing nil pointer
}
return l, nil
}
可以看出Listen函數返回的類型為Listener接口類型,其內部根據la類型調用不同的listen函數,這里查看listenTCP
func (sl *sysListener) listenTCP(ctx context.Context, laddr *TCPAddr) (*TCPListener, error) {
fd, err := internetSocket(ctx, sl.network, laddr, nil, syscall.SOCK_STREAM, 0, "listen", sl.ListenConfig.Control)
if err != nil {
return nil, err
}
return &TCPListener{fd: fd, lc: sl.ListenConfig}, nil
}
internetSocket內部調用socket生成描述符返回
func socket(ctx context.Context, net string, family, sotype, proto int, ipv6only bool, laddr, raddr sockaddr, ctrlFn func(string, string, syscall.RawConn) error) (fd *netFD, err error) {
s, err := sysSocket(family, sotype, proto)
if err != nil {
return nil, err
}
if err = setDefaultSockopts(s, family, sotype, ipv6only); err != nil {
poll.CloseFunc(s)
return nil, err
}
if fd, err = newFD(s, family, sotype, net); err != nil {
poll.CloseFunc(s)
return nil, err
}
if laddr != nil && raddr == nil {
switch sotype {
case syscall.SOCK_STREAM, syscall.SOCK_SEQPACKET:
if err := fd.listenStream(laddr, listenerBacklog(), ctrlFn); err != nil {
fd.Close()
return nil, err
}
return fd, nil
case syscall.SOCK_DGRAM:
if err := fd.listenDatagram(laddr, ctrlFn); err != nil {
fd.Close()
return nil, err
}
return fd, nil
}
}
if err := fd.dial(ctx, laddr, raddr, ctrlFn); err != nil {
fd.Close()
return nil, err
}
return fd, nil
}
socket函數做了這樣幾件事
1 調用sysSocket生成描述符
2 調用newFD封裝描述符,構造netFD類型變量
3 調用netFD的listenDatagram方法,實現bind和listen
func (fd *netFD) listenStream(laddr sockaddr, backlog int, ctrlFn func(string, string, syscall.RawConn) error) error {
var err error
if err = setDefaultListenerSockopts(fd.pfd.Sysfd); err != nil {
return err
}
var lsa syscall.Sockaddr
if lsa, err = laddr.sockaddr(fd.family); err != nil {
return err
}
if ctrlFn != nil {
c, err := newRawConn(fd)
if err != nil {
return err
}
if err := ctrlFn(fd.ctrlNetwork(), laddr.String(), c); err != nil {
return err
}
}
if err = syscall.Bind(fd.pfd.Sysfd, lsa); err != nil {
return os.NewSyscallError("bind", err)
}
if err = listenFunc(fd.pfd.Sysfd, backlog); err != nil {
return os.NewSyscallError("listen", err)
}
if err = fd.init(); err != nil {
return err
}
lsa, _ = syscall.Getsockname(fd.pfd.Sysfd)
fd.setAddr(fd.addrFunc()(lsa), nil)
return nil
}
listenStream除了bind和listen操作之外,還執行了netFD的init操作,這個init操作就是將netFD和epoll關聯,將描述符和協程信息寫入epoll表
func (fd *netFD) init() error {
errcall, err := fd.pfd.Init(fd.net, true)
if errcall != "" {
err = wrapSyscallError(errcall, err)
}
return err
}
前文講過fd.pfd為FD類型,是和epoll通信的核心結構,FD的Init方法內完成了pollDesc類型成員變量pd和epoll的關聯。
其內部調用了fd.pd.init(fd),pd就是fd的pollDesc類型成員變量,其init函數上面已經解釋過了調用了runtime_pollOpen,runtime_pollOpen是link到
runtime/netpoll.go中poll_runtime_pollOpen函數,這個函數將用戶態協程的pollDesc信息寫入到epoll所在的單獨線程,從而實現用戶態和內核態的關聯。
總結下bind和listen后續的消息流程就是:
listenStream –> bind&listen&init –> pollDesc.Init –> runtime_pollOpen
–> poll_runtime_pollOpen –> epollctl(EPOLL_CTL_ADD)
到此為止golang網絡描述符從生成到綁定和監聽,以及寫入epoll表的流程分析完畢,下一篇分析accept流程以及用戶態協程如何掛起,epoll就緒后如何喚醒協程。
感謝關注我的公眾號
