接着上一文章,大致分析一下: sp_rx_thread 和 sp_tx_thread线程。
与tilera的mpipe抓包不一样,OpenFastPath通过ODP(dpdk)抓包时,是一股脑全抓上来的,抓上来之后,一看,不是我要抓的包,那咋办?再塞回去呗。于是,它采用年linux内核自带的虚拟网卡(tun)。用于将某些抓到的数据包再塞回内核协议栈,通过内核协议栈到达上层。
在ofp_packet_input函数中,在客户态收到包之后, res = pkt_func(&pkt); 会进行进一步的协议分析(arpip),假如需要继续解决(continue),最后会调用 ofp_sp_input,将数据包放入队列,而后在sp_rx_thread线程中,会从该队列取出数据包,并调研write,写入内核协议栈。
发包也有这种情况。运行OpenFastPath的linux机器上,有两种应用:一种是用OpenfastPath开发的网络程序;一种是传统的程序,比方系统的telnet命令。前一种程序采用客户态协议栈发送数据,因而称为FastPath。后一种是传统的应用,数据会进入到内核协议栈。通过路由设置,我们可以让内核要发出去的包到达虚拟网卡,而后 sp_tx_thread 线程通过read将数据包读到客户态,最终通过发包函数发出去。
sp_rx_thread 和 sp_tx_thread线程不需要太快,因而,他们应该是绑定在控制平面核上。主要源码: ofp_ifnet.c的ofp_ifnet_create函数,SP宏所包括的内容。
与虚拟网卡通信的两个线程