최근 이더넷 기술은 기가비트급의 대역폭을 넘어서 10 기가비트급으로 빠른 속도로 발전하고 있다. 이러한 고속 네트워크 환경에서는 호스트 CPU가 운영체제내의 TCP/IP를 처리하는 기존의 방식은 호스트 CPU에 많은 부하를 야기하며, 그 결과 실제 수행되어야 할 사용자 응용 프로그램에 충분한 컴퓨팅 파워를 제공하지 못한다. 이러한 문제점의 해결을 위해 네트워크 어댑터에서 TCP/IP를 처리하도록 하는 TCP/IP Offload Engine(TOE)이 연구되고 있다. 본 논문에서는 TOE를 위한 고성능의 경량 TCP/IP를 구현하였으며, 이를 임베디드 시스템에 실제 적용하여 검증 및 실험을 수행하였다. 본 논문에서 구현한 고성능의 경량 TCP/IP는 기존 TCP/IP의 기본적인 기능들인 흐름제어, 혼잡제어, 재전송, 지연 ACK, Out-of-Order 패킷처리 등을 지원한다. 또한 본 논문에서 구현한 고성능의 경량 TCP/IP는 기가비트 이더넷 MAC에서 하드웨어적으로 지원하는 TCP segmentation offload(TSO), Checksum offload(CSO), 인터럽트 coalescing 기능 둥을 이용하도록 구현하였다. 그리고 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 데이타를 복사하는 부하를 제거하였다. 또한 재전송해야 할 경우를 대비해 전송한 데이타에 대한 복사본을 네트워크 어댑터의 메모리에 저장하는 방법을 개선하여 지연시간 및 대역폭 성능을 향상시켰다. 본 논문에서 구현한 고성능의 경량 TCP/IP를 이용한 소프트웨어 기반 TOE는 6% 이하의 호스트 CPU 사용률과 453Mbps의 최대 대역폭을 보인다.
최근 이더넷 기술은 기가비트급의 대역폭을 넘어서 10 기가비트급으로 빠른 속도로 발전하고 있다. 이러한 고속 네트워크 환경에서는 호스트 CPU가 운영체제내의 TCP/IP를 처리하는 기존의 방식은 호스트 CPU에 많은 부하를 야기하며, 그 결과 실제 수행되어야 할 사용자 응용 프로그램에 충분한 컴퓨팅 파워를 제공하지 못한다. 이러한 문제점의 해결을 위해 네트워크 어댑터에서 TCP/IP를 처리하도록 하는 TCP/IP Offload Engine(TOE)이 연구되고 있다. 본 논문에서는 TOE를 위한 고성능의 경량 TCP/IP를 구현하였으며, 이를 임베디드 시스템에 실제 적용하여 검증 및 실험을 수행하였다. 본 논문에서 구현한 고성능의 경량 TCP/IP는 기존 TCP/IP의 기본적인 기능들인 흐름제어, 혼잡제어, 재전송, 지연 ACK, Out-of-Order 패킷처리 등을 지원한다. 또한 본 논문에서 구현한 고성능의 경량 TCP/IP는 기가비트 이더넷 MAC에서 하드웨어적으로 지원하는 TCP segmentation offload(TSO), Checksum offload(CSO), 인터럽트 coalescing 기능 둥을 이용하도록 구현하였다. 그리고 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 데이타를 복사하는 부하를 제거하였다. 또한 재전송해야 할 경우를 대비해 전송한 데이타에 대한 복사본을 네트워크 어댑터의 메모리에 저장하는 방법을 개선하여 지연시간 및 대역폭 성능을 향상시켰다. 본 논문에서 구현한 고성능의 경량 TCP/IP를 이용한 소프트웨어 기반 TOE는 6% 이하의 호스트 CPU 사용률과 453Mbps의 최대 대역폭을 보인다.
Today, Ethernet technology is rapidly developing to have a bandwidth of 10Gbps beyond 1Gbps. In such high-speed networks, the existing method that host CPU processes TCP/IP in the operating system causes numerous overheads. As a result of the overheads, user applications cannot get the enough comput...
Today, Ethernet technology is rapidly developing to have a bandwidth of 10Gbps beyond 1Gbps. In such high-speed networks, the existing method that host CPU processes TCP/IP in the operating system causes numerous overheads. As a result of the overheads, user applications cannot get the enough computing power from the host CPU. To solve this problem, the TCP/IP Offload Engine(TOE) technology was emerged. TOE is a specialized NIC which processes the TCP/IP instead of the host CPU. In this paper, we implemented a high-performance, lightweight TCP/IP(HL-TCP) for the TOE and applied it to an embedded system. The HL-TCP supports existing fundamental TCP/IP functions; flow control, congestion control, retransmission, delayed ACK, processing out-of-order packets. And it was implemented to utilize Ethernet MAC's hardware features such as TCP segmentation offload(TSO), checksum offload(CSO) and interrupt coalescing. Also we eliminated the copy overhead from the host memory to the NIC memory when sending data and we implemented an efficient DMA mechanism for the TCP retransmission. The TOE using the HL-TCP has the CPU utilization of less than 6% and the bandwidth of 453Mbps.
Today, Ethernet technology is rapidly developing to have a bandwidth of 10Gbps beyond 1Gbps. In such high-speed networks, the existing method that host CPU processes TCP/IP in the operating system causes numerous overheads. As a result of the overheads, user applications cannot get the enough computing power from the host CPU. To solve this problem, the TCP/IP Offload Engine(TOE) technology was emerged. TOE is a specialized NIC which processes the TCP/IP instead of the host CPU. In this paper, we implemented a high-performance, lightweight TCP/IP(HL-TCP) for the TOE and applied it to an embedded system. The HL-TCP supports existing fundamental TCP/IP functions; flow control, congestion control, retransmission, delayed ACK, processing out-of-order packets. And it was implemented to utilize Ethernet MAC's hardware features such as TCP segmentation offload(TSO), checksum offload(CSO) and interrupt coalescing. Also we eliminated the copy overhead from the host memory to the NIC memory when sending data and we implemented an efficient DMA mechanism for the TCP retransmission. The TOE using the HL-TCP has the CPU utilization of less than 6% and the bandwidth of 453Mbps.
* AI 자동 식별 결과로 적합하지 않은 문장이 있을 수 있으니, 이용에 유의하시기 바랍니다.
문제 정의
구현하였다. 그리고 HL-TCP를 이용한 TOE는 선행 연구인 IMP를 이용한 TOE와 동일한 임베디드 시스템에서 구현되었으며, HL-TCP 성능의 우수성을 본 논문에서 실험을 통해 밝힌다.
HL-TCP는 흐름제어 혼잡제어, 재전송, 지연 ACK, Out-of-Order 패킷처리 등을 지원하며 혼잡제어는 AIMD(Additive Increase, Multiplicative Decrease) 알고리즘을 채택하여 구현하였다. 그리고 매 수신 패킷마다 ACK패킷을 보내는 것은 네트워크의 효율성이나 성능측면에서 좋지 않기 때문에 본 논문에서는 지연 ACK를 구현하였다.
그래서 운영체제를 사용한 TOE의 단점을 극복하고, 소프트웨어 기반 TOE의 장점인 유연성을 가질 수 있는 방법으로써 TCP/IP를 처리하는 전용 소프트웨어를 이용한 TOE가 연구되고 있다. 본 논문에서는 운영체제 없이 TCP/IP를 처리할 수 있는 전용 소프트웨어인 HL-TCP(High Performance Lightwei아it TCP/IP)를 개발하여 소프트웨어 기반 TOE를 구현하였다. 그리고 실험을 통해 호스트 CPU사용률과 지연시간 및 대역폭 성능을 비교, 분석하였다.
이러한 연구들을 기반으로 본 논문에서는 소프트웨어 기반 TOE가 가지는 유연성이라는 장점을 유지하면서 보다 더 고성능을 낼 수 있는 HL-TCP를 구현하였다. 그리고 HL-TCP를 이용한 TOE는 선행 연구인 IMP를 이용한 TOE와 동일한 임베디드 시스템에서 구현되었으며, HL-TCP 성능의 우수성을 본 논문에서 실험을 통해 밝힌다.
제안 방법
다음으로 HL-TCP를 이용한 TOE와 2장에서 설명한 IwIP를 이용한 TOEU5]인 IwIP-TOE의 대역폭을 측정하여 성능을 비교, 분석하였다. 그리고 3.3절에서 설명한 HL-TCP의 개선사항들을 차례로 적용하였을 때 대역폭과 지연시간을 실험하고 분석하였다.
먼저 HL_TCP_send()함수는 전송할 데이타가 있는 호스트 메모리의 페이지정보를 얻는다. 그리고 MAC이 TSO기능올 처리하기 위해 필요한 TCP/IP 프로토타입 헤더를 만들고 TSO, CSO기능을 사용할 수 있도록 MAC을 설정한다. 그 다음으로 MAC 이 데이타와 TCP/IP 프로토타입 헤더를 DMA할 수 있도록 송신 디스크립터를 설정한다.
그리고 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거하였다. 또한 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였다.
본 논문에서는 운영체제 없이 TCP/IP를 처리할 수 있는 전용 소프트웨어인 HL-TCP(High Performance Lightwei아it TCP/IP)를 개발하여 소프트웨어 기반 TOE를 구현하였다. 그리고 실험을 통해 호스트 CPU사용률과 지연시간 및 대역폭 성능을 비교, 분석하였다.
먼저 일반 기가비트 어댑터를 사용하였을 때와 본 논문에서 구현한 HL-TCP를 이용한 TOE를 사용하였을 때의 CPU사용률을 측정하였다. 다음으로 HL-TCP를 이용한 TOE와 2장에서 설명한 IwIP를 이용한 TOEU5]인 IwIP-TOE의 대역폭을 측정하여 성능을 비교, 분석하였다. 그리고 3.
3절에서 제시한 각 개선사항들을 HL-TCP를 이용한 TOE에 적용하였을 때의 지연시간과 대역폭을 측정하고 분석하였다 먼저 HL-TCP에 TCP seg mentation offload(TSO), Checksum offload(CSO)를 적용하였을 때의 대역폭과 지연시간을 측정하였다. 다음으로 데이타를 전송할 때 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거였을 때의 대역폭과 지연시간을 측정하였다. 또한 MAC과 재전송을 위한 DMA 전송작업들을 병렬화한 개선사항과 인터럽트 coalescing 사용하는 개선사항 둥을 차례로 적용하여 각각의 대역폭과 지연시간을 측정하였다.
즉, 구조의 유연성 측면에서 단점을 보인다. 두 번째 방법은 임베디드 시스템에 탑재된 범용 프로세서를 사용하여 소프트웨어적으로 TCP/IP를 처리하는 것이다. 이 방법은 하드웨어 방식에 비해 성능이 떨어지는 단점이 있지만, 상대적으로 구현이 쉽고 유연성이 뛰어난 장점을 가진다.
두 번째로는 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거하였다. 그림 3에 표시된 원 문자를 기준으로 이러한 메커니즘을 설명한다.
이는 PCI 버스의 사용률을 낮추어 성능상의 단점으로 작용한다. 따라서 본 논문에서는 이를 개선하기 위중 H, 그림 4의 (b)와 같이 MAC 내의 전용 하드웨어가 DMA 한 데이타를 패킷화하는 동안, 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였다. 그 결과, 재전송을 위해 네트워크 어댑터의 메모리로 데이타를 복사함으로써 통신성능이 저하되는 문제를 해결할 수 있었다.
다음으로 데이타를 전송할 때 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거였을 때의 대역폭과 지연시간을 측정하였다. 또한 MAC과 재전송을 위한 DMA 전송작업들을 병렬화한 개선사항과 인터럽트 coalescing 사용하는 개선사항 둥을 차례로 적용하여 각각의 대역폭과 지연시간을 측정하였다.
측정 하였다. 먼저 일반 기가비트 어댑터를 사용하였을 때와 본 논문에서 구현한 HL-TCP를 이용한 TOE를 사용하였을 때의 CPU사용률을 측정하였다. 다음으로 HL-TCP를 이용한 TOE와 2장에서 설명한 IwIP를 이용한 TOEU5]인 IwIP-TOE의 대역폭을 측정하여 성능을 비교, 분석하였다.
본 논문에서 구현한 HL-TCP를 이용한 소프트웨어 기반 TOE는 MAC 에서 하드웨어적으로 제공하는 TSO, CSO, 인터럽트 coalescing기능을 사용하도록 구현하였다. 그리고 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거하였다.
본 장에서는 HL-TCP를 이용한 소프트웨어 TOE의 성능을 측정 하였다. 먼저 일반 기가비트 어댑터를 사용하였을 때와 본 논문에서 구현한 HL-TCP를 이용한 TOE를 사용하였을 때의 CPU사용률을 측정하였다.
본 절에서는 3.3절에 설명한 개선사항들을 모두 적용한 HL-TCP# 이용한 TOE와 IwIP-TOE의 대역폭을 비교하였다. 그림 6에서 보는 바와 같이 IwIP-TOE의 성능은 194Mbps로 낮은 성능을 보였다.
본 절에서는 3.3절에서 제시한 각 개선사항들을 HL-TCP를 이용한 TOE에 적용하였을 때의 지연시간과 대역폭을 측정하고 분석하였다 먼저 HL-TCP에 TCP seg mentation offload(TSO), Checksum offload(CSO)를 적용하였을 때의 대역폭과 지연시간을 측정하였다. 다음으로 데이타를 전송할 때 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거였을 때의 대역폭과 지연시간을 측정하였다.
세 번째로는 재전송해야 할 경우를 대비해 전송한 데이타에 대한 복사본을 네트워크 어댑터의 메모리에 저장하는 방법을 개선하였다. 기존의 방식은 앞 단락에서 설명하였듯이, MAC이 복사 없이 데이타를 전송한 후에, 재전송을 위한 데이타를 다시 DMA를 통해 네트워크 어댑터 메모리로 복사한다 그림 4의 (a)와 같이 순차적으로 이루어지는 두 번의 DMA 전송방식은 MAC이 DMA로 가져온 데이타를 실제로 패킷화하여 네트워
성능 비교를 위한 일반 기가비트 이더넷 어댑터로는 Intel사의 PRO/IOOOMT Server Adapter를 사용하였고, TOE네트워크 어댑터로는 HL-TCP가 탑재된 Cyclone Micro systems^}^ PCI-730카드를 사용하였다. 실험 방법은 호스트의 사용자 응용 프로그램에서 sendO 함수의 호출로부터 데이타가 원격 노드의 수신버퍼에 들어갈 때까지의 지연시간과 대역폭을 측정하였다. 측정치는 4바이트에서 256K 바이트까지의 데이타 전송을 100회 반복한 평균치이다.
유연성을 최대한 유지하면서도 고성능을 가지는 TOE를 구현하기 위해 우리는 선행 연구로서 임베디드 리눅스를 사용하여 TOE를 구현[12]하였다. 그러나 TCP/IP, 디바이스 계충간을 이동하면서 발생하는 데이타 복사 문제와 임베디드 커널과 웅용 프로그램 사이의 문맥 전환 오버헤드로 인해 높은 성능을 내지 못 하였다.
이를 해결하기 위해, 본 논문에서는 그림 3의 (b)와 같이 TCP/IP 헤더와 데이타가 각각 분리되어 있어도 전송할 수 있도록 HL-TCP를 구현하였다. 즉, TCP/IP 헤더는 네트워크 어댑터의 메모리로부터 DMA하고(①), 데이타는 호스트 메모리로부터 DMA하도록 구현하였다(②). 그 결과, 호스트 사용자 메모리에 있는 데이타가 네트워크 어댑터로 복사될 필요가 없어 통신 성능을 향상시킬 수 있었다.
개선사항을 설명한다. 첫 번째로는 MAC자체에서 하드웨어적으로 지원하는 오프로딩 기능들을 HL-TCP가 사용할 수 있도록 하였다. 최근 기가비트 이더넷 MAC은 TCP segmentation offload(TSO), Checksum offload(CSO), 인터럽트 coalescing둥을 지원한다.
대상 데이터
호스트 컴퓨터의 운영체제로는 리눅스 커널 2427을 사용하였다. 성능 비교를 위한 일반 기가비트 이더넷 어댑터로는 Intel사의 PRO/IOOOMT Server Adapter를 사용하였고, TOE네트워크 어댑터로는 HL-TCP가 탑재된 Cyclone Micro systems^}^ PCI-730카드를 사용하였다. 실험 방법은 호스트의 사용자 응용 프로그램에서 sendO 함수의 호출로부터 데이타가 원격 노드의 수신버퍼에 들어갈 때까지의 지연시간과 대역폭을 측정하였다.
실험 환경으로 1.8GIIz Intel Xeon 프로세서, 512MB 메인 메모리 및 64bit/66MHz PCI 슬롯을 가진 두 대의 컴퓨터를 사용하였다. 그리고 3C0M사의 SuperStack3 스위치를 사용하여 노드들을 연결하였다.
적용하였을 때의 대역폭을 보여준다. 이 실험에서는 대역폭 측정을 위해 256KB 데이타를 사용했다. HL-TCP에 MAC의 TSO와 CSO기능을 적용하였을 경우 최대 대역폭은 306Mbps를 보였다.
그리고 3C0M사의 SuperStack3 스위치를 사용하여 노드들을 연결하였다. 호스트 컴퓨터의 운영체제로는 리눅스 커널 2427을 사용하였다. 성능 비교를 위한 일반 기가비트 이더넷 어댑터로는 Intel사의 PRO/IOOOMT Server Adapter를 사용하였고, TOE네트워크 어댑터로는 HL-TCP가 탑재된 Cyclone Micro systems^}^ PCI-730카드를 사용하였다.
이론/모형
지원할 수 있도록 구현하였다. HL-TCP는 흐름제어 혼잡제어, 재전송, 지연 ACK, Out-of-Order 패킷처리 등을 지원하며 혼잡제어는 AIMD(Additive Increase, Multiplicative Decrease) 알고리즘을 채택하여 구현하였다. 그리고 매 수신 패킷마다 ACK패킷을 보내는 것은 네트워크의 효율성이나 성능측면에서 좋지 않기 때문에 본 논문에서는 지연 ACK를 구현하였다.
성능/효과
하위 이더넷 MAC이 이러한 기능들을 지원하면 HL-TCP 내의 TCP 세그멘테이션 및 체크섬 계산 루틴은 동작하지 않고 이더넷 하드웨어가 처리하도록 HH-TCP를 구현하였다. 그 결과 하위 하드웨어의 오프로딩 기능의 지원 유무에 상관없이 항상 소프트웨어적으로 세그멘테이션 및 체크섬을 수행하던 기존의 방법보다 높은 성능을 얻을 수 있었고, 이를 4.2절의 실험 결과에서 보인다.
따라서 본 논문에서는 이를 개선하기 위중 H, 그림 4의 (b)와 같이 MAC 내의 전용 하드웨어가 DMA 한 데이타를 패킷화하는 동안, 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였다. 그 결과, 재전송을 위해 네트워크 어댑터의 메모리로 데이타를 복사함으로써 통신성능이 저하되는 문제를 해결할 수 있었다.
또한 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였다. 그 결과, 통신 대역폭은 최대 453Mbps를 보였고, CPU 사용률은 6%를 넘지 않았다. 향후 연구로서 HL-TCP와 실제 인터넷 어플리케이션을 결합하여 실험할 것이며, 이를 통해 HL-TCP의 안정성 및 다중 연결 상황에서의 성능을 측정할 것이다
즉, TCP/IP 헤더는 네트워크 어댑터의 메모리로부터 DMA하고(①), 데이타는 호스트 메모리로부터 DMA하도록 구현하였다(②). 그 결과, 호스트 사용자 메모리에 있는 데이타가 네트워크 어댑터로 복사될 필요가 없어 통신 성능을 향상시킬 수 있었다.
그리고 전송할 때 네트워크 어댑터로 데이타를 복사하지 않도록 개선하였을 경우 최대 대역폭이 350Mbps로 약 45Mbps 정도의 향상되었다. 그리고 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높임으로써 재전송을 위해 네트워크 어댑터로의 데이타 복사가 발생하여도 대역폭은 거의 줄어들지 않았다. 마지막 개선사항으로써 인터럽트 coalescing기능을 적용하였을 때 최대 대역폭은 453Mbps를 보였다.
HL-TCP에 MAC의 TSO와 CSO기능을 적용하였을 경우 최대 대역폭은 306Mbps를 보였다. 그리고 전송할 때 네트워크 어댑터로 데이타를 복사하지 않도록 개선하였을 경우 최대 대역폭이 350Mbps로 약 45Mbps 정도의 향상되었다. 그리고 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높임으로써 재전송을 위해 네트워크 어댑터로의 데이타 복사가 발생하여도 대역폭은 거의 줄어들지 않았다.
그리고 데이타를 전송할 때, 호스트 사용자 메모리에서 네트워크 어댑터의 메모리로 복사하는 부하를 제거하였다. 또한 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였다. 그 결과, 통신 대역폭은 최대 453Mbps를 보였고, CPU 사용률은 6%를 넘지 않았다.
그리고 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높임으로써 재전송을 위해 네트워크 어댑터로의 데이타 복사가 발생하여도 대역폭은 거의 줄어들지 않았다. 마지막 개선사항으로써 인터럽트 coalescing기능을 적용하였을 때 최대 대역폭은 453Mbps를 보였다. 이와 같이 약 100Mbps정도 최대 대역폭 향상을 볼 수 있었던 이유는 매 송수신 패킷마다 인터럽트를 처리하지 않고, 일정 시간 동안 발생한 인터럽트를 모아 한 번에 처리하기 때문이다.
31#s일 때 최대 대역폭 성능이 가장 높았다. 수신 인터럽트 지연시간이 13.31“s보다 작을 때는 빈번한 인터럽트 발생에 의한 부하가 발생하여 대역폭이 줄어드는 것을 확인할 수 있었다.
이는 MAC과 재전송을 위한 DMA 전송작업들이 병렬화되도록 구현하여 PCI버스의 사용률을 높였기 때문이다. 이에 추가 개선사항으로써 인터럽트 coalescing기능을 적용하였을 때는 최소 지연시간이 5443卜에서 67.23陽으로 12.80“s증가하는 결과를 보였다. 지연시간이 증가한 이유는 매 송수신 인터럽트를 일정시간 모아서 한번에 처리하기 때문이다.
지연시간이 증가한 이유는 매 송수신 인터럽트를 일정시간 모아서 한번에 처리하기 때문이다. 인터럽트 coalescing기능을 적용하였을 때 12.80“s의 지연시간 길어지지만, 이 기능을 적용하면 표 1에서 설명하였듯이 대역폭 성능은 약 100Mbps정도 증가하는 결과를 보였다.
후속연구
그 결과, 통신 대역폭은 최대 453Mbps를 보였고, CPU 사용률은 6%를 넘지 않았다. 향후 연구로서 HL-TCP와 실제 인터넷 어플리케이션을 결합하여 실험할 것이며, 이를 통해 HL-TCP의 안정성 및 다중 연결 상황에서의 성능을 측정할 것이다
참고문헌 (16)
R. Westrelin, N. Fugier, E. Nordmark, K. Kunze, E. Lemoine, "Studying network protocol offload with emulation: approach and preliminary results," In Proceedings of the 12th Annual IEEE Symposium on High Performance Interconnects, pp. 84- 90, Aug. 2004
Soo-Cheol Oh, Hankook Jang and Sang-Hwa Chung, "Analysis of TCP/IP Protocol Stack for a Hybrid TCP/IP Offload Engine," Lecture Notes in Computer Science, Vol.3320, pp. 406-409, Dec 2004
Paul Willmann, Hyong-youb Kim, Scott Rixner and Vijay S. Pai, "An Efficient Programmable 10 Gigabit Ethernet Network Interface Card," In Proceedings of the International Symposium on High- Performance Computer Architecture, pp. 96-107, Feb 2005
Wen-Fong Wang, Jun-Yau Wang, Jin-Jie Li, "Study on Enhanced Strategies for TCP/IP Offload Engines," In Proceedings of the 11th International Conference on Parallel and Distributed Systems, Vol.1, pp. 398-404, July 2005
Hyong-youb Kim, Scott Rixner, "TCP Offload through Connection Handoff," In Proceedings of EuroSys 2006, pp. 279-290, Apr. 2006
Dong-Jae Kang, Chei-Yol Kim, Kang-Ho Kim, Sung-In Jung, "Design and implementation of kernel S/W for TCP/IP offload engine(TOE)," In Proceedings of the 7th International Conference on Advanced Communication Technology, Vol.1, pp. 706-709, Feb. 2005
Soo-Cheol Oh, Seong-Woon Kim, "An Efficient Linux Kernel Module supporting TCP/IP Offload Engine on Grid," In Proceedings of Fifth International Conference on Grid and Cooperative Computing, pp. 228-235, Oct. 2006
Y. Hoskote, B. A. Bloechel, G. E. Dermer, V. Erraguntla, D. Finan, J. Howard, D. Klowden, S. G. Narendra, G. Ruhl, J. W. Tschanz, Sriram Vangal, V. Veeramachaneni, H. Wilson, Jianping Xu, N. Borkar, "A TCP offload accelerator for 10 Gb/s Ethernet in 90-nm CMOS" IEEE Journal of Solid-State Circuits, Vol.38, Issue11, pp. 1866- 1875, Nov. 2003
Hankook Jang, Sang-Hwa Chung and Soo-Cheol Oh, "Implementation of a Hybrid TCP/IP Offload Engine Prototype," Lecture Notes in Computer Science, Vol.3740, pp. 464-477, October 2005
Liu Tian-Hua, Zhu Hong-Feng, Zhou Chuan- Sheng, Chang Gui-Ran, "Research and Prototype Implementation of a TCP/IP Offload Engine Based on the ML403 Xilinx Development Board," In Proceedings of the 2nd International Conference on Information and Communication Technologies, Vol. 2, pp. 3163-3168, April 2006
Zhong-Zhen Wu, Han-Chiang Chen, "Design and Implementation of TCP/IP Offload Engine System over Gigabit Ethernet," In Proceedings of the 15th International Conference on Computer Communications and Networks, pp. 245-250, Oct. 2006
In-Su Yoon and Sang-Hwa Chung, "Implementation and Analysis of TCP/IP Offload Engine and RDMA Transfer Mechanisms on an Embedded System," Lectures Note in Computer Science, Vol. 3740, pp. 818-830, Oct 2005
A Lightweight TCP/IP stack [online]. Available: http://savannah.nongnu.org/projects/lwip
A. Dunkels, "Full TCP/IP for 8-Bit Architectures," In Proceedings of the 1st International Conference on Mobile Applications, Systems and Services, pp. 85-98, May 2003
윤인수, 정상화, 최봉식, 전용태, "임베디드 시스템상에서 Lightweight TCP/IP를 이용한 TCP/IP Offload Engine의 구현", 정보과학회논문지, 제33권, 제7호, pp. 413-420, 2006년
※ AI-Helper는 부적절한 답변을 할 수 있습니다.