DPDK Document邦訳

2015/03/09 DPDK
個人的な邦訳メモです。
誤訳、思い込みも混入している可能性がありますので、あくまでも参考に。
@2015/03/09

5. Ring Library

The ring allows the management of queues. Instead of having a linked list of infinite size, the rte_ring has the following properties:
  • FIFO
  • Maximum size is fixed, the pointers are stored in a table
  • Lockless implementation
  • Multi-consumer or single-consumer dequeue
  • Multi-producer or single-producer enqueue
  • Bulk dequeue - Dequeues the specified count of objects if successful; otherwise fails
  • Bulk enqueue - Enqueues the specified count of objects if successful; otherwise fails
  • Burst dequeue - Dequeue the maximum available objects if the specified count cannot be fulfilled
  • Burst enqueue - Enqueue the maximum available objects if the specified count cannot be fulfilled
The advantages of this data structure over a linked list queue are as follows:
  • Faster; only requires a single Compare-And-Swap instruction of sizeof(void *) instead of several double-Compare-And-Swap instructions.
  • Simpler than a full lockless queue.
  • Adapted to bulk enqueue/dequeue operations. As pointers are stored in a table, a dequeue of several objects will not produce as many cache misses as in a linked queue. Also, a bulk dequeue of many objects does not cost more than a dequeue of a simple object.
リンクドリストよりも有意な点は以下のとおり:
  • 早い. 複数の"double-Compare-And-Swap"に代わって、たった1つのsizeof(void*)を"Compare-And-Swap"する命令を必要とする
  • 完全なロックレスキューよりも単純である
  • バルクエンキュー・デキュー操作に対応。ポインタはテーブルに保存されるので、幾らかのオブジェクトのデキューでも、リンクドキューのように多くのキャッシュミスは発生しない。多くのオブジェクトのバルクデキューも、単純なオブジェクトのデキューよりもコストはかからない。
The disadvantages:
  • Size is fixed
  • Having many rings costs more in terms of memory than a linked list queue. An empty ring contains at least N pointers.
不利な点は以下のとおり:
  • サイズは固定
  • リンクドリストキューよりも多くのメモリを必要とする。空のリングは少なくともN個のポインタから構成される。
A simplified representation of a Ring is shown in with consumer and producer head and tail pointers to objects stored in the data structure.
(図はちょっと間違っている気がする)

5.1. References for Ring Implementation in FreeBSD*

The following code was added in FreeBSD 8.0, and is used in some network device drivers (at least in Intel drivers):

bufring.h in FreeBSD
bufring.c in FreeBSD

5.2. Lockless Ring Buffer in Linux*

The following is a link describing the Linux Lockless Ring Buffer Design.
http://lwn.net/Articles/340400/

5.3. Additional Features

5.3.1. Name
A ring is identified by a unique name.
It is not possible to create two rings with the same name (rte_ring_create() returns NULL if this is attempted).
リングはユニークな名前で識別される。
同じ名前でリングを2つ作成することはできない。これが適用された場合、rte_ring_create() でNULLが返ってくる。
5.3.2. Water Marking
The ring can have a high water mark (threshold).
Once an enqueue operation reaches the high water mark, the producer is notified, if the water mark is configured.
This mechanism can be used, for example, to exert a back pressure on I/O to inform the LAN to PAUSE.
リングはhigh-water-markを持つことができる。
water markが設定されていれば、最初にエンキュー操作がhigh-water-markに達したなら、プロデューサが通知する。
このメカニズムは、例えば、I/Oのバックプレッシャとして、LANにPAUSE要求するために、使える。
5.3.3. Debug
When debug is enabled (CONFIG_RTE_LIBRTE_RING_DEBUG is set), the library stores some per-ring statistic counters about the number of enqueues/dequeues.
These statistics are per-core to avoid concurrent accesses or atomic operations.
デバッグ有効時(CONFIG_RTE_LIBRTE_RING_DEBUG)、ライブラリはリング毎のエンキュー/デキュー統計カウンタを保存する。
これらの統計情報は、コアごとの同時アクセスやアトミックオペレーションを除外する。

5.4. Use Cases

Use cases for the Ring library include:
  • Communication between applications in the DPDK
  • Used by memory pool allocator
リングライブラリのユースケースは以下を含む
  • DPDK内のアプリケーション間のコミュニケーション
  • メモリプールアロケータでの使われ方

5.5. Anatomy of a Ring Buffer (リングバッファの解剖学)

This section explains how a ring buffer operates.
The ring structure is composed of two head and tail couples; one is used by producers and one is used by the consumers.
The figures of the following sections refer to them as prod_head, prod_tail, cons_head and cons_tail.

Each figure represents a simplified state of the ring, which is a circular buffer.
The content of the function local variables is represented on the top of the figure, and the content of ring structure is represented on the bottom of the figure.
リングバッファがどのように動作するかをこのセクションは説明しています。
リング構造は2つのヘッドとテールカップルから構成されている。一つのプロデューサで使用され、1つは、コンシューマによって使用される。
次のセクションの図はprod_head、prod_tail、cons_headとcons_tailとしてそれらを参照してください。

各図はサーキュラバッファであるリングの簡略化された状態を表す。
関数のローカル変数の内容は、図の上に表現され、リング構造のコンテンツは図の下に表されている。
5.5.1. Single Producer Enqueue
5.5.2. Single Consumer Dequeue
5.5.3. Multiple Producers Enqueue
5.5.4. Modulo 32-bit Indexes

5.6. References

  • bufring.h in FreeBSD (version 8)\ http://svn.freebsd.org/viewvc/base/release/8.0.0/sys/sys/buf_ring.h?revision=199625&view=markup
  • bufring.c in FreeBSD (version 8)\ http://svn.freebsd.org/viewvc/base/release/8.0.0/sys/kern/subr_bufring.c?revision=199625&view=markup
  • Linux Lockless Ring Buffer Design\ http://lwn.net/Articles/340400/

7. Mbuf Library

The mbuf library provides the ability to allocate and free buffers (mbufs) that may be used by the DPDK application to store message buffers.
The message buffers are stored in a mempool, using the Mempool Library.

A rte_mbuf struct can carry network packet buffers or generic control buffers (indicated by the CTRL_MBUF_FLAG).
This can be extended to other types.
The rte_mbuf header structure is kept as small as possible and currently uses just two cache lines, with the most frequently used fields being on the first of the two cache lines.
mbufのライブラリは、割り当てるための能力とメッセージバッファを保存するためにDPDKアプリケーションによって使用できる空きバッファ(mbufの)を提供します。
メッセージバッファはMEMPOOLライブラリを使用して、MEMPOOLに保存されます。

rte_mbuf構造体は、ネットワークパケットバッファまたは(CTRL_MBUF_FLAGで示される)一般的なコントロールのバッファを運ぶことができます。
これは、他のタイプに拡張することができる。
rte_mbufヘッダ構造は、可能な限り小さく維持され、現在最も頻繁に使用されるフィールドは、2つのキャッシュ·ラインの最初にあると、ちょうど2つのキャッシュ·ラインを使用している。

7.1. Design of Packet Buffers

7.2. Buffers Stored in Memory Pools

7.3. Constructors

7.4. Allocating and Freeing mbufs

7.5. Manipulating mbufs

This library provides some functions for manipulating the data in a packet mbuf.
For instance:
  • Get data length
  • Get a pointer to the start of data
  • Prepend data before data
  • Append data after data
  • Remove data at the beginning of the buffer (rte_pktmbuf_adj())
  • Remove data at the end of the buffer (rte_pktmbuf_trim()) Refer to the DPDK API Reference for details.
このライブラリは、パケットのmbuf内のデータを操作するためのいくつかの機能を提供します。
  • データ長
  • 最初のデータへのポインタ取得
  • データの前にデータを追加
  • データの後ろにデータを追加
  • バッファの最初のデータを削除 (rte_pktmbuf_adj())
  • バッファの最後のデータを削除 (rte_pktmbuf_trim())
詳細はDPDK API Referenceを参照ください。

7.6. Meta Information

Some information is retrieved by the network driver and stored in an mbuf to make processing easier.
For instance, the VLAN, the RSS hash result (see Poll Mode Driver) and a flag indicating that the checksum was computed by hardware.

An mbuf also contains the input port (where it comes from), and the number of segment mbufs in the chain.

For chained buffers, only the first mbuf of the chain stores this meta information.
一部の情報は、ネットワークドライバにより取得され、より簡単に処理するためのmbufに保存されます。
例えば、VLAN・RSSのハッシュ結果(ポーリングモードドライバを参照)・チェックサムがハードウェアによって計算されたことを示すフラグです。

MBUFも、(それが来た)入力ポート、およびチェーンにおけるセグメントmbufの数が含まれています。
チェーンバッファの場合、チェーンの最初のmbufにのみ、このメタ情報が含まれます。

7.7. Direct and Indirect Buffers

A direct buffer is a buffer that is completely separate and self-contained.
An indirect buffer behaves like a direct buffer but for the fact that the buffer pointer and data offset in it refer to data in another direct buffer.
This is useful in situations where packets need to be duplicated or fragmented, since indirect buffers provide the means to reuse the same packet data across multiple buffers.

A buffer becomes indirect when it is “attached” to a direct buffer using the rte_pktmbuf_attach() function.
Each buffer has a reference counter field and whenever an indirect buffer is attached to the direct buffer, the reference counter on the direct buffer is incremented.
Similarly, whenever the indirect buffer is detached, the reference counter on the direct buffer is decremented.
If the resulting reference counter is equal to 0, the direct buffer is freed since it is no longer in use.
ダイレクトバッファは完全に独立したと自己完結しているバッファです。
間接バッファは、直接バッファのようですが、その中にオフセットバッファポインタとデータが別のダイレクトバッファ内のデータを参照するということのために動作します。
このパケットは、間接バッファは、複数のバッファで同じパケットデータを再利用するための手段を提供するので、複製またはフラグメント化する必要がある状況において有用である。

それはrte_pktmbuf_attach()関数を使用して直接バッファに"attached"されたときにバッファは、間接的になります。
各バッファは、参照カウンタフィールドを有しており、間接バッファを直接バッファに接続されているときはいつでも、直接バッファ上の参照カウンタがインクリメントされる。
間接バッファが切り離されるたびにも同様に、直接バッファ上の参照カウンタをデクリメントする。
得られた参照カウンタが0に等しい場合には使用されなくなったので、ダイレクトバッファーは解放される。
There are a few things to remember when dealing with indirect buffers.
First of all, it is not possible to attach an indirect buffer to another indirect buffer.
Secondly, for a buffer to become indirect, its reference counter must be equal to 1, that is, it must not be already referenced by another indirect buffer.
Finally, it is not possible to reattach an indirect buffer to the direct buffer (unless it is detached first).

While the attach/detach operations can be invoked directly using the recommended rte_pktmbuf_attach() and rte_pktmbuf_detach() functions, it is suggested to use the higher-level rte_pktmbuf_clone() function, which takes care of the correct initialization of an indirect buffer and can clone buffers with multiple segments.

Since indirect buffers are not supposed to actually hold any data, the memory pool for indirect buffers should be configured to indicate the reduced memory consumption.
Examples of the initialization of a memory pool for indirect buffers (as well as use case examples for indirect buffers) can be found in several of the sample applications, for example, the IPv4 Multicast sample application.
間接バッファを扱うときに覚えておくべきことがいくつかあります。
まず第一に、それは他の間接的なバッファに間接バッファをattachすることは不可能である。
第二に、間接的になるためのバッファのために、その参照カウンタはつまり、それは既に別の間接バッファによって参照されてはならない、1に等しくなければなりません。
最後に、それは(それが最初に切り離されていない限り)、直接バッファへ間接バッファを再接続(reattach)することはできません。

デタッチ/アタッチ操作は推奨さrte_pktmbuf_attach()とrte_pktmbuf_detach()関数を使用して直接呼び出すことができますが、
それは間接バッファの正しい初期化の世話をして複製することができ、より高いレベルのrte_pktmbuf_clone()関数を使用することが提案されている。
複数のセグメントを持つバッファも正しく行われるため、rte_pktmbuf_clone()関数の利用が提唱されている。

間接的なバッファが、実際にはデータを保持することを想定していないので、間接バッファ用メモリプールがメモリ消費の減少を示すように構成されるべきである。
間接バッファのメモリプール(および間接的なバッファの使用事例)の初期の例は、例えば、IPv4マルチキャストサンプルアプリケーション、サンプルアプリケーションのいくつかの中に見出すことができる。

7.8. Debug

In debug mode (CONFIG_RTE_MBUF_DEBUG is enabled), the functions of the mbuf library perform sanity checks before any operation (such as, buffer corruption, bad type, and so on).

8. Poll Mode Driver

Run-to-completion scheduling is a scheduling model
in which each task runs until it either finishes, or explicitly yields control back to the scheduler.
Run to completion systems typically have an event queue which is serviced either in strict order of admission by an event loop, or by an admission scheduler which is capable of scheduling events out of order, based on other constraints such as deadlines.


The DPDK includes 1 Gigabit, 10 Gigabit and 40 Gigabit and para virtualized virtio Poll Mode Drivers.
DPDKは1ギガビット、10ギガビットおよび40ギガビットおよびパラ仮想化のvirtioポールモードドライバが含まれています。
A Poll Mode Driver (PMD) consists of APIs, provided through the BSD driver running in user space, to configure the devices and their respective queues.
In addition, a PMD accesses the RX and TX descriptors directly without any interrupts (with the exception of Link Status Change interrupts) to quickly receive, process and deliver packets in the user's application.
This section describes the requirements of the PMDs, their global design principles and proposes a high-level architecture and a generic external API for the Ethernet PMDs.
ポーリングモードドライバ(PMD)は、デバイスとそれぞれのキューを設定するための、ユーザ空間で実行されているBSDのドライバを介して提供されるAPI群で構成されています。
また、PMDはRXおよびTXがすぐに、プロセスを受信して​​、ユーザーのアプリケーションでパケットを配信するために(変更割り込みリンクステータスを除く)すべての割り込みなしで直接ディスクリプタにアクセスします。
このセクションでは、PMDの要件(グローバルな設計原則)について説明し、ハイレベルのアーキテクチャとイ​​ーサネットのPMDのための一般的な外部APIを提案します。

8.1. Requirements and Assumptions(要件と前提)

The DPDK environment for packet processing applications allows for two models, run-to-completion and pipe-line:
  • In the run-to-completion model, a specific port's RX descriptor ring is polled for packets through an API.
Packets are then processed on the same core and placed on a port's TX descriptor ring through an API for transmission.
  • In the pipe-line model, one core polls one or more port's RX descriptor ring through an API.
Packets are received and passed to another core via a ring.
The other core continues to process the packet which then may be placed on a port's TX descriptor ring through an API for transmission.
パケット処理アプリケーションのためのDPDK環境は、run-to-completionとパイプライン、二つのモデルを許可する。
  • run-to-completionモデルでは、特定のポートのRXデスクリプタリングは、APIを介してパケットのためにポーリングされる。\ パケットは、同じコアに処理され、送信のためのAPIを介してポートのTXデスクリプタリング上に配置される。
  • パイプラインモデルでは、一つのコアにポーリングつまたは複数のポートのRXデスクリプタリングAPIを介する。\ パケットは受信され、リングを介して別のコアに渡される。\ 他のコアは、送信のためのAPIを介してポートのTXデスクリプタリング上に配置することができるパケットの処理を続行します。
In a synchronous run-to-completion model, each logical core assigned to the DPDK executes a packet processing loop that includes the following steps:
-Retrieve input packets through the PMD receive API
-Process each received packet one at a time, up to its forwarding
-Send pending output packets through the PMD transmit API
同期実行のrun-to-completionでは、DPDKに割り当てられた各論理コアは、以下のステップを含むパケット処理ループを実行する。
  • PMDの受信APIを介して、入力パケットを取得
  • プロセスごとに、その転送まで、一度に入力パケットを受信
  • PMD送信APIを介して、保留中の出力パケットを送信します
★フロー毎にlcoreを割り当てて, 送り終わるまで一括で処理を流す.
Conversely, in an asynchronous pipe-line model, some logical cores may be dedicated to the retrieval of received packets and other logical cores to the processing of previously received packets.
Received packets are exchanged between logical cores through rings. The loop for packet retrieval includes the following steps:
-Retrieve input packets through the PMD receive API
-Provide received packets to processing lcores through packet queues
逆に、非同期パイプラインのモデルでは、いくつかの論理コアは、以前に受信したパケットの処理と、
受信したパケットと他の論理コアの検索専用にすることができる。
受信したパケットは、リングを通して論理コアの間で交換されている。
パケットの取得のためのループは、以下のステップを含む。
  • PMDの受信APIを介して、入力パケットを取得
  • パケットキューを介して処理lcoresに受信したパケットを提供する
The loop for packet processing includes the following steps:
-Retrieve the received packet from the packet queue
-Process the received packet, up to its retransmission if forwarded
パケット処理ループは、以下のステップを含む。
  • パケットキューから受信したパケットを取得
  • 転送された場合は、その再送信までの受信したパケットを処理する
To avoid any unnecessary interrupt processing overhead, the execution environment must not use any asynchronous notification mechanisms.
Whenever needed and appropriate, asynchronous communication should be introduced as much as possible through the use of rings.
不要な割り込み処理のオーバーヘッドを回避するために、実行環境は、任意の非同期通知メカニズムを使用してはならない。
必要に応じて、適切なときはいつでも、非同期通信は、リングの使用を介して可能な限り導入すべきである。

Avoiding lock contention is a key issue in a multi-core environment.
To address this issue, PMDs are designed to work with per-core private resources as much as possible.
For example, a PMD maintains a separate transmit queue per-core, per-port.
In the same way, every receive queue of a port is assigned to and polled by a single logical core (lcore).
ロック競合を回避することは、マルチコア環境において重要な問題である。
この問題に対処するために、PMDは極力コアごとのプライベートリソースで動作するように設計されている。
例えば、PMDはポート単位、コア単位の独立した送信キューを維持します。
同様に、すべての受信ポートのキューは、割り当てられている1つの論理コア(lcore)によってポーリングされる。
To comply with Non-Uniform Memory Access (NUMA), memory management is designed to assign to each logical core a private buffer pool in local memory to minimize remote memory access.
The configuration of packet buffer pools should take into account the underlying physical memory architecture in terms of DIMMS, channels and ranks.
The application must ensure that appropriate parameters are given at memory pool creation time. See Mempool Library.
非一様メモリアクセス(NUMA)に準拠するために、メモリ管理は、リモートメモリアクセスを最小限に抑えるために、
各論理コアにローカルメモリにプライベートバッファプールを割り当てるように設計されています。
パケットバッファプールの構成は、DIMMを、チャンネルやランクの面で考慮に基礎となる物理メモリアーキテクチャを取る必要があります。
アプリケーションは、適切なパラメータは、メモリプールの作成時に与えられていることを確認する必要があります。
詳しくは MEMPOOLライブラリ を 参照してください。


8.2. Design Principles (設計原則)

The API and architecture of the Ethernet* PMDs are designed with the following guidelines in mind.
イーサネットのPMDのAPIとアーキテクチャは、次のガイドラインに従って設計されています。
PMDs must help global policy-oriented decisions to be enforced at the upper application level.
Conversely, NIC PMD functions should not impede the benefits expected by upper-level global policies, or worse prevent such policies from being applied.
MDは、グローバルなポリシーオリエンテッドの決定が上位のアプリケーションレベルで施行されるようにを支援する必要があります。
逆に、NIC PMD機能は、上位レベルのグローバルポリシーによって期待される利益を妨げたり、
またはそのような適用されるポリシーにより悪化することは、すべきではない。
For instance, both the receive and transmit functions of a PMD have a maximum number of packets/descriptors to poll.
This allows a run-to-completion processing stack to statically fix or to dynamically adapt its overall behavior through different global loop policies, such as:
-Receive, process immediately and transmit packets one at a time in a piecemeal fashion.
-Receive as many packets as possible, then process all received packets, transmitting them immediately.
-Receive a given maximum number of packets, process the received packets, accumulate them and finally send all accumulated packets to transmit.
例えば、PMDの両方の受信および送信機能は、ポーリングするためのパケット/記述子の最大数を持っている。
これは、run-to-completion処理スタックを静的に固定するために、動的などの異なるグローバルループポリシーを通じて、その全体的な動作を適合させることができます。
  • 受信すると、直ちに処理して、断片的に同時にそのパケットを送信する
  • できるだけ多くのパケットを受信し、すべての受信パケットを処理し、その後すぐにそれらを送信する
  • 指定された最大数のパケットを受信、受信したパケットは処理され、それらを蓄積し、最終的に伝送するために、すべての蓄積されたパケットを送信する
To achieve optimal performance,
overall software design choices and pure software optimization techniques must be considered and balanced against available low-level hardware-based optimization features (CPU cache properties, bus speed, NIC PCI bandwidth, and so on).
The case of packet transmission is an example of this software/hardware tradeoff issue when optimizing burst-oriented network packet processing engines.
In the initial case, the PMD could export only an rte_eth_tx_one function to transmit one packet at a time on a given queue.
On top of that, one can easily build an rte_eth_tx_burst function that loops invoking the rte_eth_tx_one function to transmit several packets at a time.
However, an rte_eth_tx_burst function is effectively implemented by the PMD to minimize the driver-level transmit cost per packet through the following optimizations:
最適なパフォーマンス、全体的なソフトウェアの設計選択と純粋なソフトウェア最適化手法を実現するために検討し、利用可能な低レベルのハードウェアベースの最適化機能(CPUキャッシュプロパティ、バス速度、NIC PCI帯域幅など)に対してバランスされなければならない。
バースト指向のネットワークパケット処理エンジンを最適化する際のパケット送信のケースは、このソフトウェア/ハードウェアのトレードオフの問題の一例である。
最初のケースで、PMDは、指定されたキュー上で一度に一つのパケットを送信するために、rte_eth_tx_one関数をエクスポートできます。
その上で、簡単に一度に複数のパケットを送信する、rte_eth_tx_one()関数を繰り返し呼び出すrte_eth_tx_burst機能を構築することができます。
しかし、rte_eth_tx_burst()関数は、PMDで以下の最適化によって、パケットごとにかかるドライバレベルの送信コストを最小限に抑えるよう、効果的に実装されます。
-Share among multiple packets the un-amortized cost of invoking the rte_eth_tx_one function.
-Enable the rte_eth_tx_burst function to take advantage of burst-oriented hardware features (prefetch data in cache, use of NIC head/tail registers)
to minimize the number of CPU cycles per packet,
for example by avoiding unnecessary read memory accesses to ring transmit descriptors,
or by systematically using arrays of pointers that exactly fit cache line boundaries and sizes.
-Apply burst-oriented software optimization techniques to remove operations that would otherwise be unavoidable, such as ring index wrap back management.
  • 複数のパケットのうち、rte_eth_tx_one関数を呼び出すの未償却原価(呼び出しオーバヘッド?)
  • rte_eth_tx_burst関数を有効にする。\パケットあたりのCPUサイクル数を最小化するため、バースト志向ハードウェア機能(キャッシュ内のプリフェッチデータや、NICヘッド/テールレジスタを使う)\たとえば、リング送信デスクリプタのメモリ読み込みアクセスを除去したり、キャッシュライン境界及びサイズに正確に適合(アライメント)したポインタアレイを使う。
  • このようなリングインデックスバックラップ管理などの他の方法で避けられないだろうな操作を削除するには、バースト指向ソフトウェア最適化技術を適用します。
Burst-oriented functions are also introduced via the API for services that are intensively used by the PMD.
This applies in particular to buffer allocators used to populate NIC rings, which provide functions to allocate/free several buffers at a time.
For example, an mbuf_multiple_alloc function returning an array of pointers to rte_mbuf buffers which speeds up the receive poll function of the PMD when replenishing multiple descriptors of the receive ring.
バースト指向の関数も集中的にPMDで使用されるサービスについては、APIを介して導入されている。
これは一度にいくつかのバッファを割り当てる/開放するための機能を提供する、NICリングを取り込むために使用されるバッファアロケータが特に当てはまる。
例えば、ポインタの配列を返すmbuf_multiple_alloc機能は、受信リングの複数の記述子を補充する際にPMDの受信ポーリング機能を高速化するバッファをrte_mbufする。

8.3. Logical Cores, Memory and NIC Queues Relationships (論理コア、メモリ、NICキューの関係)¶

The DPDK supports NUMA allowing for better performance when a processor's logical cores and interfaces utilize its local memory.
Therefore, mbuf allocation associated with local PCIe* interfaces should be allocated from memory pools created in the local memory.
The buffers should, if possible, remain on the local processor to obtain the best performance results and RX and TX buffer descriptors should be populated with mbufs allocated from a mempool allocated from local memory.

The run-to-completion model also performs better if packet or data manipulation is in local memory instead of a remote processors memory.
This is also true for the pipe-line model provided all logical cores used are located on the same processor.

Multiple logical cores should never share receive or transmit queues for interfaces since this would require global locks and hinder performance.
DPDKは、プロセッサの論理コアとインタフェースは、そのローカルメモリを利用するときに、より良いパフォーマンスを可能にするNUMAをサポートしています。

したがって、ローカルのPCIe*インターフェイスに関連付けられたmbufの割り当ては、ローカルメモリ内に作成されたメモリプールから割り当てられるべきである。
バッファは、(可能な場合は)最高のパフォーマンス結果を得るために、ローカルプロセッサ上に残すべきであり、
RXおよびTXバッファデスクリプタは、ローカルメモリから割り当てられたmempoolからから割り当てられたのmbufに補充(populate)する必要があります。

run-to-completionモデルもまた、パケットまたはデータが、リモートプロセッサメモリの代わりにローカルメモリ内で操作されるならば、パフォーマンスが良くなります。
これはまた、同じプロセッサ上に配置され使用されるすべての論理コアを提供し、パイプラインモデルについても同様です。

複数の論理コアは、これはグローバルロックが必要ですし、パフォーマンスを妨げるので、インターフェイスの受信キュー又は送信キューを共有することはありません。

8.4. Device Identification and Configuration (デバイスの識別と設定)

8.4.1. Device Identification(識別)
Each NIC port is uniquely designated by its (bus/bridge, device, function) PCI identifiers assigned by the PCI probing/enumeration function executed at DPDK initialization.
Based on their PCI identifier, NIC ports are assigned two other identifiers:
- A port index used to designate the NIC port in all functions exported by the PMD API.
- A port name used to designate the port in console messages, for administration or debugging purposes. For ease of use, the port name includes the port index.
各NICポートを一意にプロービングPCI / DPDKの初期化時に実行される列挙関数によって割り当てられたその(バス/ブリッジ、デバイス、機能)PCI識別子によって指定されている。
これらのPCI識別子に基づいて、NICポートに2つの他の識別子を割り当てられています。
  • PMD APIによってエクスポートされたすべての関数でNICポートを指定するためのポートインデックス
  • 管理またはデバッグの目的のために、コンソールメッセージでポートを指定するために使用されるポート名。使いやすさのために、ポート名、ポートインデックスを含む。

8.4.2. Device Configuration(設定)
The configuration of each NIC port includes the following operations:
- Allocate PCI resources
- Reset the hardware (issue a Global Reset) to a well-known default state
- Set up the PHY and the link
- Initialize statistics counters
The PMD API must also export functions to start/stop the all-multicast feature of a port and functions to set/unset the port in promiscuous mode.
各NICポートの設定には、次の操作が含まれます。
  • PCIリソースを割り当て
  • よく知られているデフォルトの状態に(グローバルリセットを発行して)ハードウェアをリセット
  • PHYとリンクを設定
  • 統計カウンタを初期化
PMD APIは、プロミスキャスモードのポートに設定/解除するための機能と、ポートのall-multicast機能を開始/停止するための関数を提供する必要があります。
Some hardware offload features must be individually configured at port initialization through specific configuration parameters.
This is the case for the Receive Side Scaling (RSS) and Data Center Bridging (DCB) features for example.
一部のハードウェアオフロード機能は、個別に具体的な設定パラメータを介してポート初期化時に設定する必要があります。
これは、例えば、受信側スケーリング(RSS)やデータセンターブリッジング(DCB)機能のケースがあります。

8.4.3. On-the-Fly Configuration
All device features that can be started or stopped “on the fly” (that is, without stopping the device) do not require the PMD API to export dedicated functions for this purpose.

All that is required is the mapping address of the device PCI registers to implement the configuration of these features in specific functions outside of the drivers.

For this purpose, the PMD API exports a function that provides all the information associated with a device that can be used to set up a given device feature outside of the driver.
This includes the PCI vendor identifier, the PCI device identifier, the mapping address of the PCI device registers, and the name of the driver.

The main advantage of this approach is that it gives complete freedom on the choice of the API used to configure, to start, and to stop such features.
"オンザフライ"で開始や停止ができる、すべてのデバイス機能(つまり、デバイスを停止せずにできるもの)は、この目的のために専用の関数をエクスポートするPMD APIを必要しません。

要求されているのは、デバイスのPCIのマッピングアドレスはドライバーの外の特定の機能でこれらの機能の構成を実装するために登録している。

この目的のために、PMD APIはドライバの外側に所定のデバイスの機能を設定するために使用することができるデバイスに関連付けられたすべての情報を提供する関数をエクスポートする。
これは、PCIベンダ識別子、PCIデバイスID、PCIデバイスのレジスタのマッピングアドレス、ドライバの名前を含む。

このアプローチの主な利点は、構成を開始するために、そのような機能を停止するために使用されるAPIの選択に完全な自由を与えることである。
As an example, refer to the configuration of the IEEE1588 feature for the Intel® 82576 Gigabit Ethernet Controller and the Intel® 82599 10 Gigabit Ethernet Controller controllers in the testpmd application.

Other features such as the L3/L4 5-Tuple packet filtering feature of a port can be configured in the same way.
Ethernet* flow control (pause frame) can be configured on the individual port.
Refer to the testpmd source code for details.
Also, L4 (UDP/TCP/ SCTP) checksum offload by the NIC can be enabled for an individual packet as long as the packet mbuf is set up correctly.
In terms of UDP tunneling packet, the PKT_TX_UDP_TUNNEL_PKT flag must be set to enable tunneling packet TX checksum offload for both outer layer and inner layer.
Refer to the testpmd source code (specifically the csumonly.c file) for details.

That being said, the support of some offload features implies the addition of dedicated status bit(s) and value field(s) into the rte_mbuf data structure, along with their appropriate handling by the receive/transmit functions exported by each PMD.

For instance, this is the case for the IEEE1588 packet timestamp mechanism, the VLAN tagging and the IP checksum computation, as described in the Section 7.6 “Meta Information”.
例として、インテル®82576ギガビット·イーサネット·コントローラとtestpmdアプリケーションにおけるインテル®82599 10ギガビットイーサネットコントローラコントローラーのIEEE1588機能の設定を参照してください。

そのようなポートのL3 / L4の5タプルのパケットフィルタリング機能などの他の機能も同様に構成することができる。
イーサネットフロー制御(ポーズフレーム)は、個々のポートに設定できます。
詳細についてはtestpmdソースコードを参照してください。
また、NICによってL4(UDP / TCP / SCTP)チェックサムオフロードは、ロングパケットのmbufが正しく設定されているように、個々のパケットのために有効にすることができます。
UDPトンネルパケットの面では、PKT_TX_UDP_TUNNEL_PKTフラグは外層と内層の両方のトンネリングパケットTXチェックサムオフロードを有効にするために設定する必要があります。
詳細については、testpmdソースコード(特にcsumonly.cファイル)を参照してください。

それは言われている、いくつかのオフロード機能がサポートは、各PMDによってエクスポートされた送信/受信機能によってその適切な取り扱いとともに、
rte_mbufデータ構造に専用のステータスビット(単数または複数)および値フィールド(単数または複数)の付加を意味する。

7.6項「メタ情報」に記載されているように例えば、これは、IEEE1588パケットのタイムスタンプのメカニズム、VLANタギングおよびIPチェックサム計算のためのケースです。


8.4.4. Configuration of Transmit and Receive Queues
Each transmit queue is independently configured with the following information:
各送信キューは、独立して、以下の情報で構成されている:
  • The number of descriptors of the transmit ring
  • The socket identifier used to identify the appropriate DMA memory zone from which to allocate the transmit ring in NUMA architectures
  • The values of the Prefetch, Host and Write-Back threshold registers of the transmit queue
  • The minimum transmit packets to free threshold (tx_free_thresh).
When the number of descriptors used to transmit packets exceeds this threshold, the network adaptor should be checked to see if it has written back descriptors.
A value of 0 can be passed during the TX queue configuration to indicate the default value should be used.
The default value for tx_free_thresh is 32.
This ensures that the PMD does not search for completed descriptors until at least 32 have been processed by the NIC for this queue.
  • The minimum RS bit threshold. The minimum number of transmit descriptors to use before setting the Report Status (RS) bit in the transmit descriptor. Note that this parameter may only be valid for Intel 10 GbE network adapters. The RS bit is set on the last descriptor used to transmit a packet if the number of descriptors used since the last RS bit setting, up to the first descriptor used to transmit the packet, exceeds the transmit RS bit threshold (tx_rs_thresh). In short, this parameter controls which transmit descriptors are written back to host memory by the network adapter. A value of 0 can be passed during the TX queue configuration to indicate that the default value should be used. The default value for tx_rs_thresh is 32. This ensures that at least 32 descriptors are used before the network adapter writes back the most recently used descriptor. This saves upstream PCIe* bandwidth resulting from TX descriptor write-backs. It is important to note that the TX Write-back threshold (TX wthresh) should be set to 0 when tx_rs_thresh is greater than 1. Refer to the Intel® 82599 10 Gigabit Ethernet Controller Datasheet for more details.
  • 送信リングのデスクリプタの数
  • NUMAアーキテクチャで送信リングを割り当てるのに適切なDMAメモリ領域を識別するために使用されるソケット識別子
  • プリフェッチ、ホスト、送信キューのライトバックしきい値レジスタの値
  • 送信パケットを開放するための最小のしきい値(tx_free_thresh)。\ パケットを送信するために使用されるデスクリプタの数が、このしきい値を超えたときに、ネットワークアダプタは、ディスクリプタをライトバックしているかどうかがチェックされるべきである。
0の値は、デフォルト値が使用されるべきであることを示すため、TXキューの構成中に渡すことができる。
tx_free_threshのデフォルト値は32です。\ これは、PMDが、少なくとも32個のデスクリプタがこのキューにNICによって処理されるまで、完了したデスクリプタを検索しないことを確実にする。
  • 最小 RSビットの閾値。送信ディスクリプタにレポートステータス(RS)ビットを設定する前に、使用する送信ディスクリプタの最小数。 このパラメータは、インテルの10 GbEネットワークアダプターに対して有効であることに注意してください。 最後のRSビットの設定から使用さ記述子の数は、パケットを送信するために使用される第1の記述子まで、送信RSビット閾値(tx_rs_thresh)を超える。RSビットは、パケットを送信するために使用される最後の記述子に設定されている 要するに、記述子を伝送するこのパラメータを制御し、ネットワークアダプタによってホストメモリに書き戻される。 0の値は、デフォルト値が使用されるべきであることを示すために、TXキューを構成中に通過させることができる。 tx_rs_threshのデフォルト値は、このネットワークアダプタは、最も最近使用された記述子を書き戻す前に、少なくとも32の記述子が使用されることを保証する32である。 これは、TXディスクリプタライトバックから生じる上流のPCIe *帯域幅を節約できます。 それはtx_rs_threshは詳細についてはインテル®82599 10ギガビットイーサネットコントローラデータシートを参照してください1よりも大きい場合、TXライトバックしきい値(TXのwthresh)が0に設定されるべきことに注意することが重要です。
The following constraints must be satisfied for tx_free_thresh and tx_rs_thresh:
- tx_rs_thresh must be greater than 0.
- tx_rs_thresh must be less than the size of the ring minus 2.
- tx_rs_thresh must be less than or equal to tx_free_thresh.
- tx_free_thresh must be greater than 0.
- tx_free_thresh must be less than the size of the ring minus 3.
- For optimal performance, TX wthresh should be set to 0 when tx_rs_thresh is greater than 1.
One descriptor in the TX ring is used as a sentinel to avoid a hardware race condition, hence the maximum threshold constraints.
以下の制約がtx_free_thresh と tx_rs_thresh とで満たさなければなりません。
  • tx_rs_threshは 0より大きくなければなりません。
  • tx_rs_threshは リングのサイズ-2 よりも 小さくなければなりません。
  • tx_rs_threshは tx_free_thresh以下でなければなりません。
  • tx_free_threshは 0より大きくなければなりません。
  • tx_free_threshは リングのサイズ -3 よりも 小さくなければなりません。
  • tx_rs_threshが 1より大きい場合に最適なパフォーマンスを得るには、TX wthreshは0に設定する必要があります。
TXリング内の1つのデスクリプタは、最大閾値制約にしたがって、ハードウェアの競合状態を回避するために、番人(sentinel)として使用される。
Note When configuring for DCB operation, at port initialization, both the number of transmit queues and the number of receive queues must be set to 128.
注意:DCB操作に構成する場合は、ポートの初期化時に、送信キューの数と受信キューの数の両方を128に設定する必要があります。


8.5. Poll Mode Driver API¶

8.5.1. Generalities¶
By default, all functions exported by a PMD are lock-free functions that are assumed not to be invoked in parallel on different logical cores to work on the same target object.
For instance, a PMD receive function cannot be invoked in parallel on two logical cores to poll the same RX queue of the same port.
Of course, this function can be invoked in parallel by different logical cores on different RX queues.
It is the responsibility of the upper-level application to enforce this rule.
デフォルトでは、PMDによってエクスポートすべての機能は、同じターゲットオブジェクト上で動作するように別の論理コア上で並列に呼び出されていないものとされているロックフリー機能である。
例えば、PMDの受信関数が、同じポートの同じRXキューをポーリングするために、2つの論理コア上で並行して呼び出すことはできません。
もちろん、この機能は、異なるRXキューの異なる論理コアで並列に呼び出すことができる。それは、この規則を施行する上位アプリケーションの責任です。
If needed, parallel accesses by multiple logical cores to shared queues can be explicitly protected by dedicated inline lock-aware functions built on top of their corresponding lock-free functions of the PMD API.
必要に応じて、共有キューに複数の論理コアによる並列アクセスは、明示的にPMDのAPIのそれらの対応するロックフリー機能の上に構築された専用のインラインロック認識機能によって保護することができる。

8.5.2. Generic Packet Representation (一般論)
A packet is represented by an rte_mbuf structure, which is a generic metadata structure containing all necessary housekeeping information.
This includes fields and status bits corresponding to offload hardware features, such as checksum computation of IP headers or VLAN tags.
パケットは、すべての必要なハウスキーピング情報を含む一般的なメタデータ構造であるrte_mbuf構造によって表される。
これは、フィールドや、IPヘッダやVLANタグのチェックサム計算のようなハードウェア機能をオフロードするために、対応するステータスビットを含む。
The rte_mbuf data structure includes specific fields to represent, in a generic way, the offload features provided by network controllers.
For an input packet, most fields of the rte_mbuf structure are filled in by the PMD receive function with the information contained in the receive descriptor.
Conversely, for output packets, most fields of rte_mbuf structures are used by the PMD transmit function to initialize transmit descriptors.

The mbuf structure is fully described in the Mbuf Library chapter.
rte_mbufデータ構造は、一般的な方法で、ネットワークコントローラによって提供されるオフロード機能を表すために特定のフィールドを含む。
入力されたパケットの場合は、rte_mbuf構造のほとんどのフィールドは、受信ディスクリプタに含まれる情報と受信機能がPMDによって記入されている。
逆に、出力パケットのために、rte_mbuf構造体のほとんどのフィールドは、送信ディスクリプタを初期化する機能を送信PMDによって使用されます。

mbuf構造は、mbufライブラリの章で完全に記載されている。

8.5.3. Ethernet Device API
The Ethernet device API exported by the Ethernet PMDs is described in the DPDK API Reference.
イーサネットのPMDによってエクスポートされた、イーサネットデバイスAPIは、DPDK APIリファレンスで説明されています。

8.6. Vector PMD for IXGBE

Vector PMD uses Intel® SIMD instructions to optimize packet I/O.
It improves load/store bandwidth efficiency of L1 data cache by using a wider SSE/AVX register 1 (1).
The wider register gives space to hold multiple packet buffers so as to save instruction number when processing bulk of packets.
ベクターPMDは、パケットI/Oを最適化するために、Intel(R)のSIMD命令を使用しています。
より広いSSE/AVXレジスタ1(1)を用いて、L1データキャッシュのロード/ストアの帯域幅効率を向上させる。
広いレジスタは、パケットの大部分を処理するときに命令数を抑えるために、複数のパケットバッファを保持するためのスペースを提供します。
There is no change to PMD API.
The RX/TX handler are the only two entries for vPMD packet I/O.
They are transparently registered at runtime RX/TX execution if all condition checks pass.
PMD APIへの変更はありません。RX/TXハンドラは vPMDパケットI/Oのための唯一つのエントリです。
すべての条件チェックに合格した場合、それらはRX/TX実行のランタイムに透過的に登録されてます。
1. To date, only an SSE version of IX GBE vPMD is available.
To ensure that vPMD is in the binary code, ensure that the option CONFIG_RTE_IXGBE_INC_VECTOR=y is in the configure file.
現在までに、IX GBE vPMDの唯一のSSEバージョンが利用可能です。
vPMDはバイナリコードであることを保証するために、オプションの"CONFIG_RTE_IXGBE_INC_VECTOR = y"が構成ファイル内にあることを確認してください。
Some constraints apply as pre-conditions for specific optimizations on bulk packet transfers.
The following sections explain RX and TX constraints in the vPMD.
いくつかの制約は、バルクパケット転送に特定の最適化のための前提条件として適用されます。
以下のセクションでは、vPMDでRXおよびTXの制約について説明します。

8.6.1. RX Constraints
8.6.1.1. Prerequisites and Pre-conditions
The following prerequisites apply:
- To enable vPMD to work for RX, bulk allocation for Rx must be allowed.
- The RTE_LIBRTE_IXGBE_RX_ALLOW_BULK_ALLOC=y configuration MACRO must be set before compiling the code.
次の前提条件が適用されます:
  • RXのためにvPMDを有効にするには、Rxのためのバルク割り当てが許可されなければならない。
  • RTE_LIBRTE_IXGBE_RX_ALLOW_BULK_ALLOC = Yの構成マクロは、コードをコンパイルする前に設定する必要があります。
Ensure that the following pre-conditions are satisfied:
- rxq->rx_free_thresh >= RTE_PMD_IXGBE_RX_MAX_BURST
- rxq->rx_free_thresh < rxq->nb_rx_desc
- (rxq->nb_rx_desc % rxq->rx_free_thresh) == 0
- rxq->nb_rx_desc < (IXGBE_MAX_RING_DESC - RTE_PMD_IXGBE_RX_MAX_BURST)
These conditions are checked in the code.

Scattered packets are not supported in this mode.
If an incoming packet is greater than the maximum acceptable length of one “mbuf” data size (by default, the size is 2 KB), vPMD for RX would be disabled.

By default, IXGBE_MAX_RING_DESC is set to 4096 and RTE_PMD_IXGBE_RX_MAX_BURST is set to 32.
以下の前提条件が満たされていることを確認します:
  • rxq-> rx_free_thresh> = RTE_PMD_IXGBE_RX_MAX_BURST
  • rxq-> rx_free_thresh nb_rx_desc
  • (rxq-> nb_rx_desc%rxq-> rx_free_thresh)== 0
  • rxq-> nb_rx_desc <(IXGBE_MAX_RING_DESC - RTE_PMD_IXGBE_RX_MAX_BURST)
これらの条件は、コード内でチェックされます。

スカターパケットは、このモードではサポートされません。
入力パケットは、一つの"buf"データサイズの最大許容長さよりも大きい場合(デフォルトでは、サイズが2 KBです)、RX用vPMDを無効にすることでしょう。

デフォルトでは、IXGBE_MAX_RING_DESCは4096に設定され、RTE_PMD_IXGBE_RX_MAX_BURSTは32に設定されている。


8.6.1.2. Feature not Supported by RX Vector PMD
Some features are not supported when trying to increase the throughput in vPMD.
They are:
- IEEE1588
- FDIR
- Header split
- RX checksum off load
vPMDでスループットを向上させるためにしようとしたときに一部の機能がサポートされていません。それらはです:
- IEEE1588
- FDIR
- Header split
- RX checksum off load

Other features are supported using optional MACRO configuration. They include:
- HW VLAN strip
- HW extend dual VLAN
- Enabled by RX_OLFLAGS (RTE_IXGBE_RX_OLFLAGS_DISABLE=n)
その他の機能は、オプションのマクロ設定を使用してサポートされます。 それらは次のとおりです。
- HW VLAN strip
- HW extend dual VLAN
- Enabled by RX_OLFLAGS (RTE_IXGBE_RX_OLFLAGS_DISABLE=n)

To guarantee the constraint, configuration flags in dev_conf.rxmode will be checked:
- hw_vlan_strip
- hw_vlan_extend
- hw_ip_checksum
- header_split
- dev_conf
fdir_conf->mode will also be checked.
制約を保証するために、dev_conf.rxmode内の設定フラグがチェックされます。
- hw_vlan_strip
- hw_vlan_extend
- hw_ip_checksum
- header_split
- dev_conf



8.6.1.3. RX Burst Size
As vPMD is focused on high throughput, it assumes that the RX burst size is equal to or greater than 32 per burst.
It returns zero if using nb_pkt < 32 as the expected packet number in the receive handler.
vPMDを高スループットに焦点を当てているように、RXバーストサイズに等しいかバースト当たり32以上であると仮定している。
受信ハンドラで予想パケット番号としてnb_pkt <32を使用している場合には 0を返します。
8.6.2. TX Constraint (送信制約)
8.6.2.1. Prerequisite (前提条件)
The only prerequisite is related to tx_rs_thresh.
The tx_rs_thresh value must be greater than or equal to RTE_PMD_IXGBE_TX_MAX_BURST, but less or equal to RTE_IXGBE_TX_MAX_FREE_BUF_SZ.
Consequently, by default the tx_rs_thresh value is in the range 32 to 64.
唯一の前提条件は、tx_rs_threshに関連している。
tx_rs_thresh値は、以上RTE_PMD_IXGBE_TX_MAX_BURSTに等しいが、RTE_IXGBE_TX_MAX_FREE_BUF_SZに以下でなければなりません。
このため、デフォルトではtx_rs_thresh値が範囲内に32から64である。

8.6.2.2. Feature not Supported by RX Vector PMD
TX vPMD only works when txq_flags is set to IXGBE_SIMPLE_FLAGS.
This means that it does not support TX multi-segment, VLAN offload and TX csum offload.
The following MACROs are used for these three features:
- ETH_TXQ_FLAGS_NOMULTSEGS
- ETH_TXQ_FLAGS_NOVLANOFFL
- ETH_TXQ_FLAGS_NOXSUMSCTP
- ETH_TXQ_FLAGS_NOXSUMUDP
- ETH_TXQ_FLAGS_NOXSUMTCP
TX vPMDは、txq_flagsがIXGBE_SIMPLE_FLAGSに設定されている場合にのみ機能します。
これは、TXマルチセグメント、VLANオフロードとTX CS​​UMオフロードをサポートしていないことを意味します。
次のマクロは、これらの三つの特徴のために使用されます。
  • ETH_TXQ_FLAGS_NOMULTSEGS
  • ETH_TXQ_FLAGS_NOVLANOFFL
  • ETH_TXQ_FLAGS_NOXSUMSCTP
  • ETH_TXQ_FLAGS_NOXSUMUDP
  • ETH_TXQ_FLAGS_NOXSUMTCP

8.6.3. Sample Application Notes





















22. IP Fragmentation and Reassembly Library

The IP Fragmentation and Reassembly Library implements IPv4 and IPv6 packet fragmentation and reassembly.
IPフラグメント・リアセンブルライブラリは、IPv4とIPv6のフラグメンテーションとリアセンブリを実装しています。

22.1. Packet fragmentation

Packet fragmentation routines devide input packet into number of fragments.
Both rte_ipv4_fragment_packet() and rte_ipv6_fragment_packet() functions assume that input mbuf data points to the start of the IP header of the packet
(i.e. L2 header is already stripped out).
To avoid copying for the actual packet's data zero-copy technique is used (rte_pktmbuf_attach).
For each fragment two new mbufs are created:
  • Direct mbuf – mbuf that will contain L3 header of the new fragment.
  • Indirect mbuf – mbuf that is attached to the mbuf with the original packet. It's data field points to the start of the original packets data plus fragment offset.
パケットフラグメンテーションルーチンは、フラグメントの数に入力パケットを分割する。
rte_ipv4_fragment_packet()関数もrte_ipv6_fragment_packet()関数も、入力のmbufデータが、パケットのIPヘッダ先頭を指していることを、仮定しています。
(すなわち、L2ヘッダ=ethernet headerは既にストリップされていることを前提としています)
実際のパケットのデータのコピーを回避するために、ゼロコピー技術が使用されている(rte_pktmbuf_attach()関数)。
各フラグメントのために、2つの新しいmbufが作成される。
  • ダイレクトmbuf: 新しいフラグメントのL3ヘッダを構成するmbuf
  • インダイレクトmbuf: オリジナルパケットにattachされたmbuf. このデータフィールドはオリジナルパケットデータの先頭にフラグメントオフセットを加算した位置を指している。
Then L3 header is copied from the original mbuf into the 'direct' mbuf and updated to reflect new fragmented status.
Note that for IPv4, header checksum is not recalculated and is set to zero.

Finally 'direct' and 'indirect' mbufs for each fragnemt are linked together via mbuf's next filed to compose a packet for the new fragment.

The caller has an ability to explicitly specify which mempools should be used to allocate 'direct' and 'indirect' mbufs from.
L3ヘッダはオリジナルmbufから、ダイレクトmbufにコピーされ、新しいフラグメントステータスに更新される。
注意:IPv4については、ヘッダチェックサムは再計算されず、ゼロにセットされます。
呼び出し側には、明示的にどのmempoolsからダイレクトとインダイレクトのmbufを割り当てるのに使用するかを指定する機能があります。
Note that configuration macro RTE_MBUF_SCATTER_GATHER has to be enabled to make fragmentation library build and work correctly.
For more information about direct and indirect mbufs, refer to the DPDK Programmers guide "7.7 Direct and Indirect Buffers".
注意:コンフィギュレーションマクロ、"RTE_MBUF_SCATTER_GATHER"は、フラグメンテーションライブラリをビルド、
正しく機能させるために有効にする必要があります。

22.2. Packet reassembly

22.2.1. IP Fragment Table
Fragment table maintains information about already received fragments of the packet.

Each IP packet is uniquely identified by triple , , .
フラグメントテーブルは、分割されたあるパケットの既に受信した情報を維持する。
各IPパケットは、SRC-IP,DST-IP,IDの3つによって一意に識別されます。
Note that all update/lookup operations on Fragmen Table are not thread safe.
So if different execution contexts (threads/processes) will access the same table simultaneously, then some exernal syncing mechanism have to be provided.

Each table entry can hold information about packets consisting of up to RTE_LIBRTE_IP_FRAG_MAX (by default: 4) fragments.
フラグメントテーブル上の全ての更新/検索操作は、スレッドセーフではないことに注意してください。
異なる実行コンテキスト(スレッド/プロセス)で、同時に同じテーブルをアクセスする場合は、外部の同期メカニズムを提供する必要があります。
各テーブルエントリは、上限RTE_LIBRTE_IP_FRAG_MAX(標準で4)分割で構成されるパケットの情報を保持することができます。
Code example, that demonstrates creation of a new Fragment table:
新しいフラグメントテーブルを作成するデモのコード例::

>frag_cycles = (rte_get_tsc_hz() + MS_PER_S - 1) / MS_PER_S * max_flow_ttl;
>bucket_num = max_flow_num + max_flow_num / 4;
>frag_tbl = rte_ip_frag_table_create(max_flow_num, bucket_entries, max_flow_num, frag_cycles, socket_id);
Internally Fragment table is a simple hash table.
The basic idea is to use two hash functions and * associativity.
This provides 2 * possible locations in the hash table for each key.
When the collision occurs and all 2 * are occupied, instead of reinserting existing keys into alternative locations, ip_frag_tbl_add() just returns a faiure.
フラグメントテーブルの内部は、単純なハッシュテーブルです。
基本のアイデアは、2つのハッシュ関数と、 *の結合性です。
これは、それぞれのキーのハッシュテーブル内の"2 * "可能な位置を提供する。
衝突が発生し、すべてのbucket_entriesが占有されている場合には、代わりに別の場所に既存のキーを再挿入するため、ip_frag_tbl_add()は単にfaiureを返します。
Also, entries that resides in the table longer then are considered as invalid, and could be removed/replaced by the new ones.

Note that reassembly demands a lot of mbuf's to be allocated.
At any given time up to (2 * bucket_entries * RTE_LIBRTE_IP_FRAG_MAX * ) can be stored inside Fragment Table waiting for remaining fragments.
また、より長い、テーブル内に存在するエントリは、無効とみなされ、新しいものに置き換え/除去することができる。
リアセンブリは、mbufの多くが割り当てられるように要求することに注意してください。

22.2.

2015/02/09(月)データファイルをバイナリに埋め込みたい

gcc
表題のとおり。
バイナリファイルをデータ配列として取り込むことが可能です。
binary utilityのobjcopyコマンドのヘルプを見ると、入出力フォーマットにbinaryやhexといった指定ができることが判ります。
実際にファイルを吐かせてfileコマンドやreadelfコマンドを使って、試行錯誤した後でビルドできる状態にできたので、
メモとして記しておきます。しっかりとマニュアルを読めば試行錯誤は不要だとは思います...(無力

結合したいファイルを作る

$ echo -ne "1234567890\0" > foo.txt
$ objcopy -Ibinary -Bi386 -Oelf64-x86-64 foo.txt foo.o
  • Iは入力フォーマット。テキストファイルを作っていますが、バイナリファイルでも同様です。
  • Bはアーキテクチャですが、入力ファイルからアーキテクチャが推定できない場合のみ有効だそうです。
  • Oは出力フォーマット。ビルドする際に結合したいオブジェクトファイルに合わせて選択します。
あとで記載するreadelfのヘッダ情報がCファイルから生成したobjectと一致するようにすると良いです。

サンプルコード

結果からの後付になりますが、変換した後のファイルをシンボルダンプするとソレらしいものがあります。
実際にオブジェクトファイルの内容と易化の出力とを照らしあわせていくとなんとなくイメージがわきます。
変数に型は与えていないので、適当な型の変数としてextern宣言しておきます。
シンボルのアドレス情報がデータ本体のアドレスになるので、&演算子でアドレスを得ます。
start/endはそれで納得しますが、sizeも&で取得する必要があります。
値を保持する変数を用意してくれているわけではなく、値はシンボルのアドレス情報として格納されているようです。
$ cat sample.c
#include <stdio.h>

main()
{
extern char _binary_foo_txt_start;
extern char _binary_foo_txt_end;
extern char _binary_foo_txt_size;

printf("%16x\n%16x\n%16x\n%s\n",
		&_binary_foo_txt_start,
		&_binary_foo_txt_end,
		&_binary_foo_txt_size,
		&_binary_foo_txt_start);
}

$ gcc -c sample.c -o sample.o
$ gcc sample.o foo.o -o sample
$ ./sample 
          601040
          60104b
               b
1234567890
$

検証

生成していたオブジェクトファイルのヘッダ情報を参照しておきましょう..
リンクに失敗する場合には 整合性がとれているか確認していきます.
シンボルが見つからない時も これで探すと良いでしょう.
$ readelf -a sample | grep _binary_
    51: 000000000000000b     0 NOTYPE  GLOBAL DEFAULT  ABS _binary_foo_txt_size
    54: 000000000060104b     0 NOTYPE  GLOBAL DEFAULT   24 _binary_foo_txt_end
    55: 0000000000601040     0 NOTYPE  GLOBAL DEFAULT   24 _binary_foo_txt_start

$ readelf -h sample.o
ELF Header:
  Magic:   7f 45 4c 46 02 01 01 00 00 00 00 00 00 00 00 00 
  Class:                             ELF64
  Data:                              2's complement, little endian
  Version:                           1 (current)
  OS/ABI:                            UNIX - System V
  ABI Version:                       0
  Type:                              REL (Relocatable file)
  Machine:                           Advanced Micro Devices X86-64
  Version:                           0x1
  Entry point address:               0x0
  Start of program headers:          0 (bytes into file)
  Start of section headers:          328 (bytes into file)
  Flags:                             0x0
  Size of this header:               64 (bytes)
  Size of program headers:           0 (bytes)
  Number of program headers:         0
  Size of section headers:           64 (bytes)
  Number of section headers:         13
  Section header string table index: 10

$ readelf -h foo.o
ELF Header:
  Magic:   7f 45 4c 46 02 01 01 00 00 00 00 00 00 00 00 00 
  Class:                             ELF64
  Data:                              2's complement, little endian
  Version:                           1 (current)
  OS/ABI:                            UNIX - System V
  ABI Version:                       0
  Type:                              REL (Relocatable file)
  Machine:                           Advanced Micro Devices X86-64
  Version:                           0x1
  Entry point address:               0x0
  Start of program headers:          0 (bytes into file)
  Start of section headers:          112 (bytes into file)
  Flags:                             0x0
  Size of this header:               64 (bytes)
  Size of program headers:           0 (bytes)
  Number of program headers:         0
  Size of section headers:           64 (bytes)
  Number of section headers:         5
  Section header string table index: 2


対応フォーマット

objcopyのビルド方法やバイナリパッケージの場合はディストリに依存するかもしれません。
"--info"オプションでリストアップすることができました。
これに気づくのが後になってロスが大きかったです。
Display a list showing all architectures and object formats available.
$ objcopy --info
BFD header file version (GNU Binutils for Ubuntu) 2.24
elf64-x86-64
 (header little endian, data little endian)
  i386
elf32-i386
 (header little endian, data little endian)
  i386
elf32-x86-64
 (header little endian, data little endian)
  i386
a.out-i386-linux
 (header little endian, data little endian)
  i386
pei-i386
 (header little endian, data little endian)
  i386
pei-x86-64
 (header little endian, data little endian)
  i386
elf64-l1om
 (header little endian, data little endian)
  l1om
elf64-k1om
 (header little endian, data little endian)
  k1om
elf64-little
 (header little endian, data little endian)
  i386
  l1om
  k1om
  plugin
elf64-big
 (header big endian, data big endian)
  i386
  l1om
  k1om
  plugin
elf32-little
 (header little endian, data little endian)
  i386
  l1om
  k1om
  plugin
elf32-big
 (header big endian, data big endian)
  i386
  l1om
  k1om
  plugin
pe-x86-64
 (header little endian, data little endian)
  i386
pe-i386
 (header little endian, data little endian)
  i386
plugin
 (header little endian, data little endian)
srec
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin
symbolsrec
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin
verilog
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin
tekhex
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin
binary
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin
ihex
 (header endianness unknown, data endianness unknown)
  i386
  l1om
  k1om
  plugin

               elf64-x86-64 elf32-i386 elf32-x86-64 a.out-i386-linux pei-i386 
          i386 elf64-x86-64 elf32-i386 elf32-x86-64 a.out-i386-linux pei-i386 
          l1om ------------ ---------- ------------ ---------------- -------- 
          k1om ------------ ---------- ------------ ---------------- -------- 
        plugin ------------ ---------- ------------ ---------------- -------- 

               pei-x86-64 elf64-l1om elf64-k1om elf64-little elf64-big 
          i386 pei-x86-64 ---------- ---------- elf64-little elf64-big 
          l1om ---------- elf64-l1om ---------- elf64-little elf64-big 
          k1om ---------- ---------- elf64-k1om elf64-little elf64-big 
        plugin ---------- ---------- ---------- elf64-little elf64-big 

               elf32-little elf32-big pe-x86-64 pe-i386 plugin srec symbolsrec 
          i386 elf32-little elf32-big pe-x86-64 pe-i386 ------ srec symbolsrec 
          l1om elf32-little elf32-big --------- ------- ------ srec symbolsrec 
          k1om elf32-little elf32-big --------- ------- ------ srec symbolsrec 
        plugin elf32-little elf32-big --------- ------- ------ srec symbolsrec 

               verilog tekhex binary ihex 
          i386 verilog tekhex binary ihex 
          l1om verilog tekhex binary ihex 
          k1om verilog tekhex binary ihex 
        plugin verilog tekhex binary ihex 

LinuxのARMv7でのMMU faultを追いかける

2014/12/21 linux::ARM

Linux(ARMv7系)のメモリ管理を追ってみる

Linux Advent Calendar 2014の21日目の記事です。

kernel sourceの追いかけかた

前回のcopy_to_user()のfault処理実装を見たときに、__do_kernel_fault()あたりから先はちらっと見たので、そもそもメモリ管理全般はどうなっているのだろう、と気になって仕方が無くなる。
とりあえず下から覗いていくのが低レイヤー民(そんなものはない)のたしなみだろう、ということで、最近メジャーなARMv7アーキテクチャをターゲットとして調査する。

kernelのメモリ管理の基本と、ARMアーキテクチャでの実装を確認し、faultハンドラを追いかけていこう。

追いかけ方は人それぞれかもしれないけれど、Makefileにtagsがターゲットとして存在しているので、マクロやプリプロセッサが多いので、適当なターゲットでkernel sourceをbuildしておき、tagsも作っておくと楽ができる。マクロで関数を生成しているところもあるので、すべてタグジャンプできるとは限らないので注意も必要だ...
迷ったらバイナリを逆アセンブルするとかすればヒントにもなろう。
それでもだめならgrepするなり舐めるなりするといい(?)。

メモリ管理の基本

gorman氏のUnderstanding the Linux Virtual Memory Managerを見ればだいたい判るような気がしてきた。こんなトコロ読むよりも有意だと思う(´・ω・)

ココを参照されている諸兄は、すでにカーネル空間とユーザ空間とかの存在は把握されていると思います。
で、Virtual AddressをPhysical Addressに変換する機能はARMv7Aの場合はMMUが物理メモリを参照して勝手に変換しちゃう。
ということまで理解しているとしましょう。

Linuxの場合、基本的に4kByte/pageを使うことにしてあるので、第二レベル変換テーブルはsmall sectionが選択されています。
必然的に、第一レベル変換はSection Baseの変換テーブルを用いることになります。
Section baseの場合は、1MiBごとに第二レベル変換テーブルの先頭アドレスが置かれます。

順序が逆になりますが、Linuxのメモリ管理テーブルについて文字だけでまとめます。
論理アドレスを上位ビットからテーブル引きをして、PGD(Page Global Directory ),
PUD(Page Upper Directory), PMD(Page Middle Directory), PTE(Page Table Entries )の順に
4段階でページテーブルをインデックスします。
先に示した資料ではPUDが無いので、どこかで追加されたのでしょう。

linux/mm/配下は、この概念をベースにして実装されており、アーキテクチャに依存する
アドレス空間の差異を吸収できる仕組みになっています。
Linuxの論理-物理変換管理テーブルが定義されており、汎用性を持った記述になっています。
アーキテクチャ依存部でうまくコードを共通化しているのでそのあたりも見ていきましょう。
1. VAを元に PGDから PUDの先頭アドレスを得る。
2. PUDとVAから PMDの先頭アドレスを得る(arm32ではPUDは未使用,PGD=>PMDとなっている)
3. PMDとVAから PTEの先頭アドレスを得る(PGDがPMDをインデックスしている、と見る)。
4. PTEとVAから 該当するページの物理アドレスや属性や状態を得る。

arm32/LPAEなしでは、pgdレベル1変換テーブル、PMDがレベル2変換テーブル、
pteがレベル2変換テーブルの該当アドレスにあたるSmall page要素になります。
PUD,PMDの取得は、pud_offset()とpmd_offset()で実装されますが、pgd,pudをそのまま返しています。
関連するシンボルは以下のとおりで、ビット幅をセットします。
symbol value
PAGE_SHIFT12(4k)
PMD_SHIFT21
SECTION_SHIFT20
SUPERSECTION_SHIFT20
下位12bitはページ単位になるので、変換テーブルによって指される最小単位となります。
Cortex-Aシリーズになると、不要な気がしますが、過去の経緯でPGDは2GiB空間をインデックスするように設計されています。
accessed/dirty bitがpteに存在しないので それをエミュレートするため, とありますが,
ここは消化しきれていません. arm依存部でも ARMv4,v5,v7,v8と差異はそこそこありそうです。


ARMv7Aの場合

ここで、LAPEなしと仮定して、以下を参照する(LAPEありなら03level)。

FILE:arch/arm/include/asm/pgtable-2level.h
/*
 * Hardware-wise, we have a two level page table structure, where the first
 * level has 4096 entries, and the second level has 256 entries.  Each entry
 * is one 32-bit word.  Most of the bits in the second level entry are used
 * by hardware, and there aren't any "accessed" and "dirty" bits.
 *
 * Linux on the other hand has a three level page table structure, which can
 * be wrapped to fit a two level page table structure easily - using the PGD
 * and PTE only.  However, Linux also expects one "PTE" table per page, and
 * at least a "dirty" bit.
 *
 * Therefore, we tweak the implementation slightly - we tell Linux that we
 * have 2048 entries in the first level, each of which is 8 bytes (iow, two
 * hardware pointers to the second level.)  The second level contains two
 * hardware PTE tables arranged contiguously, preceded by Linux versions
 * which contain the state information Linux needs.  We, therefore, end up
 * with 512 entries in the "PTE" level.
 *
 * This leads to the page tables having the following layout:
 *
 *    pgd             pte
 * |        |
 * +--------+
 * |        |       +------------+ +0
 * +- - - - +       | Linux pt 0 |
 * |        |       +------------+ +1024
 * +--------+ +0    | Linux pt 1 |
 * |        |-----> +------------+ +2048
 * +- - - - + +4    |  h/w pt 0  |
 * |        |-----> +------------+ +3072
 * +--------+ +8    |  h/w pt 1  |
 * |        |       +------------+ +4096
 *
 * See L_PTE_xxx below for definitions of bits in the "Linux pt", and
 * PTE_xxx for definitions of bits appearing in the "h/w pt".
 *
 * PMD_xxx definitions refer to bits in the first level page table.
 *
 * The "dirty" bit is emulated by only granting hardware write permission
 * iff the page is marked "writable" and "dirty" in the Linux PTE.  This
 * means that a write to a clean page will cause a permission fault, and
 * the Linux MM layer will mark the page dirty via handle_pte_fault().
 * For the hardware to notice the permission change, the TLB entry must
 * be flushed, and ptep_set_access_flags() does that for us.
 *
 * The "accessed" or "young" bit is emulated by a similar method; we only
 * allow accesses to the page if the "young" bit is set.  Accesses to the
 * page will cause a fault, and handle_pte_fault() will set the young bit
 * for us as long as the page is marked present in the corresponding Linux
 * PTE entry.  Again, ptep_set_access_flags() will ensure that the TLB is
 * up to date.
 *
 * However, when the "young" bit is cleared, we deny access to the page
 * by clearing the hardware PTE.  Currently Linux does not flush the TLB
 * for us in this case, which means the TLB will retain the transation
 * until either the TLB entry is evicted under pressure, or a context
 * switch which changes the user space mapping occurs.
 */
#define PTRS_PER_PTE            512
#define PTRS_PER_PMD            1
#define PTRS_PER_PGD            2048

#define PTE_HWTABLE_PTRS        (PTRS_PER_PTE)
#define PTE_HWTABLE_OFF         (PTE_HWTABLE_PTRS * sizeof(pte_t))
#define PTE_HWTABLE_SIZE        (PTRS_PER_PTE * sizeof(u32))

/*
 * PMD_SHIFT determines the size of the area a second-level page table can map
 * PGDIR_SHIFT determines what a third-level page table entry can map
 */
#define PMD_SHIFT               21
#define PGDIR_SHIFT             21

#define PMD_SIZE                (1UL << PMD_SHIFT)
#define PMD_MASK                (~(PMD_SIZE-1))
#define PGDIR_SIZE              (1UL << PGDIR_SHIFT)
#define PGDIR_MASK              (~(PGDIR_SIZE-1))

FILE: arch/arm/include/asm/pgtable.h
/* to find an entry in a page-table-directory */
#define pgd_index(addr)		((addr) >> PGDIR_SHIFT)  /// 21bit@LAPEなし

#define pgd_offset(mm, addr)	((mm)->pgd + pgd_index(addr))

/* to find an entry in a kernel page-table-directory */
#define pgd_offset_k(addr)	pgd_offset(&init_mm, addr)


static inline pte_t *pmd_page_vaddr(pmd_t pmd)
{
	return __va(pmd_val(pmd) & PHYS_MASK & (s32)PAGE_MASK);
}

#ifndef CONFIG_HIGHPTE
#define __pte_map(pmd)		pmd_page_vaddr(*(pmd))
#define __pte_unmap(pte)	do { } while (0)
#else
#endif
#define pte_index(addr)		(((addr) >> PAGE_SHIFT) & (PTRS_PER_PTE - 1))
#define pte_offset_kernel(pmd,addr)	(pmd_page_vaddr(*(pmd)) + pte_index(addr))
#define pte_offset_map(pmd,addr)	(__pte_map(pmd) + pte_index(addr))
#define pte_unmap(pte)			__pte_unmap(pte)

#define pte_pfn(pte)		((pte_val(pte) & PHYS_MASK) >> PAGE_SHIFT)
#define pfn_pte(pfn,prot)	__pte(__pfn_to_phys(pfn) | pgprot_val(prot))

#define pte_page(pte)		pfn_to_page(pte_pfn(pte))
#define mk_pte(page,prot)	pfn_pte(page_to_pfn(page), prot)

#define pte_clear(mm,addr,ptep)	set_pte_ext(ptep, __pte(0), 0)

#define pte_none(pte)		(!pte_val(pte))
#define pte_present(pte)	(pte_val(pte) & L_PTE_PRESENT)
#define pte_write(pte)		(!(pte_val(pte) & L_PTE_RDONLY))
#define pte_dirty(pte)		(pte_val(pte) & L_PTE_DIRTY)
#define pte_young(pte)		(pte_val(pte) & L_PTE_YOUNG)
#define pte_exec(pte)		(!(pte_val(pte) & L_PTE_XN))
#define pte_special(pte)	(0)
以上がソースを追うのに必要な情報(だったはず)。

具体的に変換テーブルはどこに..?

見ていて有用なのがデバッグ用の関数やコメント。
Oopsを吐くときに使用されている show_pte()から依存部の実装を追える。

FILE: arch/arm/mm/fault.c
/*
 * This is useful to dump out the page tables associated with
 * 'addr' in mm 'mm'.
 */
void show_pte(struct mm_struct *mm, unsigned long addr)
{
	pgd_t *pgd;

	if (!mm)
		mm = &init_mm;

	printk(KERN_ALERT "pgd = %p\n", mm->pgd);
	pgd = pgd_offset(mm, addr);
	printk(KERN_ALERT "[%08lx] *pgd=%08llx",
			addr, (long long)pgd_val(*pgd));
...
第一レベル変換テーブルが mm_structのメンバpgdであることがわかる。
引数mmがNULLの場合、すなわちタスクのmmが無い状態では、init_mmが基底になっていそうである*1

このinit_mmを探してみると以下に見つかる。

FILE:mm/init-mm.c
struct mm_struct init_mm = {
        .mm_rb          = RB_ROOT,
        .pgd            = swapper_pg_dir,
        .mm_users       = ATOMIC_INIT(2),
        .mm_count       = ATOMIC_INIT(1),
        .mmap_sem       = __RWSEM_INITIALIZER(init_mm.mmap_sem),
        .page_table_lock =  __SPIN_LOCK_UNLOCKED(init_mm.page_table_lock),
        .mmlist         = LIST_HEAD_INIT(init_mm.mmlist),
        INIT_MM_CONTEXT(init_mm)
};
これ(swapper_pg_dir)の実態はどこにあるのか。
FILE:arch/arm/kernel/head.S
/*
 * swapper_pg_dir is the virtual address of the initial page table.
 * We place the page tables 16K below KERNEL_RAM_VADDR.  Therefore, we must
 * make sure that KERNEL_RAM_VADDR is correctly set.  Currently, we expect
 * the least significant 16 bits to be 0x8000, but we could probably
 * relax this restriction to KERNEL_RAM_VADDR >= PAGE_OFFSET + 0x4000.
 */

#define KERNEL_RAM_VADDR        (PAGE_OFFSET + TEXT_OFFSET)
#if (KERNEL_RAM_VADDR & 0xffff) != 0x8000
#error KERNEL_RAM_VADDR must start at 0xXXXX8000
#endif

#ifdef CONFIG_ARM_LPAE
        /* LPAE requires an additional page for the PGD */
#define PG_DIR_SIZE     0x5000
#define PMD_ORDER       3
#else
#define PG_DIR_SIZE     0x4000
#define PMD_ORDER       2
#endif

        .globl  swapper_pg_dir
        .equ    swapper_pg_dir, KERNEL_RAM_VADDR - PG_DIR_SIZE

        .macro  pgtbl, rd, phys
        add     \rd, \phys, #TEXT_OFFSET - PG_DIR_SIZE
        .endm
MMUのテーブルウォークに使われる、レベル1変換テーブルをswapper_pg_dirに格納している。
しかし、2MiB/1stLvとして運用している(前引用のコメントどおり)。
PGD1MiB単位のブロック.. 1MiB x 4Ki個(12bit)のテーブルで 4GiBフルアドレッシング
PTE最終的に4KiBをインデックスして 256個(8bit)テーブルがあれば 1MiBになる。


pgd_offset_k()でインデックスを求めるが、これは2MiB単位でアドレスを求める。
pgdが2MiBになる理由が未だわからんなぁ。
テーブルは作ってしまうのに、どこに属性を置くのか...

タスクがある場合
SMPの場合は cpu固有情報は cpu_なんとか()という関数名で実装されているようである。
第一レベル変換テーブル、すなわちpgd配列の先頭ポインタを取得する関数を見てみると、
以下の実相となっていた。
FILE: arch/arm/include/asm/proc-fns.h
#ifdef CONFIG_ARM_LPAE
#else
#define cpu_get_pgd()   \
        ({                                              \
                unsigned long pg;                       \
                __asm__("mrc    p15, 0, %0, c2, c0, 0"  \
                         : "=r" (pg) : : "cc");         \
                pg &= ~0x3fff;                          \
                (pgd_t *)phys_to_virt(pg);              \
        })
#endif
意訳すると、"Translation Table Base Register 0"を取得する
(=current taskのpgd先頭アドレス(物理)を取得して、論理に変換する)と言えよう。


*1 : タスク生成時のメモリアロケーションを調べておく必要がありますなぁ

で?

MMU faultのハンドラは以下で、割り込みベクタまわりの処理から呼ばれてくる。
FILE: arch/mm/fault.c
static int __kprobes
do_page_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
{
...
	tsk = current;
	mm  = tsk->mm;
...
	/*
	 * If we're in an interrupt or have no user
	 * context, we must not take the fault..
	 */
	if (in_atomic() || !mm)
		goto no_context;
...
	fault = __do_page_fault(mm, addr, fsr, flags, tsk);
....
	if (likely(!(fault & (VM_FAULT_ERROR | VM_FAULT_BADMAP | VM_FAULT_BADACCESS))))
		return 0;
...
	__do_user_fault(tsk, addr, fsr, sig, code, regs);
	return 0;

no_context:
	__do_kernel_fault(mm, addr, fsr, regs);
	return 0;

ユーザ空間

static int __kprobes
__do_page_fault(struct mm_struct *mm, unsigned long addr, unsigned int fsr,
		unsigned int flags, struct task_struct *tsk)
{
	struct vm_area_struct *vma;
	int fault;

	vma = find_vma(mm, addr);
	fault = VM_FAULT_BADMAP;
	if (unlikely(!vma))
		goto out;
	if (unlikely(vma->vm_start > addr))
		goto check_stack;

	/*
	 * Ok, we have a good vm_area for this
	 * memory access, so we can handle it.
	 */
good_area:
	if (access_error(fsr, vma)) {
		fault = VM_FAULT_BADACCESS;
		goto out;
	}

	return handle_mm_fault(mm, vma, addr & PAGE_MASK, flags);

check_stack:
	/* Don't allow expansion below FIRST_USER_ADDRESS */
	if (vma->vm_flags & VM_GROWSDOWN &&
	    addr >= FIRST_USER_ADDRESS && !expand_stack(vma, addr))
		goto good_area;
out:
	return fault;
}
ここはユーザ空間でのfaultで、タスクに割り当てられた空間かどうかをチェックしています。
find_vma()がそれで、mm_struct構造体メンバのmmapをスキャンします(curent->vmacache[]を先に見る)。
⇒タスクごとのメモリ管理、割り当てと解放、その他はこの変数を触っている個所を見ればよいと分かりました。

handle_mm_fault()はアーキテクチャに依存しないソースで実装されていますので、まずはここまで。
エラー発生時
SIGSEGVとかですね.. 引数sigに エラー判定結果を入れて呼ばれます。
/*
 * Something tried to access memory that isn't in our memory map..
 * User mode accesses just cause a SIGSEGV
 */
static void
__do_user_fault(struct task_struct *tsk, unsigned long addr,
		unsigned int fsr, unsigned int sig, int code,
		struct pt_regs *regs)

kernel空間

コンテキストが無かったり、ディスパッチ禁止(in_atomic()==true)の場合などに呼ばれます。ね。
/*
 * Oops.  The kernel tried to access some page that wasn't present.
 */
static void
__do_kernel_fault(struct mm_struct *mm, unsigned long addr, unsigned int fsr,
		  struct pt_regs *regs)
{
	/*
	 * Are we prepared to handle this kernel fault?
	 */
	if (fixup_exception(regs))
		return;

	/*
	 * No handler, we'll have to terminate things with extreme prejudice.
	 */
	bust_spinlocks(1);
	printk(KERN_ALERT
		"Unable to handle kernel %s at virtual address %08lx\n",
		(addr < PAGE_SIZE) ? "NULL pointer dereference" :
		"paging request", addr);

	show_pte(mm, addr);
	die("Oops", regs, fsr);
	bust_spinlocks(0);
	do_exit(SIGKILL);
}
カーネル空間でfaultが起きることは不具合以外にはレアケースだと考えられます。
基本的にカーネル自体はストレートマップされるので。ARMのようにメモリマップドIOで
ioremap()を忘れていたとか、範囲を間違ったとかならありえそうです。

あと、発生が予期できる個所に関しては、fixup_exception()で判定されます。
これは前回の記事へ。。。


ARMの資料をみる

Programmer's manualはぜひとも見ていただきたい。
Linux OSを意識した説明がしっかりと記述されていて、スタートアップコードや本記事の対応・実装説明についても記載があります.
■Cortex-A Series Programmer's manual
8.9.2 Emulation of dirty and accessed bits
Linux makes use of a bit associated with each page which marks whether the page is dirty (the page has been modified by the application and may therefore need to be written from memory to disk when the page is no longer needed).
This is not directly supported in hardware by ARM processors, and must therefore be implemented by kernel software.
When a page is first created, it is marked as read-only.
The first write to such a page (a clean page) will cause an MMU permission fault and the kernel data abort handler will be called.
The Linux memory management code will mark the page as dirty, if the page should indeed be writable, using the function handle_pte_fault() .
The page table entry is modified to make it allow both reads and writes and the TLB entry invalidated from the cache to ensure the MMU now uses the newly modified entry.
The abort handler then returns to re-try the faulting access in the application.
Linuxは、ページがダーティであるか否かをマークし、各ページに対応するビットを利用する。
ダーティである、とは、ページがアプリケーションによって変更されるか、そのページが必要ではなくなったときにメモリからディスクへ書き出す必要があることを示す。
ARMプロセッサでは、直接的にハードウェアでサポートされていない。したがってカーネルソフトウェアで実装される必要がある。
ページが最初に作られたとき、read-onlyとしてマークされる。
そのページ(クリーンなページ)に対して、最初の書き込みは、MMUのpermission faultの要因となり、カーネルのデータアボートハンドラが呼ばれる。
Linuxのメモリ管理コードは、そのページをdirtyと設定します。そのページが書き込み可能であるべきならば、handle_pte_fault()を使う。
ページテーブルエントリーは、読み書き可能に変更される。そして、TLBエントリは、MMUが今新しく変更されたエントリを使うため、キャッシュから無効化される。
その後、アボートハンドラは、アプリケーション内でfaultアクセスした命令を再実行するため、リターンする。
*訳注
handle_te_fault()は最終的によばれれるもので、PUD, PMDが無ければ取得するし、エラー判定になれば呼ばれず返る。

2014/11/26(水)[ARM][Linux]copy_{from|to}_user()

Linux Advent Calendar 2014の19日目に登録させていただきました。

copy_to_user()

kernel空間からusesr空間への安全なメモリコピー、と見てもらえれば良いでしょう。
単純なメモリコピーは、memcpy()を使いますが、これはユーザ空間のアドレスを
指定できることに意義があるもの。

ユーザ空間のメモリは必ずしも物理メモリに割りつけられているとは限らない。
まぁこれだけではないので、swap未使用であったりメモリが多くても使いましょう。
NAME
 copy_to_user - Copy a block of data into user space.

SYNOPSIS
 unsigned long copy_to_user(void __user * to, const void * from, unsigned long n);

ARGUMENTS
 to
   Destination address, in user space.

 from
   Source address, in kernel space.

 n
   Number of bytes to copy.

CONTEXT
 User context only. This function may sleep.

DESCRIPTION
 Copy data from kernel space to user space.
 Returns number of bytes that could not be copied. On success, this will be zero.


実装を追う

実際にコードを追った順序と記載順序が異なるので、変な感じです。

関数の実態は以下にあります。
アライメントを考慮した最適な転送を行うためのテンプレでコードが書かれており、
そこで使用するデータ転送の実態をcopy_to_userとcopy_from_userでマクロ定義し、
同一templateでコードを生成させています。
FILE: arch/arm/lib/copy_to_user.S
FILE: arch/arm/lib/copy_template.S

で、ここからが本題。strusrマクロでは、abort引数がついています。
これが何しているのか、何となく想像はつきますが、理解できなかった。
バイナリを逆アセンブルすると普通のstr命令が並ぶだけで、memcpyとの差異が判らず。
実コードと併せて定数テーブルを作っていることに気がつき、
このセクション名で検索したところ仕組みがわかったという流れでした。

FILE: copy_to_user.S
	.macro str1w ptr reg abort
	strusr	\reg, \ptr, 4, abort=\abort
	.endm
FILE: archinc/asm/assembler.h
	.macro	strusr, reg, ptr, inc, cond=al, rept=1, abort=9001f
	usracc	str, \reg, \ptr, \inc, \cond, \rept, \abort
	.endm

	.macro	usracc, instr, reg, ptr, inc, cond, rept, abort, t=TUSER()
	.rept	\rept
9999:
	.if	\inc == 1
	\instr\cond\()b\()\t \reg, [\ptr], #\inc
	.elseif	\inc == 4
	\instr\cond\()\t \reg, [\ptr], #\inc
	.else
	.error	"Unsupported inc macro argument"
	.endif

	.pushsection __ex_table,"a"
	.align	3
	.long	9999b, \abort
	.popsection
	.endr
	.endm

usracc str, \reg, \ptr, \inc(=4), \cond(=none,al), \rept(=none,1), \abort(=pop)
	stral reg, [ptr], #inc
	.pushsection __ex_table,"a"
	.align	3
	.long	9999b, \abort

セクション "__ex_table"に、{exceptionが発生するアドレス、返りアドレス}を設定する。
ldscriptにて、同名のセクションを定義、その前後のアドレスをを拾えるようにしてある。
FILE: /kernel/linux-stable/arch/arm/kernel/vmlinux.lds.S
	. = ALIGN(4);
	__ex_table : AT(ADDR(__ex_table) - LOAD_OFFSET) {
		__start___ex_table = .;
#ifdef CONFIG_MMU
		*(__ex_table)
#endif
		__stop___ex_table = .;

テーブルの先頭が変数名として判ったので、コレを探す。
これを参照しているのは、以下の関数。
/* Given an address, look for it in the exception tables. */
const struct exception_table_entry *search_exception_tables(unsigned long addr)
さらにこれを使っているところを探すと、アーキ依存部のpage fault処理部分が見つかる。

FILE: kernel/linux-stable/arch/arm/mm/extable.c
int fixup_exception(struct pt_regs *regs)
{
	const struct exception_table_entry *fixup;

	fixup = search_exception_tables(instruction_pointer(regs));
	if (fixup) {
		regs->ARM_pc = fixup->fixup;
#ifdef CONFIG_THUMB2_KERNEL
		/* Clear the IT state to avoid nasty surprises in the fixup */
		regs->ARM_cpsr &= ~PSR_IT_MASK;
#endif
	}

	return fixup != NULL;
}
さらにさらに、これを使っているところを探すと、
アーキ依存部のpage fault処理部分が見つかる。


FILE: kernel/linux-stable/arch/arm/mm/fault.c
/*
 * Oops.  The kernel tried to access some page that wasn't present.
 */
static void
__do_kernel_fault(struct mm_struct *mm, unsigned long addr, unsigned int fsr,
		  struct pt_regs *regs)
{
	/*
	 * Are we prepared to handle this kernel fault?
	 */
	if (fixup_exception(regs))
		return;
ここに来れば faultが発生しても、Oopsを吐かずに指定されたアドレスへ
帰って行くという仕組みになっている。

copy_to_user()に関しては、エラーハンドリングは特に行っていない。
失敗すればコピーを中断して返る、という実装になっている。
そのため、返値はコピーバイト数の残り、ということにしたのであろう。

で、この__do_kernel_fault()はどこから来たのかなぁと見ていくと、
fault handlerのほうへと流れ着くことになる。
ここらへんまできて、ちょっと深みにはまりそうだな、と感じたので
別記事にすることにします。

FILE: kernel/linux-stable/arch/arm/mm/fault.c
static int __kprobes
do_page_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)

2014/10/28(火)glibcのビルド

逆アセンブルしてもソースコード中の関数をみても一致しない。
なぜだろうか・・・、ということで少し探ってみた時のメモ。
解決に至っていないので、そのものズバリが欲しい人は回れ右でお願いいたします・・・。
情報提供、誤り指摘はありがたく頂戴させていただきます。

ビルドされたログを見る

ct-ngにビルドしてもらった時のログから、1ファイルのコマンドラインを引っ張ってみる。
[ALL  ] 
( echo '#define SYSCALL_NAME close';
	echo '#define SYSCALL_NARGS 1';
	echo '#define SYSCALL_SYMBOL __libc_close';
	echo '#define SYSCALL_CANCELLABLE 1';
	echo '#include <syscall-template.S>';
	echo 'weak_alias (__libc_close, __close)';
	echo 'libc_hidden_weak (__close)';
	echo 'weak_alias (__libc_close, close)';
	echo 'libc_hidden_weak (close)';
	) \
 | arm-linaro-linux-gnueabi-gcc -c 
 -I../include 
-I/PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/build/build-libc-final/io 
-I/PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/build/build-libc-final 
-I../ports/sysdeps/arm/elf 
-I../ports/sysdeps/unix/sysv/linux/arm/eabi/nptl 
-I../ports/sysdeps/unix/sysv/linux/arm/eabi 
-I../ports/sysdeps/unix/sysv/linux/arm/nptl 
-I../ports/sysdeps/unix/sysv/linux/arm 
-I../nptl/sysdeps/unix/sysv/linux 
-I../nptl/sysdeps/pthread 
-I../sysdeps/pthread 
-I../ports/sysdeps/unix/sysv/linux 
-I../sysdeps/unix/sysv/linux 
-I../sysdeps/gnu 
-I../sysdeps/unix/common 
-I../sysdeps/unix/mman 
-I../sysdeps/unix/inet 
-I../nptl/sysdeps/unix/sysv 
-I../ports/sysdeps/unix/sysv 
-I../sysdeps/unix/sysv 
-I../ports/sysdeps/unix/arm 
-I../nptl/sysdeps/unix 
-I../ports/sysdeps/unix 
-I../sysdeps/unix 
-I../sysdeps/posix 
-I../ports/sysdeps/arm/eabi 
-I../ports/sysdeps/arm/nptl 
-I../ports/sysdeps/arm 
-I../sysdeps/wordsize-32 
-I../sysdeps/ieee754/flt-32 
-I../sysdeps/ieee754/dbl-64 
-I../sysdeps/ieee754 
-I../sysdeps/generic/elf 
-I../sysdeps/generic 
-I../nptl 
-I../ports  
-I.. 
-I../libio 
-I. -nostdinc
 -isystem /PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/buildtools/lib/gcc/arm-linaro-linux-gnueabi/4.7.4/include
 -isystem /PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/buildtools/lib/gcc/arm-linaro-linux-gnueabi/4.7.4/include-fixed
 -isystem /opt/export/V980_cam/repo/_master_m8m/hosttool/arm-linaro-linux-gnueabi/arm-linaro-linux-gnueabi/sysroot/usr/include
 -D_LIBC_REENTRANT
 -include ../include/libc-symbols.h
 -DASSEMBLER
   -Wa,--noexecstack  
 -o /PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/build/build-libc-final/io/close.o
 -x assembler-with-cpp -
 -MD
 -MP
 -MF /PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/build/build-libc-final/io/close.o.dt
 -MT
 /PATH/TO/MYDIR/_build/arm-linaro-linux-gnueabi/build/build-libc-final/io/close.o
ソースコードだけ見ててもアカンやつや...
というかむしろソースコードないぞおい.
echoコマンドで現存するシステムコールはソースコードを生成してコンパイルしちゃうのかなぁ.
えぐいなぁ...

glibcじゃなくなるけど, eglibcの場合は 以下のソースをincludeして コードが生成されちゃう模様.
src/eglibc-2_13/sysdeps/unix/syscall-template.S
src/eglibc-2_13/ports/sysdeps/unix/sysv/linux/arm/nptl/sysdep-cancel.h
※nptl/cancel可能を前提として.
OK キャンセル 確認 その他