ネットワークプログラマビリティ勉強会 #npstudy #11 参加メモ
ネットワークプログラマビリティ勉強会 #11 に参加してきました。いつものメモです。公開資料についてはconnpassの方を参照ください。
npstudy 方針
- ネットワーク系の勉強会あまりないので
- 10回はやろうと言って11回目になりました
- トピック
- いろいろ。ちょっとでもNWとプログラマビリティ要素が絡めばOK
募集中
- 発表ネタは随時募集しています
- 一般枠(30min), LT枠(10min), デモがあれば+5分程度。
- スタッフとして手伝ってくれる人・司会進行してくれる人
- 場所貸してくれる人がいると嬉しいです。
- 場所貸してもらえれば、懇親会はスポンサー可能
連絡事項
- 過去発表枠がなかなか消費されないので過去3回にしてみました。
- Hash Tag : #npstudy
- 発表する方はconnpassで資料公開してもらえるとハッピーになります
- もしくは #npstudy で tweet を。
- 懇親会をやってます
- 簡単な軽食+お酒
- 参加者同士の交流を。
- 懇親会も残ってほしいなーというのがあるので、今回FD.ioのLTは懇親会でやります
お願い
- キャンセルはお早めに
- 忘れ物に注意!!
物理ネットワーク受入テストの自動化を考える
@qb0C80aE, OOL Network Test System Project + Trema/NetTester Team
npstudy#7で話したものの続きです
- npstudy#7 の時の話は何か?
- 一言でいうと、物理ネットワークのテストを自動化するための仕組みを作って、有効性を試してみた、というもの。
背景
- ネットワークの変化が早くなってる。
- これを変えたらネットワーク全体がどうなるか?
ネットワークの課題
- 自動化が難しい。
- つながる前提かどうかで考え方が違う。物理NWやるような場合はそもそもつながる保証がない。
- つながらないとその場に行かないといけない。
- 機器ごとに固有の操作体系
- 全体の動作確認の難しさ
- 個々の操作 → 全体が望んだ状態になるか?
- あれをやったらこっちが死ぬのでは? みたいなのが多い
結果
- どうしても人手
- 影響範囲の読みにくさ → ずっとレビュー
- リクエストにすぐに答えられない
- いざやってみたらこけた…
アプロ―チ
- 実機を使って、実際のものを
- 自動化して、人ではやれない範囲をフォロー
- npstudy#7 のときはping test pattern の記述
- 今回は BDD ベースでやってみようという方向
BDD
- BDD: 要求仕様に対する end-to-end のテスト。
- acceptance test, integration test
- TDDは細かい、unit test レベルの話が中心
- 最終的にほしい動作の実現
Why BDD?
- 実際的な・意味のあるテストを作る
ネットワークのふるまい?
- 静的なふるまい: 定常状態のネットワークで要件通りに通信できるか
- 動的なふるまい: ネットワークの状態が変化する
自動化するときに何が必要か?
- テスト用のノード生成・配置
- NW機器の操作
- 個々のテストの実行
NetTester
- テストシナリオから、仮想ホストを立てて、テストを実行する
デモ
- Cucumber, 日本語でテストシナリオ書いてる
- 動的なテスト
- 間に挟み込んでいるopenflow switchを操作して実際にリンクダウン発生させている
- 仕様変更対応
- NAT IPの変更
- テストファーストなやりかたで
- 直接変更したところ
- そのほかの使用確認、余計な影響やミスがないか?
できたこと
- トポロジ操作含めたテストの記述・実行
- 障害試験とかも自動化。人手でケーブル抜くとかしなくてもいいように
- 要求変更→修正・テスト・本番デプロイ、というサイクル
- CI/CDへ
- 実機固有のトラブルも発見
- DPI的な動作のテスト
難しい
- Setup/Teardown
- 物理機器のTeardownが非常に面倒。前のテストのステータスが残ってしまう。
- テストが通らなかったときの原因調査がちょっと大変。(慣れてこないと難しい)
まとめ
- こういうネットワークにしたい、という要求ベースのテストシナリオを
- ソフトウェア開発のノウハウを使いながら
- BDD/Cucumber, そのほかのツールからでもOK
- 静的・動的なふるまいのテスト
展望
- リスクを減らしながら迅速にテストをしてデプロイしていく
今後
- 「できないこと」のテスト
- ユーザがしたい事・管理者がさせたい事 etc
- CI/DevOps的なプロセスを考えた周辺システム連携・ツールチェインみたいなところ
- 実用トライアル
- 一緒にNW自動テストやってみたい人を募集しています!
QA
ネットワーク運用とIoT
@Clorets8lack
自己紹介
- 本業はユーザ企業の情シス、国際インフラ担当
- 副業で、トラブルシューティングを効率化するパケットレコーダーとかを開発・販売
今日の話
- ユーザ企業のネットワークにIoTを
- 現場で情シスの厄介なことをやっている。やってみたこと・考えたことを
IoT?
- NWにつながった機械で情報を取って分析したら便利になるんじゃない?
- それってNWの人たちはすでにやってるんじゃない?
- ちょっと違うやり方を考えてみよう
情シスが抱える悩み
- 定期的にやる必要はないけど、ピンポイントでほしい情報
- 企画業務、障害対応、サイジング、監査…
パターン1
- そもそも可視化のしくみが現場にない
- データが取れないと、設計の制度が変わる。
- リプレースや新規導入があいまいに
- 後工程に影響…思ってたのと違った、過負荷がかかった、負荷テストをかけてもこれでいいかが判断できない…
パターン2
- 可視化していても取れない情報・取りにくい情報がある
- いろんな製品使っていると、とっ散らかり気味
まとめ
- 計測、可視化、定量化、というのが単純に難しい
- そもそも取れない
- 導入すればとれる…製品導入のコストパフォーマンス
- データ取れるなら取りたい
- 精神衛生上よくなる
作った
- Sonarman-R | DevelUpJapan
- 遠隔拠点に置くパケットキャプチャ装置
- RasPi3ベース + USBメモリ
- 解析ロジックを中に組み込み
どうつかう?
- 拠点においてインターネット境界ルータからミラー
- データ集積しながら解析
- 時々データ見に行く
- 置いても既存のNWに影響を与えない
中身?
事例1
- private addr 同士のコネクションを抽出、再送数が増えると警告
- ケーブル不良やduplex mismatchなどの発見を目的に → 結果として勝手に設置された無線/有線converterを発見
事例2
- MAC追跡: Kerberos/POPなどでユーザ名・ホスト名・MACとの紐付
- 大量ダウンロードをした人とかを追いかける。ルール違反について証拠をそろえてクレーム。
- ひとつのMACに複数ユーザが紐づき → 無許可設置ルータの発見
事例3
まとめ
- 机上で考えたことと実際の現場は違う
- 予想外のものが見つかる
- 情報集めは楽に
- filter rule 入れるのがちょっと面倒
今後
- 開発の背景
- 情シス部門は自分で解決できないトラブルの責任を持たされていたりする → 不安感が付きまとう → ベンダーへの過剰な要求の原因に
- 一般的なトラブルシュートが楽にやれると負荷が減る
- トラブル解決を楽に
- パケットキャプチャ有効。ただ解析は難しい。
- 条件: 同じ条件で取得した正常時・異常時のパケットキャプチャを比較できると簡単になる。
パケットキャプチャの難しさ
- 本質的には間違い探し
- 間違い…違和感はあっても確証を持つのは難しい
対比によるトラブルシューティング
- どういう応答で中断しているか
- 正常時と比べてどうか
伝達手段としてのパケットキャプチャ
- 説明しやすいかどうかが重要
- 「正常時はこうだけど、異常時はこうだ」という話ができると楽
教育効果
- 正常時のキャプチャがない
- 初見の間違い探し → 予備知識でカバー
- プロトコルやふるまいに関する知識…トラブル事例・ナレッジ化
問題がうまく解決できるとよいサイクルができる
- 振り返りをやろう
- 余裕 → 将来への投資
想い
- トラブルに振り回されたくない
- 不安→不幸をなくしたい
- 不安はテクノロジでなくせる
SonarMan-R は Amazon で販売しています!
- 「これ検証ルームでノーパソもってうろうろしなくていいじゃん」
- 半径5mで始めるIoT?
QA
- データためておいてどっかにアップロードする?
- キャプチャ取ったのを別なDBに移すとかもできるけど、コンセプトとして、1回か2回使えればいいデータを集めたいというだけ。受け側に手間をかけないという方針。仕掛けておいてそこに見にいく形。
- NWオペレーションがプッシュ型、テレメトリ、ある程度の情報を上にためておいて異常検知に使っていくというのがある。
- 異常検知: キャプチャデータの直接解析。機械の中にデータためてその中で解析・検知させる
Lagopus + Docker のDPDK接続
hibitomo
- インターンの人がいろいろ検証したんですが諸事情により代理で。
「すごーい! LagopusはDockerとDPDKで接続できるスイッチなんだね! #npstudy」
Lagopus
- OpenFlow Switch実装
- DPDKを使って高速パケット転送可能。汎用x86サーバで動作可能
- >10Gbps, OpenFlow1.3準拠 + tunneling
最近のリリース
- '16/7-8月でaction=normalにも対応
DPDKによる仮想環境との接続
- Interop 2016 ShowNet, vhost-user PMDによるVM-DPDK接続
- QEMU2.1以上はvhost-netバックエンドをユーザ空間に: コピーが1回でvirtio-netでパケットとれる
VMとつながるのはわかった
- コンテナはどうなのか?
- これまで、SR-IOVで物理NIC VFわけてDPDKで取ってくるのはできてたが、vswitchを挟めていなかった。
- vxlan tunnelとかする時にしんどい
- vswitch はさんで encap/decap, networking したい
- dpdk16.07以降でやれる
コンテナとの接続
- virtio-user を使う。コンテナの中のユーザ空間で動く
- qemuの中の仕掛けをdpdkのところに再インプリした形
どうやればlagopusとdocker(docker container)がつながるのか?
- 準備
- Hugepages, virtio-user 使うのであれば1G必須
- hugetlbfs, ホストと各コンテナそれぞれにマウントが必要
- 起動
- docker run するときに hugepageとか指定する
ポイント
- virtio-userをつかめるのはdpdkだけ。kernelはつかめない。
- dpdk17.02ではKNI使えるが性能劣化する
- コンテナで使うHugepageは8ページ以下しか使えない
- vhost - virtio-user 間のパケット受け渡し。コンテナから見るアドレスとホスト側から見るアドレスの変換テーブルがあって、そこの受け渡しの高速化のため
- 複数CPUソケットがある場合、Dockerで使用するノードを明示的に指定しないと死ぬ。
性能評価
- docker0経由/lagopus経由
- lagopus, 512byteくらいからpacketgenフルレート到達, 性能的には2倍くらい違う
新しいlagopus
- lagopus switch → lagopus routerへ
- OFSの柔軟な制御 + BGPとかも
- 暗号化(IPsec)終端機能も
- BGP router
- IPsec router
まとめ
- 「すごーい! LagopusはdockerとDPDKで接続できるルータになるんだね! #npstudy」
OpenConfigで実現するベンダーニュートラルなコントロールプレーン
Arista/野田さん
ネットワークの管理API: OpenConfigの話を聞くようになってきた。どういうものなのか?
OpenConfig?
- google, FB, AT&T, MS, etc...北米の大規模事業者有志による集まり。
- 旧来の管理APIの限界…次の世代の管理APIを
- "vendor-neutral, model-driven network management designed by users"
目指しているもの
- ベンダーニュートラルなデータモデル、トランスポートとの分離
- リアルタイムでスケールする状態監視を可能とするストリーミング
ニュートラルなデータモデル・トランスポート分離
- マルチベンダ環境: ベンダが違うとconfigが違う, snmpの表現も違う, OSバージョンが違うとコマンドの出力が違う…
- ひとつのメーカー/ベンダーだけでも複数の管理ツールが必要
- マルチベンダ・複数世代、それに合わせたツール管理…
OpenConfig のaddress
- YANGでデータモデル定義
- ベンダ・世代に依存しない、共通のデータモデルで表現
- データのやり取り(transport protocol)は別
- netconf,restconf, gRPC,...
リアルタイムでスケールする状態監視ストリーミング
- 細かい状態ポーリング
- 管理台数が増えると粗くなる/細かくすると負荷が上がる
- 実際には、なるべく細かくデータ取りたい
- ストリーミングによるアプローチ
- NW機器から状態変化をマネージャに送信(streaming)する
- 送るデータはyangで定義
- 送るプロトコルは grpc etc
- NW機器の負荷を押さえながらリアルタイムの可視性を
demo
- yang による状態取得やconfiguration
- openconfig + grpc
- サーバ側はgo実装なgrpcでコマンド送付
- get config, set config
まとめ
- openconfig: management plane の SDN化のひとつの選択肢
- 今後3-5年後、snmp/CLIでどうにかできるか?
- ユーザ視点で使いやすい管理APIをベンダ側にプッシュさせるチャンス
See also:
FD.io VPP事始め
tetz
ちょっと動かしてみる方法がわかるくらいの話の紹介
FD.io
- https://fd.io/
- Fast Data - Input/Output
- apache foundation のプロジェクト
- VPP: 仮想スイッチ・仮想ルータそのもの
VPP
- FD.ioの中核。
- dpdkを使ったユーザ空間なプリとして動作する仮想ルータ・仮想スイッチ
- Vector packet processing
- forwarding feature が有効グラフで表現
- 対比: scalar packet processing: 1パケットずつ処理。インストラクション観点でパケット入ってから出ていくまでの処理をper packetにするとキャッシュミスが。
- VPPは複数のパケットを同時に処理。極力メモリにアクセスせずキャッシュヒットさせながらパケットを処理する
機能
- いろいろある
- 中途半端だったりするのもあるけど。
- IPsecやってみたけど、initiaterになれない。どこかからトンネル張りに来てもらわないといけない。
インストール
- package installできる容認合っている
接続方法
- dpdk pdm (host machine interface)
- vhost (KVM)
- veth (container)
- tap
VPPへのNICの見せ方
- 接続方法ごとにそれぞれ
さいごに
- GW前にnpstudy#12を予定しています。
- npstudyはベンダーニュートラルです!