proxmox

激安3D NANDなNVME SSD「ADATA ASX8000NP-128GM-C」を2台でベンチマークとってみた

ベンチマークを”とる”の漢字ってどれが正しいのか 毎回迷う。 3D NANDでNVME SSDを2つ手にしたので fioを使ってベンチマークを取ってみたいと思います。   構成 Canon IXY 430F (4.3mm, f/2.7, 1/30 sec, ISO100) Canon IXY 430F (4.3mm, f/2.7, 1/30 sec, ISO100) ADATA ASX8000NP-128GM-C ×2(M.2 -> PCIe変換カード) RAIDZ-1(ZFS) Proxmox(Debian) Xeon E5-2650 Memory 32GB 今回はブートディスクではなく、ZFSを使ってRAID1環境です。 RAID0ではないのでご注意ください。   ベンチマーク 今回はWindowsではなくLinux環境なので fioを使ってベンチマークを行いました。 オプションとしてbs=4k, jobs=64となっています。 ※書き込み速度に関してはチューニングをしていないので 信用しないでください。   シーケンシャル リード [crayon-5b2884f37ca29046731511/] IOPS : 701270 bw : 2739.4MB/s   シーケンシャル ライト [crayon-5b2884f37ca39259947603/] IOPS : 258093 bw : 1008.2MB/s   ランダム リード [crayon-5b2884f37ca3e882038757/] IOPS : 731567 bw : 2857.8MB/s   ランダム ライト [crayon-5b2884f37ca43049738616/] IOPS : 14872 bw : 59489KB/s   まとめ 種類 IOPS スループット(MB/s) レイテンシ(usec) Seq Read 701270 2739.4 50usec Seq Write 258093 1008.2 100usec Rand Read 731567 2857.8 20usec Rand Write 14872 59.49 50msec ※書き込み速度に関してはチューニングをしていないので 信用しないでください。 書き込み速度に関してはZFSのsyncがenableな状態でとったので 激遅になっています。 購入当時、このSSDは9,000円を切る価格で3D NAND + NVME 1.2が搭載されており コストパフォーマンスが優れているSSDだと思います。 それでも10,000円を切っているのでオススメです。 熱はそこそこ高く、冷却もきちんとしないと サマールスロットリングが発生してしまうので注意が必要です。

コンテナ上で何もできなくなる「Too many open files.」

Dockerに限った話ではなくOpenVZとかLXCでも同じ方法で解決できる”はず”   fs.inotifyを弄る [crayon-5b2884f37cdc6492338042/] [crayon-5b2884f37cdd1102395931/]   what is ‘fs.inotify’ /proc インターフェース 以下のインターフェースは、inotify で消費されるカーネルメモリの総量を制限するのに使用できる: /proc/sys/fs/inotify/max_queued_events このファイルの値は、アプリケーションが inotify_init(2) を呼び出すときに使用され、対応する inotify インスタンスについてキューに入れられるイベントの数の上限を設定する。この制限を超えたイベントは破棄されるが、 IN_Q_OVERFLOW イベントが常に生成される。 /proc/sys/fs/inotify/max_user_instances 1 つの実ユーザ ID に対して生成できる inotify インスタンスの数の上限を指定する。 /proc/sys/fs/inotify/max_user_watches 作成可能な監視対象の数の実 UID 単位の上限を指定する。

Proxmox VE 4.0がリリースされた

我が家でもバイト先でも使っている Proxmox VE が 4.0 となりました。   Change Log ・Debian Jessie 8.2.0 ベース ・Linux kernel 4.2 ・QEMU 2.4 ・HAが新しくなった ・bash completion のサポート ・全てのIPv6に対応(?) ・LXC のサポート ・DRDB9 の追加 ・バグの修正とパッケージのアップデート   アップグレードもCLIから簡単に出来るらしいでしゅ。 Upgrade from 3.x to 4.0 まじでGMO死んでくれ これが書きたかっただけでうs

Proxmox 4.0 Beta 1 では PCIパススルーが出来ないっぽい

Hello. 今日の22:00までの課題を21:58に提出した。危ねえ~   Proxmox 4.0 Beta が出てきたわけでちょっと入れ替えてみたんですけど 何をどうやっても PCI パススルーが出来なくて積んでた。 フォーラムに投げたら公式から返答がきた。   既知のバグらしい。 録画サーバーはProxmoxの上に建ててるので絶望的。 どうしようね  

【覚書】KVM / Proxmox で PCIパススルー がうまく動かない時に試すこと

仮想サーバーで録画鯖を建てるなら必ず必須なパススルー。 前回の記事でPCIパススルーに必要なことを書いたので覚書として方法でも書いてみる。   [bash] # /etc/default/grub を弄る。 vim /etc/default/grub GRUB_CMDLINE_LINUX_DEFAULT="intel_iommu=on"   # grubの変更を適用する update-grub   # 再起動する reboot   # 下記コマンドでIOMMUが有効になってるか確認する dmesg | grep -e DMAR -e IOMMU Intel-IOMMU: enabled # ↑のように表示されればおk   # パススルーしたいPCIデバイスの識別番号を確認する lspci 08:00.0 Multimedia controller: Xilinx Corporation Device 222a (rev 01)   #VM設定ファイルにパススルーの記述をする vim /etc/pve/nodes/proxmox/qemu-server/100.conf hostpci0: 08:00.0   # 起動してみる [/bash]   もしこれでassign出来ませんとか、パーミッションがないよとか言われたら [bash] # 新規にファイルを作成する vim /etc/modprobe.d/kvm.conf options kvm allow_unsafe_assigned_interrupts=1 [/bash] これでダメだったら知りません。諦めてください。   allow_unsafe_assigned_interrputs が何か調べてもよく分からない KVMのPCIパススルーではPCIデバイスの再マッピングを必要としているけど、ハードウェア(プラットフォーム)がサポートしない場合は KVMが必要としている再マッピングチェック機能を無視出来る的な・・・(?) 調べてみるとVT(VT-d)の中の一つの機能でサポートされてるっぽいんだけどなぁ・・・よく分からないです!