読者です 読者をやめる 読者になる 読者になる

device-mapper

GNU/Linux ストレージ
  • “dm”, “DM” と略される
$ ll /dev/dm*
brw-rw----. 1 root disk 253, 0 Mar 30 15:35 /dev/dm-0
brw-rw----. 1 root disk 253, 1 Mar 30 15:35 /dev/dm-1
brw-rw----. 1 root disk 253, 2 Mar 30 15:35 /dev/dm-2

上にリンクが張ってある

$ ll /dev/mapper/vg*
lrwxrwxrwx. 1 root root 7 Mar 30 15:35 /dev/mapper/vg_testhost1-lv_home -> ../dm-2
lrwxrwxrwx. 1 root root 7 Mar 30 15:35 /dev/mapper/vg_testhost1-lv_root -> ../dm-0
lrwxrwxrwx. 1 root root 7 Mar 30 15:35 /dev/mapper/vg_testhost1-lv_swap -> ../dm-1

dm名

  • VG名-LV名からリンクはってある。カーネル内部ではdm-番号でLVMを判別している様子

機能

参考

http://lc.linux.or.jp/lc2009/slide/T-02-slide.pdf

LINUX の時間

GNU/Linux

UTC

  • コンピュータ界の標準時となっているUTC
  • タイム ゾーン(時間帯)と呼ぶ区域に分け、UTCからの時差で補正した時刻をタイム ゾーンの標準時として適用
  • タイム ゾーンの標準時をローカル タイム(地方時)
  • UTC ± 時差
  • UTCより9時間進んでいる日本のローカル タイム(JST)は、UTC+09:00

システムクロック

パソコンで使用される唯一の時計(時刻情報源)はシステム クロック その実態はメモリ上で管理 OSは起動されるとハードウェア クロックの時刻情報を読み出し、基準時刻からの経過秒数の形式に編集

ハードウェア クロック

  • 製造時に正しい現在の値が入る?
  • パソコンの電源を切っても時刻情報を維持
  • マザーボード上に実装され、バックアップ電池等により途切れることなく稼働
  • 電池切れになると時刻情報がリセットされ、パソコンが正常に起動ができなくなります。

参考

パソコンの時計 ハードウェアクロックとシステムクロック

eng-entrance.com

システムクロックはハードウェアクロックの情報を元に設定される。しかしハードウェアクロックは「精度が高いか?」というとそうでもないので気をつけていただきたい。定期的にシステムクロックをNTPで正確に同期したあと、ハードウェアクロックも定期的に同期したほうがいいだろう。

sarコマンドでのLA

負荷調査

sarコマンドでのLA

       -q     Report queue length and load averages. The following values are displayed:

              runq-sz
                     Run queue length (number of tasks waiting for run time).

              plist-sz
                     Number of tasks in the task list.

              ldavg-1
                     System  load  average  for  the  last  minute.   The load average is calculated as the average number of runnable or running tasks (Rstate), and the number of tasks in uninterruptible sleep (D state) over the specified interval.

              ldavg-5
                     System load average for the past 5 minutes.

              ldavg-15
                     System load average for the past 15 minutes.

参考

d.hatena.ne.jp

sar もcat /proc/loadavg 1.72 1.99 3.68 3/372 18943 とLAが同じになるので /proc/loadavg から取得しているようだ。

/proc/loadavgは

つまり、CPU の数が増えてもロードアベレージは CPU の数でタスク数を平均したりはせず、純粋に「待ち行列にたまって待たされたタスクの数」を示しているのがここではっきりします。

待ち行列にたまって待たされたタスクの数」== number of runnable or running tasks (Rstate), and the number of tasks in uninterruptible sleep (D state)

ここで簡単にまとめておきます。 top や sar がデフォルトで示すCPU使用率はCPU数(コア数)で割り算をしている ロードアベレージは割り算をしていない

なるほど!

ここに一つ罠があるような気がします。カーネルは本当にすべての CPU に均等にタスクを割り当てているかどうか、という点です。先のデュアルコア x 2 = 4CPU の sar をもっと見てみましょう。

自分の環境ではsar -P ALL で見たCPUの使用率具合はほぼ均一だった。状況によってCPUへの割当が偏るとのこと。負荷をみるときは

sar -P ALL|CPU番号

したほうがよさそう。

top や sar がデフォルトで示すCPU使用率はCPU数(コア数)で割り算をしている。各CPUごとに値を保持している。 ロードアベレージは割り算をしていない。各CPU(ランキュー)ごとに値を保持するのではなく、システム全体で一つ。 4CPU ならロードアベレージ 4.00 まで OK、は鵜呑みにしないほうがよさそう。状況によって異なるのでその他の指標も使って細かく統計を分析>したほうがよい。 nr_running > 1 のときはロードバランスが適切に働く。そのため 4CPU なら 4.00 で割れ、というのは負荷があるときはそれなりに正しい。 ランキューに溜まってるタスク数が CPU 毎に見れたらいいのだけど、現時点のカーネルの実装では難しい。(全体のは sar -q で見れます。)

ルーティングテーブル

GNU/Linux

route -n

  • Flags
    • U(up):経路は有効
    • H:宛先はホスト
    • G:GateWayを通る
    • !:経路を拒否

ルーティングテーブルでは、デフォルトルートを「0.0.0.0/0」と表記

ルーティングテーブルのデフォルトGW
0.0.0.0         192.168.0.1     0.0.0.0         UG    0      0        0 eth0

elasticdump

準備

npm install -g elasticdump

実行

OS稼働中のカーネルパラメータ変更

GNU/Linux

一時的

  • echoで設定
    • echo > /proc/sys/
  • sysctl -w パラメータ=値
    • wはあってもなくても良いらしい。
    • /proc/sysの値を変更する

再起動で設定を失う。

恒久的

  • /etc/syscto.confを直接編集
  • その後sysctl -p コマンド実行で反映。ファイル指定しなくてもデフォルトで/etc/sysctl.conf

ログ

rsyslog

syslogd はログ情報の紛失や暗号化ができない。

次世代のやつ出てきた syslog-ngとrsyslog

CentOS6ではrsyslogを採用。Debianも。

アプリケーション – rsyslog– logファイル

loggerコマンド

logger -p mail.info mail-log

ファシリティ.プライオリティ ログメッセージ

各ログの出力先

/etc/rsyslog.conf

ファシリティとプライオリティを指定して、各ログの出力先を設定している

ログローテーション

指定したタイミングで現在のログとはまた別の新しいファイルにログを記録するようにし、その古いログを指定された期間まで保存して削除すること。

logrotate

設定ファイル

基本設定ファイル

/etc/logrotate.conf

個別設定ファイル

/etc/logrotate.d/各アプリ対応の設定ファイル

デフォルト

weekly

rotate 4

一週間ごとにログを切り替えて、それが4回経過したときに削除される。