Facebookのライブビデオのスケーリング
最近、海外のサービスのスケーリングに関して色々勉強をしていて、面白かったのでまとめた。
動画系のバックエンドがあまり担当したことないので興味があった。動画配信と言っても、一度保存された動画を配信するのと、ライブ配信とでは考慮すべきことが異なっていて面白かった。
Scaling Facebook Live Videos to a Billion Users
2017年の発表
サービスの概要
12.3億DAU
ライブ配信と動画の違い
- リアルタイムに即座に視聴者が見れるようにしないといけないこと
- コミュニケーションを取れるソーシャル性
History
- 2015年4月: ハッカソン(業務とは関係ないものを開発できる)
- 2015年8月: Celebrityが配信できるように開放
- 2015年12月: 全ユーザ向けにリリース
なぜライブか?
- エンゲージメントが高い
- 公開されたプロフィール
- 世界をつなげる(現地の災害の人など、他のメディアでは共有できないようなコンテンツ)
ライブストリーミングインフラ
1. High Level Architecture
ライブストリーミング
配信者はRTMPS(Real Time Messaging Protocol Secure)を使って、POP(Point Of Presence)に接続。
POPはデータセンターに接続し、データセンターはエンコーディングを行う。
データセンターはCDNや他のPOPに配信し、それ経由で視聴者に届く。
リソースの種類
- コンピューティング
- メモリ: ストリームのエンコード、デコード
- ストレージ: 長期保存
- ネットワーク: アップロードと視聴
2. Scaling Challenges
- 同時配信数
- 夕方にピークが来るなど予測できる
- Ingest Protocol, ネットワークキャパシティ、サーバのエンコーディングリソース
- 全ストリームの視聴者数
- こちらも規則性があり、予測できる
- Delivery protocol, ネットワークキャパシティ、効率的なキャッシュ
- 単一ストリームの最大視聴者数
- 予想が難しい
- キャッシュ、ストリームの分散
Facebookのライブビデオはどのように異なるか
- 事前のキャッシュがトリッキー
- 視聴者数の予測が困難
- ライブイベントの計画と事前にリソースをスケールさせるのが問題
- 世界的なイベントによる同時配信のスパイクの予測が難しい
3. Protocol
ブロードキャストプロトコルに必要なこと
- 開発のかかる時間: リリースまで4〜8ヶ月しかない
- ネットワークの互換性: Facebookのインフラだけでは完結しない
- E2Eのレイテンシー: 大きいとインタラクティブなコミュニケーションが取れない
- アプリケーションの大きさ: Facebookのアプリに搭載するので大きくはできない
エンコーディングのプロパティ
- アスペクト比: 1:1
- 解像度: 400x400, 720x720 (ネットワークが十分に発達していない地域も考慮)
- AUDIO CODEC: AAC 64KBIT
- VIDEO CODEC: H264 500KBIT 1MBIT
4. Stream Ingestion and Processing
POPのメリットは、POPやデータセンターのネットワークが安定して速いことと、キャッシュ。
POPは2種類のホストからなる
- Proxygen Hosts: 配信者とのコネクションを維持し、適切なDCにデータを送る
- BigCache Hosts: キャッシュ
データセンターは上の2つにEncodingを加えた3種類のホストからなる。配信者がネットワークを切り替えて新しいコネクションを開始しても、Encodingのホストが変わらないようにするために、ProxygenとEncodingのマッピングは重要。
Encoding Hostの役割
- ストリームの認証
- ストリームとホストを結びつける
- エンコーディングの生成
- プレイバック用の出力の生成
- ビデオ用に保存
5. Playback: HTTP streaming (MPEG-DASH)
DASHはHTTP上のストリームプロトコル。
マニフェストの取得のフロー
クライアントがPOPにアクセスする。POPはキャッシュがあればそれを返し、なければデータセンターにアクセスする。データセンターはキャッシュがあればそれを返し、なければEncodingホストから取得してキャッシュホストに保存して、POPに返す。POPはキャッシュに保存して、クライアントに返す。
キャッシュをPOPとデータセンターを2段階に分けることで、低いコストでスケールでき、必要に応じて別々にスケールアウトできる。データセンターへのアクセス数はPOPの数と同じになる。
6. Reliability Challenges
ネットワークの問題
配信者とPOPとの間にネットワークの問題が発生すると、どうしようもない。
- Adaptive Bit Rateで配信者と通信できるようにすることで、ネットワークが悪くなっても継続できるようにする。
- バッファーを利用して、一時的な切断をハンドリングする
- 音声のみ
7. New Features
- 複数の配信者が同時に画面に登場できる: 会話がスムーズに成立するように数十ms程度のレイテンシーにしなければならない
- ビデオタブ(一覧から探せる): 複数のストリームを扱わなければならない
- デバイスキャスティング: apple TVなどのプラットフォームに対応
- 360度
8. Lessons Learned
- 大きなサービスは小さな出発点から成長できる
- ネットワーク環境にサービスを適応させる
- リライアビリティとスケーラビリティは設計に食い込み、後からは追加できない
- ホットスポットと大規模なトラフィックは複数のコンポーネントで起こりうる
- 計画されるものとされないサービスダウンに備えて設計する
- 大きいプロジェクトを届けるためには、妥協もする
- 将来の機能のために、柔軟性のあるアーキテクチャを保つ
Q&A
- ポルノ対策は? - システムと人力でモニタリングしているが、難しい問題
Scaling Facebook Live
テスト方法
- ロードテストサービスを構築
- 視聴者がグローバルになるように
- 本番環境の10倍の負荷
E2Eレイテンシーの調整
Push vs Pull
Pullモデルの場合、POPがデータセンターからキャッシュを取得した際に生じる時差がPullしたタイミングによって、レイテンシーが大きくなってしまう可能性がある。さらに、POP間でのレイテンシーの差も大きくなりやすい。
Pushモデルの場合、レイテンシーが小さく抑えることができ、POP間の差も小さくできる。
「Dynamo: Amazon’s Highly Available Key-value Store」を読んだ
NoSQLの勉強をしていて、またDynamoDBを使う機会もあり、Dynamoの論文がNoSQLの原典的な存在らしく、1度読んでみたかったので読んだ。
全部理解できた訳ではないが、データ指向アプリケーションデザイン ―信頼性、拡張性、保守性の高い分散システム設計の原理やDatabase Internals: A Deep Dive into How Distributed Data Systems Work (English Edition)を以前読んだので、要点はまぁまぁ抑えれた気がする。
私はMySQLを使うことが多いので、コンフリクトを防ぐための書き込みのロック等は当たり前の存在だと思っていた。しかしDynamoは書き込みを優先させるために、読み込みの際にコンフリクトを解消するアプローチをしていて、技術で解決するとはこういうことかと思って面白かった。
他の方による日本語翻訳: Dynamo: Amazonの高可用性Key-value Store[和訳] · GitHub
気になったところのメモ
2. Background
2.1 System Assumptions and Requirements
ACID
ACIDを担保すると可用性が失われてしまうので、弱い一貫性(C)を提供し、分離性(I)も提供せず単一のキーのみの更新しか許可しない。
2.3 Design Considerations
RDBでは強一貫性を提供するために、同期的なレプリケーションを提供している。そのため可用性が落ちる。Dynamoでは、それを防ぐために結果整合性を持つように設計された。
それに伴って更新衝突を「いつ解決するのか、誰が解決するのか」という問題を解決しないといけない。RDBではwriteの実行中に解決してreadがシンプルになるように設計されている。そのため、writeのときにレプリカを更新しなければwriteは却下される。それに対して、Dynamoはwriteの可用性を優先させるために、readの段階で衝突解決を試みる。
「誰が解決するのか」という問題はデータストアかアプリケーションのどちらかになる。データストアはどれが正しいかを知るのは難しいため、last write winsのようなシンプルなポリシーになる。アプリケーション側での実装によって衝突をより適切に解決できる。
4. System Architecture
4.1 System Interface
get
と put
の2種類の命令のみをサポートする。シンプルなインターフェイスでkeyと関連づけられたオブジェクトをストアする。
4.2 Partitioning Algorithm
大容量のデータを扱えるように線形スケールしなければならない。そのため、ノード間の動的なパーティショニングができなければならない。コンシステント・ハッシングを採用して解決。
コンシステント・ハッシング
ノードの追加/削除の際に、隣接ノードのみに影響を留めることができる。
一般的なコンシステント・ハッシングの問題点としては、「各ノードのランダムな位置割り当てでは不均一なデータと負荷分散になってしまう」ことや、「ノードのパフォーマンスのばらつきが考慮されていない」ことが挙げられる。
それに対して、Dynamoでは「仮想ノード」の概念を使い、各ノードに1つ以上の「仮想ノード」を割り当てる。そうすることで、各ノードが環の複数の点に関連付けることができ、次のような利点がある。
- あるノードがダウンまたは削除されたら、このノードによって処理されていた負荷は残りの使用可能なノードに平等に分散できる
- ノードが復活したり追加されたら、新しいノードに対して他の使用可能なノードからおおよそ同じ量だけの負荷を受け入れられる
- ノードに割り当てられる仮想ノードの数は、その物理インフラのばらつきによるキャパシティから決定される
4.4 Data Versioning
Dynamoでは高い可用性を担保するためノード間で分断が起きたりして最新のアイテムが取得できない場合でも、書き込みを続ける。例えばカートの最新の状態が不明でも、カートの追加処理を行うなど。そうすると、複数のバージョンが発生してしまうが、アプリケーション側で適切に解決させる。
Dynamoではこの同一アイテムのバージョン管理のために vector clocks
を導入している。 vector clocks
はノードとカウンターのペアのリストである。書き込みの際には、どのバージョンに対して書き込むか(以前の読み込みの際の値)をコンテキストで指定させることで、バージョンの継承関係を管理する。読み込みの際にバージョンに衝突があった際は、すべてのありうるバージョンを返して、リコンサイルさせて新しいバージョンを作る。
バージョンがあまりに多いとパフォーマンス上の問題となるので、上限値を設定して、古いバージョンは削除するようにしている。
4.6 Handling Failures: Hinted Handoff
Dynamoでは伝統的なquorumの手法ではなく、可用性や永続性を担保するために「緩やかなquorum」を採用している。あるノードがダウンしてしまったら、そのノードが保存すべきデータは、本来そのデータを割り当てられてはいない他のノードが一時的に保存し、ダウンしていたノードが復活したらそのデータを渡すことで、レプリカ数を減らさずに処理を続行できる。
また、Dynamoでは異なるデータセンター間で保存することで、データセンター全体の障害によるデータ消失を防いでいる。
4.7 Handling permanent failures: Replica synchronization
仮想ノードごとに異なるマークル木を管理することで、差分の検知と同期のパフォーマンスを向上させている。
5. Implementation
read repair
リクエストコーディネーターがノードからレスポンスを受け取った際に、古いデータだった場合、内部で非同期的にwriteリクエストを送って最新の状態にする。
6. Experiences & Lessons Learned
6.1 Balancing Performance and Durability
Dynamoは永続性の保証とパフォーマンスのトレードオフ機能を提供している。この最適化では、各ストレージノードはメインメモリ内にオブジェクトバッファを保持する。各writeオペレーションをバッファに保存し、別のthreadで定期的にストレージに書き込む。read命令の際には、まず最初に要求されたキーがバッファに存在するかどうかを調べる。もしあれば、バッファから直接readする。
この手法では、バッファ中のwriteの書き込みが実行される前にサーバがダウンするとデータロストが発生しうる。そのリスクを軽減させるために、writeオペレーションはNレプリカのうちから durable write
を行うコーディネーターを持つように改良されている。コーディネーターはW個のレスポンスだけ待つので、 durable write
オペレーションのパフォーマンスの影響を受けない。
6.3 Divergent Versions: When and How Many?
データ管理には、アイテムのバージョンは最小限に抑えられた方がパフォーマンス的に良い。分岐は障害か、同じアイテムに対する大量の並列書き込みによって生じる。大量の並列書き込みは、通常ボットによるもので、ここでは詳細に触れない。
6.4 Client-driven or Server-driven Coordination
クライアントが、サーバ側のノード情報を取得して適切にノードへリクエストすることで、ロードバランサーが不要になり、また適切なノードへのリダイレクトする際のレイテンシーも節約できる。
6.5 Balancing background vs. foreground tasks
それぞれのノードはそれぞれの通常のフォアグラウンド put/get処理に加え、レプリカ同期やデータ受け渡しなど異なる種類のバックグラウンドタスクを実行しています。Admission controllerがフォアグラウンド処理の計測を行うことでリソースの可用性を評価して、バックグラウンド処理のスケジュール管理を行う。
Redis公式ドキュメントのメモ
モチベーション
NoSQLの勉強をしていて、中身の実装方法とかをもう1段階理解を深めたいと思った。Redisを選んだのは本番環境でも使っていて、シンプルかつパワフルであまり嫌いな人を聞いたことが比較的ないし、一番とっかかりやすそうだったから。あとは、あまりRedisに関して深ぼった本を知らないから。
ソースコードをできれば読みたいが、C言語で断念しそうなので、一旦様子見。
感想としては、公式ドキュメント読んだだけでも、だいぶ理解が変わったので読んでよかった。データ構造・アルゴリズムやDBの基礎的な本を読んでたおかげで、かなり理解しやすくなったので、やはりCSの基礎は重要なんだなと感じた。
この記事は、英語だがコンパクトにまとまっていた。
Overview Of Redis Architecture
読んで気になった箇所のメモ
expire
UNIX timestamp(ms単位)を使って比較している。
expireするタイミングは2種類ある。
- passive: キーにアクセスされたとき
- active: 1秒に10回以下を実行
- expireが設定されているキーの集合から20個取得
- そのうち、expireしてるものは削除
- もし25%以上がexpireしていた場合は、1から再度実行
削除するときは、AOLには DEL
コマンドのログを残す。
メモリの上限とアルゴリズム
maxmemory
でデータ容量の最大値を指定できる。
上限に到達したときの挙動は maxmemory-policy
で指定できる。
ポリシー | 説明 |
---|---|
noeviction | エラーを返す(主には書き込みやDELなどの操作) |
allkeys-lru | LRUで削除 |
volatile-lru | expireがセットされているデータをLRUで削除 |
allkeys-random | ランダムで削除 |
volatile-random | expireがセットされているデータをランダムで削除 |
volatile-ttl | ttlが短いデータから削除 |
volatile-lfu | expireがセットされているデータをLFUで削除 |
allkeys-lfu | LFUで削除 |
※ volatile-*
は削除できるデータがない場合は、エラーを返す。
RedisのLRUアルゴリズム
厳密なLRUを実現するにはメモリが必要なため、Redisでは擬似的なLRUアルゴリズムを実装している。 maxmemory-samples
で指定した数のサンプルを取得して、それらの時間が一番古いものを削除する。
LFU(4.0からサポート)
LRUのように擬似的な実装がされている。Morris Counterという1オブジェクトあたり数ビットだけでオブジェクトのアクセス頻度がわかる確率的なカウンターを利用している。
頻度は0-255で与えられ、lfu-log-factor
で頻度を増加させるのにどれだけのアクセスが必要かを指定し、lfu-decay-time
で頻度が減衰する時間を指定する。
トランザクション
悲観的ロック
MULTI
- EXEC
コマンドで、順番に連続で実行されることが保証される(シングルスレッドなので独立性が担保)。アトミック性も保証できる。
AOLでログに書き込む際には、一度の write(2)
システムコールでディスクにsyncしようとするが、Redisサーバやプロセスが途中でクラッシュしたりした場合は、トランザクションの一部のみ書き込まれる可能性がある。その場合は、リスタートしようとするとエラーで終了するので、 redis-check-aof
で部分的に書き込まれたトランザクションを削除してリスタートできる。
楽観的ロック
WATCH
コマンドを使えば実現できる。 WATCH
コマンドを実行してから、 EXEC
を実行するまでに修正された場合は、エラーが発生する。
WATCH
コマンドの注意事項
- WATCHしたクライアントによってMULTI-EXEC間に書き換えられた場合は失敗する。
- WATCHしたクライアントによってMULTI前に書き換えられた場合は成功する。
- WATCHからEXECまでの間にkeyがexpireされた場合は、そのまま実行される。
- コネクションが切れた場合は、UNWATCHの状態になる
クライアントサイドキャッシュ
Redis6.0からサポート。クライアント側で
- default mode:
- サーバ側で、どのキーがクライアントでキャッシュされているかを管理して、修正されたらメッセージを送り、クライアントがキャッシュを削除する
- サーバ側で、どのクライアントがどのキーをキャッシュしているかを管理しないといけないので、サーバ側で余分にメモリが必要
- Broadcasting mode
- 修正されたら、クライアントキャッシュを削除するようにクライアントにメッセージを送る
- subscribeするprefixを指定することができる
- サーバサイドでは、prefixがマッチするクライアントに対してメッセージを送り、keyを管理する必要はない。
コネクションが切れた場合は、キャッシュを削除する。
大量のデータのインサート
ファイルを作って、pipeモードで挿入するのが良い。
アプリケーションのloopで挿入すると、round-trip分の無駄な通信が発生するので、遅い。
cat data.txt | redis-cli --pipe
パーティション
実装方法
- クライアントサイド
- プロキシ
- クエリールーティング
デメリット
- 複数のキーにまたがる操作がサポートされていない
- 複数のキーにまたがるトランザクションは不可能
- 1つのキーで大きなデータを持つ場合は分離できない
- ノードの増減でリバランスが走るので、複雑。
Pre-sharding
を使えば解決できる
データストアとして使う場合は、リバランスを行うにはダウンタイムが発生するので、キーとノードのmappingを固定しなければならない。キャッシュとして使う場合は、オンラインでリバランスを実行できる。
Presharding
リバランスを行うのは複雑なので、事前にシャーディングを行えばよい。
Redisノードは軽いので、一つのサーバで始める場合でもRedisノードを多数立ち上げて、シャーディングを行っておく。リソースの追加が必要になれば、新しいサーバにRedisノードを移せばよい。
実装
- Redis Cluster: 基本的にはデファクト
- Twemproxy: 少しの複雑性を伴う。複数ノード用意すればSPOFにならない
- consistent hashing
セカンダリインデックス
ZSETはスコアが同じ場合は値の辞書順にソートされる。
ZRANGEBYLEX
を使えば、値から絞ることができる
- 検索ワードのサジェスト
- フォロー関係のグラフ
データ型
Redis keys
- 長いキーは良くない
- メモリを喰うし、検索にも時間がかかる
- 長いならハッシュ化した方がよい
- 最大サイズは512MB
SETコマンド
すでに値があるかどうかで保存するかどうかのオプションがある。
# mykeyに値がないとき > set mykey newval nx (nil) > set mykey newval xx OK
List
データ構造としてはLinkedListで実装されているので、先頭や最後尾の要素の取得、挿入、削除を一定時間で取得できる。中間の要素を取る場合でパフォーマンスが重要な場合はSortedSetsを検討すべき。
pollingを実装する場合は、 BRPOP
や BLPOP
が便利。
集合型データの場合は、要素挿入時にキーが存在しない場合は自動的に初期化され、要素削除時にキーが空になる場合は自動的に削除される。また、存在しないキーに対して LLEN
などの読み込みコマンドや削除系のコマンドを実行すると、存在するかのように振る舞う(この場合0を返したりする)。
Sorted sets
並び順は、スコア -> 値の辞書順の順番で評価される。
スキップリストとハッシュテーブルの両方を持つデータ構造からなる。そのため、追加時の計算量は O(log(N))
で、取得時はすでにソート済みなので何もしなくてよい。
Bitmaps
主な用途は以下
- リアルタイム分析
- 例えば1時間ごとに、アクセスしたかどうかを記録
- 省スペースかつ高パフォーマンスなboolean値の保存
Twitter demo
PHPの例で、一つのLinuxサーバで10万リクエストを100のクライアントで並列で実行すると、平均で5msのレイテンシーのパフォーマンスが出たそう。
Replication
レプリケーションがどのように行われるか
レプリカがマスターにつながれると、 PSYNC
コマンドでレプリケーションIDを渡して、差分のコマンドを受け取り、同期する。
マスター側にレプリケーションIDから差分がわからない場合は、以下のようにフルバックアップをとる。
- スナップショットを作成するためにRDBファイルの生成を開始するとともに、新しいコマンドはバッファにため始める。
- RDBファイルが完成したら、レプリカにファイルを送信し、レプリカはディスクに保存。
- ディスクからメモリに読み込み終わった後にバッファに溜まったコマンドを受け取り処理をする。
Replication id
Replication idは、リスタートしたり、masterに昇格した際にランダムに生成される。offsetによってその間の時系列を把握できる。Replication idが切り替わる際には、2つ保持しておき、切り替わる前のデータをレプリカを
レプリカの接続状況によって書き込みを禁止する
データロスの可能性を減らすために、レプリカが一定以上に正常な場合にのみ書き込みを許可することができる。
Redisではレプリカがマスターに対してpingすることで死活監視を行う。マスターはレプリカが最後にpingした時刻を保存しておき、設定した時間内にpingされたかどうかで判定する。そのため、厳密なデータロスを防ぐことは保証されていない。
- min-replicas-to-write: 接続が確認できるレプリカの最小数
- min-replicas-max-lag: 最後にpingしてからどれぐらいのラグまでは正常な状態とみなすかどうか
expireの取り扱い
node間で時刻がずれていると、expireの扱いがノード間でずれてしまう可能性がある。
- レプリカでは直接expireの処理は行わず、マスターがexpireしたDELコマンドを同期することでexpireさせる
- しかし、同期が遅れてexpireしているべきオブジェクトをレプリカで読み込まれると矛盾が生じるため、データの整合性を担保できるように読み込み時のみ、論理的なexpireした結果をレプリカは返す
永続性
メモリが揮発する可能性があるので、永続性を担保するにはバックアップが必須
- DBに保存する
- リカバリ時のパフォーマンスはよい
- データを一部失う可能性がある
- 大きなデータを書き込む際にCPU負荷が上がる
- AOL: 全ログを保存する
- 確実に再現できる
- データ量はDBより大きくなってしまう
- fsyncの頻度によってパフォーマンスは左右される
セキュリティ
- 文字エスケープという概念がないから、NoSQLインジェクションは起こらない
- シークレットはconfigに平文で保存して、Redisサーバにさえアクセスできなければ悪用されない。忘れたときは、そこを見ればいいので値は長い方がセキュア。
- 実行可能なコマンドを制限できる。もしくは
rename-command
を使って、空文字とかに上書いて実行できないようにする
Redis Sentinel
モニタリング、通知、自動フェイルオーバー、サービスディスカバリなどを提供し、Redisの可用性を向上させる仕組み。自身は分散システムからなっていて、複数のノードで監視することで死活監視の偽陽性を防いだり、自身の可用性を向上させられる。
設定によるが最低2つのノードで合意が得られるとフェイルオーバーを実行させるため、1つのノードが稼働しなくても問題ないように3つ以上のノードで構成すること。
Latency
ネットワーク
- コネクションをできるだけ維持する
- MSET, MGETなどのコマンドやパイプラインを使ってラウンドトリップを減らす
シングルスレッド
multiplexingを使って一つのプロセスで全リクエストを処理している。
Node.jsもシングルスレッドだがパフォーマンスは十分出ている。これは、システムコールでブロックされないように設計されているから。
厳密にはシングルスレッドではなく、遅いI/O処理をバックグラウンドで行っている。
コマンド
SORT
, LREM
, SUNION
などのコマンドは速くはないので、必ずコマンドの計算量をドキュメントで確認すること。
KEYS
は特にパフォーマンスが悪いので、あくまでもデバッグ目的で使うこと。代わりにSCAN
を使うこと。
AOF, disk I/O
AOFは write(2)
と fdatasync(2)
の2つのシステムコールを使う。
ディスクへの書き込みの頻度は appendfsync
の設定によって変わるが、他のプロセスでディスクI/Oがないようにするのが望ましい。
一般的にfsyncしている同じファイルへのwriteはブロックされる。 everysec
に設定されてる場合、Redisではfsyncが行われてるとき2秒まではwriteの処理はバッファーしておくが、そのあとはwriteを実行するため、遅くなる可能性がある。
その他
- Linuxではtransparent huge pagesをオフにすること。
- expiresは同時刻で多数のオブジェクトのTTLを設定しないこと。
- Redisがexpireしたオブジェクトを削除するときに、通常20件サンプリングした中で、25%以上がexpireしていた場合は、25%以下になるまで削除し続けるため。
Redisクライアント
コネクションの最大数は設定で指定できる。ただし、ファイルディスクリプタの最大数が小さい場合は、異なる値に設定される(ログにエラーが出力される)。
タイムアウト
デフォルトではアイドル時間が長くても、コネクションは切れない設定になっている。
configで設定できるが、全てのコネクションをチェックするのにO(N)時間かかるので、パフォーマンスを優先して厳密な時間を保証はしていない。
シグナルハンドリング
- SIGTERM, SIGINT
- 即座に終わるのではなく
SHUTDOWN
コマンドを実行したときと似た挙動を起こす - コマンドの実行完了次第すぐに終了
- RDBファイルに保存失敗した場合は、終了しない
- 即座に終わるのではなく
- SIGSEGV, SIGBUS, SIGFPE, SIGILL
- ログファイルにバグレポートを生成
- シグナルハンドリングを解除して、自身で同じシグナルを送って終了する
- RDBの子プロセス等がkillされた場合
- 永続性が担保できないので、READのみ受け付けて書き込み操作はエラーを返すようになる
次のアクション
ソースコード読むか、他のNoSQLを調べる。
「Effective Java 第3版」を読んだ
- 作者:Joshua Bloch
- 発売日: 2018/10/30
- メディア: 単行本(ソフトカバー)
目的、モチベーション
Javaの理解を深める。
全体の感想
冗長な表現が多く読みにくいが、知らなかったことも多かったので読んで良かった。Java特有でない項目も結構あるので、省略してもよい項目も結構あった。
Javaは歴史があるが故に言語自体に負債もあり、その負債を回避するための項目もあり、辛みを感じた。
業務で扱う場合は、必須レベルな本ではあると思うので、他の言語経験者は2冊目ぐらいに読むには良い本だと思った。
目次
- 目的、モチベーション
- 全体の感想
- 目次
- 概要
- 次のアクション
概要
第1章 はじめに
第2章 オブジェクトの生成と消滅
項目1 コンストラクタの代わりにstaticファクトリーメソッドを検討する
項目2 多くのコンストラクタパラメータに直面した時にはビルダーを検討する
引数が多くなるとバグのもとになるし、コンストラクタの種類がどんどん増えていく。
また、JavaBeansパターンだと、不変性が担保できない。
public class Sample { // 不変性を担保できる private final int size; private final String color; private final String brand; private final String category; public class Builder { // require private final int size; private final String color; // optional private String brand = ""; private String category = ""; public Builder(int size, String color) { this.size = size; this.color = color; } public Builder brand(String brand) { this.brand = brand; return this; } public Builder category(String category) { this.category = category; return this; } public Sample build() { return new Sample(this); } } private Sample(Builder builder) { this.size = builder.size; this.color = builder.color; this.brand = builder.color; this.category = builder.category; } } // 可読性も高い Sample sample = new Sample.Builder(0, "blue"). brand("brand").category("category").build();
項目3 privateのコンストラクタがenum型でシングルトン特性を強制する
enumは特に簡潔に書ける。
public enum Singleton { INSTANCE; public void hoge() {} }
項目6 不必要なオブジェクトの生成を避ける
できるだけ自動ボクシングされた型よりも、プリミティブ型を使うなど。
項目7 使われなくなったオブジェクト参照を取り除く
参照を配列内の要素を null
にしないとメモリが開放されない。
陥りがちなのは、以下の3パターンが多い。
- 独自のメモリを管理しているとき
- キャッシュ(
WeakHashMap
を使うと、自動で取り除いてくれる) - リスナー、コールバック(弱参照
java.lang.ref.WeakReference
を使うべき)
項目8 ファイナライザとクリーナを避ける
ファイナライザは実行が保証されないので、避ける。
オブジェクトの生成から開放まで数十倍のオーダーでコストがかかる。
項目9 try-finallyよりもtry-with-resourcesを選ぶ
try-finally
では、 finally
内で例外が発生すると、 try
内のエラーが捕捉できなくなる。
try-with-resources
を使えば簡潔になる上に、スタックトレースに追加される。
第4章 クラスとインタフェース
項目15 クラスとメンバーへのアクセス可能性を最小限にする
カプセル化のメリットなどが書かれていた。
項目17 可変性を最小限にする
但し、オブジェクトの生成にコストがかかる場合は、可変を許可することを考える。
項目18 継承よりコンポジションを選ぶ
継承でoverride等をすると、スーパークラスの変更による挙動の保証が難しい。ラッパークラスを作り、メンバーとしてインスタンスを保持して必要な転送メソッドを実装した方が安全。
項目19 継承のために設計および文書かする、でなければ継承を禁止する
継承によって、オーバーライドするメソッドが、想定していない箇所に影響を及ぼす可能性があるので、危険。
やるなら、副作用がでないと確証できるところだけオーバーライドする(現実にはかなり難しい)こと。
protectedメソッドで公開するのは最小限に抑え、複数のサブクラスのテストを書くこと。
これらを遵守し始めると、継承のメリットがなくなるので、基本的にはやらない方がベター。
項目20 抽象クラスよりインタフェースを選ぶ
複数の異なる抽象クラスを継承しないといけない場合、階層関係が生じてしまう。
項目24 非staticのメンバークラスよりstaticのメンバークラスを選ぶ
4種類のネストしたクラスがある。
- staticのメンバークラス: ネームスペースがあるだけで、親クラスへはアクセスできない。基本的にはこれを使うべき。
- 非staticのメンバークラス: 親クラスのインスタンスへ関連付けられ、アクセスできる。したがって、参照も持つのでGCにも負荷がかかる。
- 無名クラス: メソッド内に属しているべきで、1箇所からのみインスタンスを生成すべきで、型がすでに存在している場合に使うべき。
- 内部クラス: メソッド内に属しているべきで、1箇所からのみインスタンスを生成すべきで、型がすでに存在していない場合に使うべき。
第5章 ジェネリックス
項目31 API柔軟性向上のために境界ワイルドカードを使う
PECS(producer-extends, consumer-super)の規則に則る。
public void pushAll(Iterable<? extends E> src) { for (E e: src) { push(e) } } public void popAll(Collection<? super E> dst) { while (!isEmpty()) { dst.add(pop()) } }
型パラメータがメソッド宣言中に一度しか現れない場合、それをワイルドカードで置き換えた方が柔軟性のあるAPIとなる。
しかし、以下のようなswapメソッドは素直にはコンパイルできないので、コツが必要。
// コンパイルエラー: public static void swap(List<?> list, int i, int j) { list.set(i, list.set(j, list.get())) } public static void swap(List<?> list, int i, int j) { swapHelper(list, i, j) } private static <E> void swapHelper(List<E> list, int i, int j) { list.set(i, list.set(j, list.get())) }
第6章 enumとアノテーション
項目34 int定数の代わりにenumを使う
Stringから変換する実装
// Implementing a fromString method on an enum type private static final Map<String, Operation> stringToEnum = Stream.of(values()).collect( toMap(Object::toString, e -> e)); // Returns Operation for string, if any public static Optional<Operation> fromString(String symbol) { return Optional.ofNullable(stringToEnum.get(symbol)); }
メンバーに応じて関数などの振る舞いを変えたい場合、switchだとメンバーを追加した際に漏れる可能性があるのでよろしくない。
privateなenumを定義して、それをメンバーに持つように強制する。
// The strategy enum pattern enum PayrollDay { MONDAY, TUESDAY, WEDNESDAY, THURSDAY, FRIDAY, SATURDAY(PayType.WEEKEND), SUNDAY(PayType.WEEKEND); private final PayType payType; PayrollDay(PayType payType) { this.payType = payType; } PayrollDay() { this(PayType.WEEKDAY); } // Default int pay(int minutesWorked, int payRate) { return payType.pay(minutesWorked, payRate); } // The strategy enum type private enum PayType { WEEKDAY { int overtimePay(int minsWorked, int payRate) { return minsWorked <= MINS_PER_SHIFT ? 0 : (minsWorked - MINS_PER_SHIFT) * payRate / 2; } }, WEEKEND { int overtimePay(int minsWorked, int payRate) { return minsWorked * payRate / 2; } }; abstract int overtimePay(int mins, int payRate); private static final int MINS_PER_SHIFT = 8 * 60; int pay(int minsWorked, int payRate) { int basePay = minsWorked * payRate; return basePay + overtimePay(minsWorked, payRate); } } }
項目36 ビットフィールドの代わりにEnumSetを使う
EnumSet
の存在自体知らなかった。
項目37 序数インデックスの代わりにEnumMapを使う
EnumMap
の存在自体知らなかった。
第8章 メソッド
項目49 パラメータの正当性を検査する
- @throws
- Javadocに記載できる(ex.
@throws FileNotFoundException 指定のファイルが見つかりません
)
- Javadocに記載できる(ex.
- Objects.requireNonNull
- 引数が
null
のときにNullPointerException
を投げてくれる
- 引数が
- assert
- 起動時に
java -ea
などオプションをつけてON/OFFを切り替えることができる
- 起動時に
項目50 必要な場合、防御的にコピーする
private final
などのメンバーでもimmutableでない可能性がある。
java.util.Date
はimmutableではないので、基本的には Instant
を使うべき。
public class Hoge { private final Date date; /* 下記で書き換えられる可能性があるのでインスタンスをコピーする Date date = new Date() Hoge hoge = new Hoge(date) date.setYear(2009) ※ cloneだとsubclassが返る可能性があるので避ける */ public Hoge(Date date) { this.date = new Date(date.getTime()); } // hoge.date().setYear(2009)などで書き換えられる可能性があるのでインスタンスを生成 public Date date() { return new Date(date.getTime()); } }
項目52 オーバーロードを注意して使う
期待していない挙動を起こすもとになるので、基本的には同じ引数の数を持つメソッドは定義しないこと。
第9章 プログラミング一般
項目60 正確な答えが必要ならば、floatとdoubleを避ける
- 9桁を超えない =>
int
- 18桁を超えない =>
long
- 18桁を超えうる =>
BigDecimal
- 内部で
float
とdouble
の処理を行ってくれる
- 内部で
項目61 ボクシングされた基本データよりも基本データ型を選ぶ
基本データ型に対するボクシングされた基本データの特徴
- valueは同じでもインスタンスは別のものになる
- 値が同じでも
==
でfalse
が返る
- 値が同じでも
- nullableなのでNullPointerExceptionが起こりうる
- 時間と空間効率が劣る
項目63 文字列結合のパフォーマンスに用心する
文字列の結合は、 +
よりもStringBuilderを使ったほうがパフォーマンスが良い。
第10章 例外
項目73 抽象概念に適した例外をスローする
低レベルの例外は、使う側の関心に応じて高レベルの例外に変換して返すべき。
使う側で、詳細なレベルの例外の取り扱いをすべきでない。
try { ... // Use lower-level abstraction to do our bidding } catch (LowerLevelException e) { throw new HigherLevelException(e); }
項目77 例外を無視しない
基本的には、例外をcatchで潰さず、適切に処理するかログを吐くかなど対応しないといけない。
それでも稀に意図的に無視するケースでは、 ignored
を使って明示する。
try { numColors = f.get(1L, TimeUnit.SECONDS); } catch (TimeoutException | ExecutionException ignored) { // Use default: minimal coloring is desirable, not required }
第11章 並行性
項目78 共有された可変データへのアクセスを同期する
別スレッドでの値の変更を正しく参照するには、同期が必要。synchronized経由で参照、書き込みを行えばよい。
volatile修飾子は相互排除は行わないが、フィールドを読み込むスレッドから最後に書き込まれた値が見えることを保証する。
// 不完全: ++は読み込みと書き込みの2つの操作からなるため、同時にアクセスされると同じ値が生成されうる // volatileの代わりにsynchronizedを使うべき private static volatile int nextSerialNumber = 0; public static int generateSerialNumber() { return nextSerialNumber++; } // better private static final AtomicLong nextSerialNum = new AtomicLong(); public static long generateSerialNumber() { return nextSerialNumber.getAndIncrement(); }
第12章 シリアライズ
項目85 Javaのシリアライズよりも代替手段を選ぶ
攻撃的な操作を含むオブジェクトやコストのかかるオブジェクトをデシリアライズさせる脆弱性のもとなので極力使わず、JSONやprotobufの使用を検討すること。
どうしても使わないといけない場合は、 java.io.ObjectInputFilter
を使って対象とするclassを絞ること。
項目86 Serializableを細心の注意を払って実装する
実装自体は容易だが、クラスの互換性を担保しないといけなくなったりするので、長期的にはコストがかかる。
項目88 防御的にreadObjectメソッドを書く
コンストラクタ内で値の検証を行っているクラスは、シリアライズする際にデフォルトでは検証されない。
readObjectメソッドで、final修飾子は取り除いた上で防御的にコピーして、そのあとに検証を行って保護すること。
項目89 インスタンス制御に対しては、readResolveよりenum型を選ぶ
シングルトンパターンでは、enumの方が簡単に安全性を担保できる。
項目90 シリアライズされたインスタンスの代わりに、シリアライズ・プロキシを検討する
直接シリアライズの実装を行わず、シリアライズ用のプロキシとなるクラスを作成して、そのクラス経由でシリアライズさせると、安全かつ簡単。
class Hoge { private final Date date; private void readObject(ObjectInputStream stream) throws InvalidObjectException { throw new InvalidObjectException("Proxy required"); } private void writeReplace() { return new Proxy(this); } private static class Proxy implements Serializable { private final Date date; Proxy(Hoge hoge) { this.date = hoge.date; } private void writeReplace() { return new Hoge(date); } private static final long = 11111111111111111L } }
次のアクション
- 作者:Joshua Bloch
- 発売日: 2018/10/30
- メディア: 単行本(ソフトカバー)
「IntelliJ IDEAハンズオン――基本操作からプロジェクト管理までマスター」を読んだ
目的、モチベーション
vimが一番好きだが、Javaの開発とイマイチ相性が良くない気がして、Intellijを使っていてあまり使いこなせてないので。
全体の感想
ものすごいカスタム方法が載っているのかなと思っていたが、あまり触れられていなかった。
IDE上でgitやDBの使い方を知りたい方は買ってもいいかもしれないが、ショートカットのコマンドはネットの記事で十分な気がした。
目次
概要
第3章 ファイルの編集
3.2 編集・補完
- Postfix completion
arg1>arg2.if
と入力すると、ifの構文に変換される
- Expand Selection
Option + ↑
で、ダブルクォートや括弧のなかを選択できる
第5章 プロジェクト内の移動(Navigation)
5.1 シンボル間のNavigation
- シンボル定義箇所へジャンプ:
Command + B
- ジャンプ前のコードに戻る:
Command + [
5.2 ファイルのNavigation
- 直近のファイルを一覧:
Command + E
5.3 ディレクトリのNavigation
- ナビゲーションバーにフォーカス:
Command + ↑