第10回Elasticsearch勉強会の資料を読む

Elasticsearch勉強会(Elastic Tokyo User Group) #elasticsearchjp というものがあり、今までに20回以上勉強会が開催されている。

www.meetup.com

Elasticsearch勉強会の資料をまとめてくださっているページがあったので、そこを参考に第1回から順番に資料を読んでいく。

qiita.com

資料を読む目的は

  • 他の方のElasticsearchのまとめ方を知る
  • Elasticsearchの活用事例を知る
  • Elasticsearchを図解的に学ぶ
  • もやもやしてる部分(プライマリシャードや分散システム)を解決したい
  • Elasticsearchに詳しい人を知る

第10回Elasticsearch勉強会

Elastic{ON}報告+有償プラグインの紹介/@johtani

elastic{ON}報告と商用プラグインの紹介 // Speaker Deck

感想

AWSで実現するelasticsearchの大規模運用/@mats116

Elasticsearch x Autoscaling(AWS)

感想

  • 4億のデータ 全体構成
  • Shard数=Node数
  • AutoScailing・冗長化
  • プラグインelasticsearch-cloud-aws
  • ノード名をhostnameにする

Spark in small or middle scale data processing with Elasticsearch/@chibochibo03

Spark in small or middle scale data processing with Elasticsearch

感想

  • スタンバイ(求人検索サイト)の検索エンジンを作っている
  • ElasticsearchとCloudSearchでElasticsearchを選んだ理由
  • elasticsearchとscalaの話
  • やってみて思ったこと クエリがJSONで辛い・要件が安定するまでスキーマを何度も作り直す。この作業が結構辛い
  • 分散処理 Apache Spark, Elasticsearch for Hadoop

Elasticsearchのサジェスト機能を使った話/@ktaro_w

Elasticsearchのサジェスト機能を使った話

感想

  • サジェスト機能の話
  • Mappingの作成 前方一致の「Completion Suggester」利用したパラメータ index_analyzer(インデキシング時のアナライザ設定), search_analyzer(検索時のアナライザ設定)
  • プラグインkuromoji,elasticsearch-analysis-icu
  • 検証用テストツールGatling
  • サジェスト機能の学習コストはそこまで高くないが日本語の資料は割と少ない

Elasticsearchで作る形態素解析サーバ/@shinsuke_sugaya

Elasticsearchで作る形態素解析サーバ

感想

  • Analyze API 指定したAnalyzerでテキストを分解してくれる
  • Extend _analyze API
  • 最小限の情報だけ返す+複数のAnalyzeを1回で実行するプラグインを作成した

開発効率UP! Elasticsearch Client Tool 作ってみた/@9215

開発効率アップ!Elasticsearch Client Tool 作ってみた // Speaker Deck

感想

  • 開発の経緯
  • Elasticsearch Client for Sublime Text3
  • めちゃくちゃ便利そう

変わり種プラグインの作り方/@rjkuro

Elasticsearch 変わり種プラグインの作り方

感想

fessで検索ログ可視化しようと思ったらうまくいかなかったメモ

fessの公式ドキュメント 検索ログの可視化の設定(http://fess.codelibs.org/ja/11.4/config/kibana.html#id2)を読みながら試してみたのだけれど、どうも上手く行かなかったのでメモ

https://www.elastic.co/downloads/kibana に従い、Kibana 5をインストールします。 Kibana に Fess で用いる Elasticsearch を認識させるため、 Kibanaのディレクトリ/config/kibana.yml の elasticsearch.url を以下のように編集します。

elasticsearch.url: "http://localhost:9201"

localhost は環境に合わせて設定してください。

上記はすんなりできた。

Fess を起動した状態でKibanaを起動し、http://localhost:5601 にアクセスします。

Kibana のホーム画面が表示されるので、まずは可視化対象のインデックスを指定します。

5601にアクセスしたがstatus redになってホーム画面が表示されなかった。ES5ではなくES6しかインストールしていなかったことを思い出し、ES5をインストールした。その後kibana,fess,elasticsearchをすべて起動させたら5601にホーム画面が表示された。

Index name or pattern のパターンに fess_log と入力し、Time-field name で requestedAt を選択して、Create ボタンを押下します。 次に、デフォルトの設定をインポートします。 画面上部から Settings、その後 Objects を選択します。 ここで Import ボタンを押下すると、ファイルを選択するウィンドウが表示されるので src/main/assemblies/extension/kibana/fess_log.json を選択し、インポートします。

f:id:sakura818uuu:20171111175328p:plain

Importが見つからなくてどこかなと探していたが、おそらくIndex Patterns/Saved Objects/Advanced SettingsのSaved ObjectsのImportを指していると思う。fess_log.jsonを選択したが、Saved Objects: Saved objects file format is invalid and cannot be imported.というエラーがでてしまった。

f:id:sakura818uuu:20171111175653p:plain