アプリを探すならApplivがめっちゃ便利

こんにちわ。
リエです。

先日Applivというサイトで弊社サービスの【HASH】を掲載いただきました。+゚(*´∀`*)。+゚
https://app-liv.jp/1368925370
※ Applivさんありがとうございます!

Applivは欲しい・役立つiOSアプリ(iPhone・iPad)をレビューやおすすめランキングから見つけることができるサービスです。


「ゲームアプリを探しているけど、どんなアプリをダウンロードしていいかわからないなぁ・・・」と思ったらカテゴリのゲームをチェックすれば、すぐにアプリを探すことができます。
カテゴリはランキング形式になっていて、表示も[すべて][無料][新作]と変更でき、さらには[すべて]を選択すると、おすすめ順と利用者が多い順に並び替えできるのです!便利〜(・∀・)

掲載されているアプリはアプリ詳細ページからレビューすることもできるので、他の人のレビューを参考にすることもできます。
実際アプリを使っている人のレビューって、参考になりますよね。
わたしはレビューはめっちゃ読んで参考にするタイプです。(だって気になりません??)
なので他の人の参考になればいいなとレビュー投稿は結構するのですが、アカウント登録があるとめんどうでやっぱやめようと思うことも度々・・・。
でもApplivはアカウント登録しなくてもレビュー投稿ができちゃいます。
個人的にはそれって気軽にレビューできるのでハードルが低くていいなぁと思いました。

これからもアプリを探したい時はApplivを活用しようと思います。


この春新社会人になるあなたへ

こんにちわ。
リエです。

もうすぐ新生活が始まる時期ですね。
この春ご卒業された方おめでとうございます。

新社会人になるあなたへこのブログを捧げます。

よく就職活動中の学生さんに「就職までに何をやればいいですか?」と聞かれます。
ということで、参考になるかわからないわたしの新卒時代の話しを織り交ぜながら話していこうかと思います。

わたしは専門学校卒なので大学生とは就職活動はかなり異なると思います。
学校を卒業する年の2月に国試があったのですが、昨年の夏から秋にかけて行われる模試で合格点が取れないと就職活動ができないという境遇でした。できの悪いわたしは1回も合格点が取れず(ちーん)就職活動はできないまま冬を迎えました。

優秀な子でも就職活動をできるのは10月から翌年1月まで。
大学生とはここがかなり異なりますね。
専門職なので、短い期間での就職活動が可能だったのだと思います。
業種も決まっていましたしね。

そして2月に試験、3月に卒業し晴れて4月に新社会人になりました。
社会人になるまでの約2週間は何をやったかというと、お友達と遊んだり、実技から少し離れて不安だったので家で練習などをしていました。
でも、時間に余裕があるうちにやっておけばよかったなと思うことはたくさんあります。

なので、冒頭の学生さんからの質問にはこう答えています。
「今の時間を満喫して!!」

資格の勉強とかその職種の研究とか、自分が進んでやりたいと思ったらやればいいと思います。それももちろん大事。自ら進んで学んだ知識は財産ですから。
あと下記のことは激しくおすすめします。
・入社1週間前からは生活リズムを整えておく
→これは結構大事。生活リズムって2〜3日では中々整いません。
・体力をつけておく
→業種によりますが、まじでシステム系は運動不足になります。
運動をする週間をつけておいた方が、健康的にすごくいいです。

今の時間は本当にかけがえのないものだと思うので、悔いなく過ごしてくださいね。社会人生活の方が圧倒的に長いのですから/(^o^)\ガクブル

でも社会人楽しいので、怖がらず飛び込んできてね!





Solrで日本語版Wikipediaのインデックスを作った場合のサイズをTokenizerの設定毎に調べる

はじめに

Solrで日本語の文書を扱う場合に考えなくてはならないことの一つに、Tokenizerをどれにするか、があります。ざっくり言うと、n-gram(だいたいは2-gram)にするか、形態素解析にするか、です。
それぞれの長所、短所はこんな感じです。

n-gram

長所

  • 検索漏れが少ない
  • 未知語に強い

短所

  • nより短いキーワードを扱えない
  • インデックスサイズが大きくなる
  • 検索結果のノイズが多い

形態素解析

長所

  • 検索結果のノイズが少ない
  • インデックスサイズを小さくする余地が大きい

短所

  • 未知語に弱い
  • 入力キーワードに対する完全一致検索が難しい

双方の長所・短所に出てきたインデックスサイズがどれくらいの差になるのかを日本語版Wikipediaを対象に調べてみました。

SolrにWikipediaを投入する

Wikipediaのダンプデータをダウンロード

https://dumps.wikimedia.org/jawiki/
の latest から jawiki-latest-pages-articles.xml.bz2 をダウンロードして展開しておきます。

configset準備

_default をベースに設定ファイルを用意します。

cp -r server/solr/configsets/_default server/solr/configsets/wikipedia 

wikipedia/conf/solrconfig.xml に以下を追加

<lib dir="${solr.install.dir:../../../..}/dist/" regex="solr-dataimporthandler-.*\.jar" />

<requestHandler name="/dataimport" class="solr.DataImportHandler">
  <lst name="defaults">
    <str name="config">solr-data-config.xml</str>
  </lst>
</requestHandler>

Wikppediaインポート用の DataImportHander の設定 solr-data-config.xml を
https://wiki.apache.org/solr/DataImportHandler#Example:_Indexing_wikipedia
を参考にして作成

<dataConfig>
  <dataSource type="FileDataSource" encoding="UTF-8" />
  <document>
    <entity name="page"
                processor="XPathEntityProcessor"
                stream="true"
                forEach="/mediawiki/page/"
                url="data/jawiki-latest-pages-articles.xml"
                transformer="RegexTransformer,DateFormatTransformer">
      <field column="id"        xpath="/mediawiki/page/id" />
      <field column="title"     xpath="/mediawiki/page/title" />
      <field column="revision"  xpath="/mediawiki/page/revision/id" />
      <field column="user"      xpath="/mediawiki/page/revision/contributor/username" />
      <field column="userId"    xpath="/mediawiki/page/revision/contributor/id" />
      <field column="text"      xpath="/mediawiki/page/revision/text" />
      <field column="timestamp" xpath="/mediawiki/page/revision/timestamp" dateTimeFormat="yyyy-MM-dd'T'hh:mm:ss'Z'" />
      <field column="$skipDoc"  regex="^#REDIRECT .*" replaceWith="true" sourceColName="text"/>
    </entity>
  </document>
</dataConfig>

configsetをアップロード

(cd server/solr/configsets/wikipedia/conf && zip -r - *) |curl -X POST --header "Content-Type:application/octet-stream" --data-binary @- "http://localhost:8983/solr/admin/configs?action=UPLOAD&name=wikipedia"

コレクション”wikipedia”を作成

curl 'http://localhost:8983/solr/admin/collections?action=CREATE&name=wikipedia&numShards=1&replicationFactor=1&collection.configName=wikipedia&wt=xml'

インポート開始

管理画面からインポート開始

各Tokenizerの設定

以下の4種類の設定で試してみます。
今回は手っ取り早く上記の手順の「configsetの準備」のところで managed-schema ファイルを編集しています。

CJK bigram

managed-schema の変更箇所

(略)
<pre>
    <fieldType name="text_cjk" class="solr.TextField" positionIncrementGap="100">
      <analyzer>
        <tokenizer class="solr.StandardTokenizerFactory"/>
        <!-- normalize width before bigram, as e.g. half-width dakuten combine  -->
        <filter class="solr.CJKWidthFilterFactory"/>
        <!-- for any non-CJK -->
        <filter class="solr.LowerCaseFilterFactory"/>
        <filter class="solr.CJKBigramFilterFactory"/>
      </analyzer>
    </fieldType>
</pre>
(略)
<field name="title"     type="string"  indexed="true" stored="false"/>
<field name="revision"  type="pint"    indexed="true" stored="true"/>
<field name="user"      type="string"  indexed="true" stored="true"/>
<field name="userId"    type="pint"     indexed="true" stored="true"/>
<field name="text"      type="text_cjk"    indexed="true" stored="false"/>
<field name="timestamp" type="pdate"    indexed="true" stored="true"/>
(略)

Kuromoji (mode=normal)

辞書通りの分割
(例) 株式会社→「株式会社」

managed-schema の変更箇所

(略)
<pre>
    <fieldType name="text_ja" class="solr.TextField" positionIncrementGap="100" autoGeneratePhraseQueries="false">
      <analyzer>
        <tokenizer class="solr.JapaneseTokenizerFactory" mode="normal"/>
        <filter class="solr.JapaneseBaseFormFilterFactory"/>
        <filter class="solr.JapanesePartOfSpeechStopFilterFactory" tags="lang/stoptags_ja.txt" />
        <filter class="solr.CJKWidthFilterFactory"/>
        <filter class="solr.StopFilterFactory" ignoreCase="true" words="lang/stopwords_ja.txt" />
        <filter class="solr.JapaneseKatakanaStemFilterFactory" minimumLength="4"/>
        <filter class="solr.LowerCaseFilterFactory"/>
      </analyzer>
    </fieldType>
</pre>
(略)
<field name="title"     type="string"  indexed="true" stored="false"/>
<field name="revision"  type="pint"    indexed="true" stored="true"/>
<field name="user"      type="string"  indexed="true" stored="true"/>
<field name="userId"    type="pint"     indexed="true" stored="true"/>
<field name="text"      type="text_ja"    indexed="true" stored="false"/>
<field name="timestamp" type="pdate"    indexed="true" stored="true"/>
(略)

Kuromoji (mode=search)

複合語を細かく分割
株式会社→「株式」「会社」

managed-schema の変更箇所

        <tokenizer class="solr.JapaneseTokenizerFactory" mode="search"/>

それ以外は mode=normal と同じ。

Kuromoji (mode=extended)

mode=search + 未知語を 1-gram に分割

managed-schema の変更箇所

        <tokenizer class="solr.JapaneseTokenizerFactory" mode="extended"/>

それ以外は mode=normal と同じ。

結果

インデックスサイズ生成時間
CJK5.9GB35分
Kuromoji(normal)3.1GB76分
Kuromoji(search)3.1GB83分
Kuromoji(extended)2.1GB79分

ちなみに、日本語版Wikipedia全記事のテキスト部分のサイズをカウントしてみたところ、約1.4GBでした。

まとめ

Solrで日本語版Wikipedia全記事のインデックスを作成しました。2-gramのインデックスサイズは形態素解析インデックスの約2倍になりました。

Kuromoji(extended)は未知語を1-gramに分割する分他のモードよりもインデックスサイズが大きくなると予想していたのですが、逆に30%強も小さくなりました。ここはもうちょっと調べてみる必要がありそうです。


最近の飲み物事情

こんにちわ。
リエです。

寒い日もありますが、もうすっかり春ですね。
嬉しい反面、花粉が〜!!!という感じです。
わたしは花粉症ではないのですが、年中無休の鼻炎っ子なので、1年中鼻炎と戦っています。(なぜかアレルギー検査で何もでないの!去年鼻炎に耐えられなくてレーザー手術も受けたのに治らなかったの!)

こんなわたしの鼻炎を心配して、大好きな知り合いの方から鼻炎に効くよと「べにふうき茶」というものを昨年いただきました。
本当に本当にありがとうございます(´;ω;`)
何より気持ちがすごく嬉しかったです!
もったいなくて中々開封しなかったのですが、(本末転倒ですよね;ダメなところだわ)最近毎日飲むようになりました

ちなみにべにふうきって何?という方に簡単にご説明。
〜べにふうきとは?〜
べにふうきは「茶農林44号」のことで1993年に野菜茶業研究所によって香りのいいダージリン系「枕Cd86」と「べにほまれ」と呼ばれる茶農林1号をかけ合わせて紅茶用に開発されたものです。結果的には紅茶としてはあまり注目されることはありませんでしたが、緑茶として加工することでメチル化カテキンが多く含まれ抗アレルギー効果があることに注目され、製品化され注目されるようになりました。紅茶とは加工法に違いがあるため、紅茶へ加工した際にはメチル化カテキンは含まれません。日本では紅茶の加工より緑茶の加工のほうが積極的なため、緑茶としての開発が進んだのです。
引用元:https://www.ochanosato.jp/chieinfo/ochanituite/0062/

わたしもいただくまで知りませんでしたが、アレルギーに効果があるそうです。
※あくまでお茶なので絶対にアレルギーに効果があるわけではありません。
医薬品ではありませんし、本記事は一個人の意見・感想となりますのでご了承ください。

味は普通の緑茶で美味しく飲めます。
いただいたべにふうき茶は粉末タイプなのですが、自分の好きな濃さにできるのでとても便利です。わたしは濃いめで飲むのがすき!
濃くした場合は少し時間が経つと粉末が沈殿してしまうので、スプーンを入れっぱなしにして時々混ぜながら飲んでいます。

まだ継続的に飲んでいるわけではないので、わたしのアレルギーに効果があるかはわかりませんが、もし効果がなくても味は好きなので続けて飲みたいなと思っています。

またレポートできたらと思います。
花粉症や鼻炎で悩んでいる方乞うご期待\(^o^)/


江戸堀周辺のランチおすすめ2

お昼は毎日外食のカツラです。

去年のこの時期ぐらいに会社周辺のランチおすすめを投稿したので2です。
https://blog.splout.co.jp/4672/

どうせ食べるなら美味しいものがいい!ということで今も新しいお店を開拓していっていますが、基本的には会社前が近くて楽なので週1、2ぐらいしか他の店に行っておりません。
その中でも定期的に行ってるおすすめのお店を2つ紹介します。

1つ目は「Bullet」

https://tabelog.com/osaka/A2701/A270102/27067203/

麻婆豆腐・週替わりランチ ともに1000円

ここら近辺のランチとしては価格は少し高めですが、麻婆が食べたくなったら迷いなくここに行きます!

前菜 周辺の店の前菜の中では一番好き
麻婆 そこそこ辛めで美味しい

また週替わりランチは他のお店と違って同じものがほとんど並びません!
なのでおいしそうな週替わりをこちらのインスタで見かけたら食べに行きます!
あと12時近辺は人が並んでることがあるので12時半過ぎに行くと大体さっと入れます。
https://www.instagram.com/bullet_higobashi/

2つ目は「asse plus」

https://tabelog.com/osaka/A2701/A270102/27010938/

本日のパスタランチが900円

こちら1つ目の「Bullet」に比べるとそこまで押すわけじゃないですが、パスタを食べたくなったらここに行くぐらいにはおすすめです。

前菜
メイン

以上、個人的にオススメなお店でした!

消費税増税で価格が高くなったらどうしようかと思案中…
最悪外食の頻度を下げてでも質は下げたくない今日この頃です。