NLP2018 マイ・ベスト3

先週言語処理学会年次大会(NLP2018)に参加してきました。過去最多1000人近くの参加者があったようでAIビッグウェーブをひしひしと感じました。メモ代わりに個人的にササッた発表を3つ紹介します。(NLPは予稿集をWebで公開していないので、興味のある方は著者に直接コンタクトしてみて下さい。学会の予稿集ページにしばらくしたら掲載されると思います。)

E1-3 複数の述語間の関係を考慮した End-to-End 日本語述語項構造解析(松林さん@東北大)

基本的に深層学習は食傷気味なのですが、この発表は面白かったです。言葉を解析しようとすると、こっちがこうなるならあっちはこうなるべき、というような制約条件を課したくなることがよくあります。機械学習を単純に使うとこのような関係性を取り込むのは難しいのですが、この発表では pooling + attention をうまく使ってそういった制約を自然に表現できるネットワークを構築しています。他のところでも応用が効きそうなテクニックだと思います。

E4-2 それでも学生はポストエディターになれるのか?ニューラル機械翻訳(Google NMT)を用いたポストエディットの検証  (大西さん@関大)

翻訳サービスを提供する会社では、ゼロから人手で翻訳するのではなく、いったん機械翻訳した結果を人手で編集する post-edit というアプローチが取られることがあります。この発表では、ニューラル翻訳導入前後の Google 翻訳の結果を学生に post-edit させたときに、体感の作業量がどれくらい変化するか、最終的な訳文の品質はどうなるかなどを調べた結果が報告されました。一番面白かったのは、ニューラル翻訳の間違いが人間の翻訳者がおかすような間違いに近づいてきて、プロの翻訳者ではない学生には訂正するのが難しくなっている、ということでした。

機械翻訳だけを見れば人間がおかすミスに近づくのはいいことなのかもしれませんが、post-edit も含めたプロセスで考えた場合、人間が簡単に気づくミスが多い機械翻訳のほうが使い勝手がよいのかもしれません。

D7-2 メタファー写像に基づく物語文章の自動生成(松吉さん@電通大)

「盤上には人生のすべてがある」というようなことを誰かが言っていた気がしますが、人は時としてあるモノを見てそこに物語を見たりします。(妄想と言っても良いかもしれません。)松吉さんの発表は(大雑把に言えば)、その考えを物語の自動生成に応用できるのではないか、という提案でした。実際に、コンピュータ画面上でボール(といっても単なる丸印)が迷路を抜けるアニメーション(というよりパラパラ漫画)を見て物語を書く、という課題を学生にやってもらったところ実に様々な設定の物語が生まれてきたそうです。(ちなみにデータは公開予定とのこと)

考えてみれば、産総研や東工大でやられている、株価や為替のチャートから市況文を作る、スポーツ選手の動作追跡データから実況文を作る、というタスクも本質的には同じことをやろうとしているとも言えます。(コンピュータからすれば、信号が、株価なのかスポーツ選手の動きなのか迷路をさまよう丸印なのか、区別がつきません。)データを見るとどうしてもそれを記述する、という方向に発想が向いてしまいますが、そこはもう少し視野を広く取ったほうが面白い研究ができそうです。

番外編

チュートリアル 手話と日本語の関係(坊農さん@NII)

運悪く深層学習のチュートリアルと時間がぶつかってしまったため、聴講者は少なかったのですが、日本の手話をめぐる状況がとてもよくわかりとても勉強になりました。日本語は明治以降の教育(強制)により均一化が進んでしまいましたが、手話はろう者への教育方針が二転三転したり、殆どの人が日本語しか喋らない社会の中で生きていく(いかざるをえない)といった事情により、今もまだ激しく変化を続けているというのは目からうろこでした。とても丁寧な説明でまさに「チュートリアル」という内容でした。

 

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト /  変更 )

Google+ フォト

Google+ アカウントを使ってコメントしています。 ログアウト /  変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト /  変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト /  変更 )

%s と連携中