見出し
おすすめリスト
情報
Dao Wei
超神経によって
—-
楽しみ、楽しみ、春節がやってきます。今年の春節には何か楽しみなことはありますか?親が結婚や出産を進める前に、家庭では行儀よくしておいたほうがいいでしょう。
たとえば、家族のために春節の対句を書いたり、親戚や友人に贈るためにいくつかの対句を作成してカスタマイズしたりできます。ここでは、対句を読んで理解するのに役立つ 3 つのロボットを用意しています。
9012 年前、私は突然対句を書く AI を探すことにしました。全能のインターネットの助けを借りて、3 つの AI ツールを見つけました。
Microsoft のCouplet AI は、Microsoft Research Asia の Web 製品です。 その起源は、2004 年の自動対句のアイデアに遡ります。
長年の変更を経て、2015 年に最新バージョンがリリースされました。このバージョンでは、対句のペアリング作業を迅速に完了できます。
それでも満足できない場合は、対応する単語ごとに複数の選択肢が表示されます。最も使いやすいのは、必要に応じて好きな言葉を埋め込むことができることです。
これは隠れたエンジニアの「実践プロジェクト」だそうです。
2017年10月にリリースされました。リリース後、一部のネチズンが特別にテストビデオを録画し、bilibiliにアップロードしたため、メロンを食べる大多数の人々に予想外に愛されました。
使い方も非常にシンプルで、最初のリンクを渡してすぐに 2 番目のリンクに返信するだけで、交渉の余地はありません。
著者は、インターネットから数百万セットのカプレット データを取得し、seq2seq モデルを使用して現在のツールをハングし、完成後、独自のデータ セットとモデルを Github でオープンソース化しました。
これは、AI カプレットの分野では新参者と考えられており、1 週間前に誕生し、パブリック アカウントに接続された AI モデルです。著者は、対句のコーパスを見たことがきっかけでこの作品を作成しました。
使用する方法は、公式アカウントの背景で「上のリンクの内容を上のリンクに入力してください」と返信すると下のリンクが取得されます もちろん出力できない場合もあります。
最初の行を入力し忘れた場合は、バックグラウンドでチャットボットが動作します。
これら 3 つの AI ツールの効果を比較するために、数回のテストを実施しました。出力の順序は、Microsoft カプレット、Wang Bin カプレット、AINLP カプレットの結果でした。
このラウンドでは、WeChat ロボットが少し理解不能だったことを除けば、他の 2 人のプレイヤーはごく普通でした。
校長の行動に関しては、AINIPのロボットが結果を出せなかったので、はははは、本当にAIは賢いようです。
このラウンドでは、3 つがそれぞれ特徴を持っています。Microsoft の「Trigeminal Nerve」は死ぬほど笑わせてくれますが、AINLP の「Supernatural Craftsmanship」も少し説明が難しく、2 番目の「Freedom」は少し味気ないように思えます。
この古典的な文に関して、対句に対する王彬の反応はいたずらすぎたに違いありません。 (実際、Microsoft もオプションで標準的な回答を提供しています)
家に近いところでは、まだ春節の対句を書かなければなりません。
しかし、この最終ラウンドでは、結果から判断すると、ドアに掛けることができます。
これらのガジェットを読むと、基本的に中国の伝統文化では、古代の詩、アンチテーゼ、対句だけでなく、これらの言語単位にも強い規則性があり、機械を通じて学習したり簡単に自動化できるものに非常に適していることがわかります。
Encoder-Decoder フレームワークは、非常に幅広い応用シナリオを備えたテキスト処理分野の研究モデルとみなすことができます。
Encoder-Decoder フレームワークは直感的に理解でき、一つの文(または章)から別の文(または章)を生成するのに適した一般的な処理モデルとみなすことができます。文ペアの場合、目標は入力文 X を与え、Encoder-Decoder フレームワークを通じてターゲット文 Y を生成することを期待することです。 X と Y は同じ言語でも、2 つの異なる言語でも構いません。そして、X と Y は独自の単語シーケンスで構成されます。
エンコーダは、その名前が示すように、入力文 X をエンコードし、非線形変換を通じて入力文を中間意味表現 C に変換します。
デコーダ Decoder のタスクは、文 X の中間意味表現 C と以前に生成された履歴情報 y1、y2….yi-1 に基づいて、時刻 i に生成される単語 yi を生成することです。
このようにしてそれぞれの yi が生成されるので、システム全体では入力文 X を基に対象文 Y を生成しているように見えます。
このシナリオは、典型的な Encoder-Decoder フレームワーク アプリケーションの問題です。必要なのは、Encoder-Decoder フレームワークの特定のモデルを構成することだけです。たとえば、Encoder と Decoder の両方で RNN モデルを使用します。
このモデルをトレーニングするには、大量の対句データを見つけるだけで済みます。その後、このモデルを使用して上部の対句を入力すると、マシンが自動的に下部の対句を生成できます。
Encoder-Decoder フレームワークにアテンションを追加すると、生成される下位行の品質が大幅に向上します。その理由は、下位行で特定の単語を生成するときに、間違いなく対応する単語を見つける必要があるためです。上の行は生成の重要な参考情報として非常に重要です。
たとえば、上の行に「三」という単語が表示された場合、アテンション モデルにより、2 行目の対応する単語「一」を生成する際に、上の行の単語「三」に注目することができることがわかるはずです。対応する文字は漢字の数字である必要があります。
これを行うために Encoder-Decoder を使用すると、漢字間の対照的な関係をよく学ぶ必要がありますが、生成された 2 行目のセマンティクスの一貫性を確保する方法は、必ずしも良い解決策であるとは限りません。これはどういう意味ですか?これは、マシンが最初の対句「Feng Yun San Chi Sword」を見たとき、次の内容を解釈する可能性が非常に高いことを意味します: 「Rain and Wind Ten-foot Sword」 それぞれの単語は非常にきれいに一致していますが、全体としては、セマンティクスはあまり調整されていないようです。 (注: 実際、この 2 行目を本当に思いついたとしたら、よく考えると非常に英雄的ですよね。これは実際、想像力を通じて連続する単語を適切な文脈に組み合わせる人間の意識的な能力と関係しています。)
本質的に、Encoder-Decoder はデコード段階で言語モデルを学習でき、言語モデルの導入が、生成された下位リンクの可読性と言語の一貫性にとって非常に役立つことは明らかです。
しかし、トレーニング データがそれほど大きくない場合は、大量の古代の詩を使用して詩言語モデルをトレーニングすることによって、Decoder の生成段階で、ノード t が多数の候補となる漢字を生成するたびに、この言語を使用すると考えられます。モデル + ビーム検索は、生成されたカプレットに特定の意味的一貫性を保証できる必要があります。
対句の生成に関しては、実際には、上部と下部の対句の対応する漢字の問題があり、言語モデルと同様の後処理ステップとしてフィルタリングすることもできます。
RNN を使用して古代詩の言語モデルを構築し、この RNN 言語モデルを通じて最初の対句を自動的に生成します。
写真の対句を完全に自動生成
さらに、対句については、水平方向の対句をどのように生成するかという小さな問題がまだ残っています。一般に、対句には、上下の対句の主な目的を要約するための横のコメントを付ける必要があるためです。
実際、この考え方は、上部リンクと下部リンク全体をエンコーダの入力として考えることができ、これはエンコーダ-デコーダを使用する考え方と似ています。 +要約作成に注意してください。