あなたが読もうとしている記事は人工知能によって書かれた可能性があります

6 年前

見出し

おすすめリスト

Dao Wei

特色图像

超神経質で

AIが素晴らしい作品を書けるようになったら、新しい時代の雰囲気を感じますか?

人間よりも編集が上手なAIが登場

話を始めて、残りの部分を相手に書いてもらうと、困惑してしまう人もいるかもしれません。しかし、それを AI に任せたら、どれだけうまくいくでしょうか。

最近、OpenAIは「現実的な」記事を書くことができる自動テキスト生成モデルを発表しました。

この AI モデルは、人為的に始まりを与えることで、それを素早く補完して完全な原稿にすることができます。文章の読みやすさや流暢さについては、事前に知らされなければAIが作ったものだとは思えないかもしれません。

たとえば、次のような冒頭を与えます。科学者たちは衝撃的な発見をしました。ユニコーンのグループがアンデス山脈の人里離れた未踏の谷に住んでいるということです。さらに驚くべきことに、これらのユニコーンは完璧な英語を話します。

このAIモデルによって生成された記事は以下のとおりです(一部)。

これらの生き物は独特の角を持っており、科学者はそれらをオウィディウスのユニコーンと名付けました。 4 本の角を持つ銀白色のこの生き物は、これまで科学的に知られていませんでした。

これらの生き物の起源は不明ですが、人類文明が存在する前に、人間とユニコーンの交配から生まれたと考える人もいます。 「これは南米では非常に一般的です」とペレス教授は言う。

DNA検査が、彼らが消滅した種族の子孫であることを確認する唯一の方法かもしれない。

リアルな原稿を書くことができるほか、読解、Q&A、記事の要約の作成、テキストの翻訳などの機能も備えています。

翻訳: フランス語から英語へ

データセット: WMT-14 Fr-En


原文

予期せぬ、不利な状況だからこそ、楽しい時間を過ごせる絶好のチャンスです。

人工的な

ある男性は、無料のヘルニア手術を受けられたことで再び仕事ができるようになると説明した。

AI翻訳

ある男性は、約束されていた手術手当金では旅行に行けないと私に言いました。

このAIはちょっと強いです

この AI モデルは GPT-2 と呼ばれ、GPT の「アップグレード版」です。残酷なことに、今回は以前のバージョンと同じ原理で、より多くのトレーニング データが使用されていますが、GPT モデルは 10 倍以上のデータ量でトレーニングされます。パラメータの値も 10 倍大きくなります。

GPT-2 は、入力テキストを分析することによって基本的なテキスト処理機能を実行できます。これは、文内の次の単語を予測するプログラムの機能である言語モデリング タスクに優れています。タイトルを付けるだけで、AI が記事の残りの部分を、偽の引用や統計も含めて完璧に作成します。

誰かがそれについてこう言いました。「短編小説が欲しいですか?最初の一行を与えるだけで、予期せぬエキサイティングな物語が得られます。適切なプロンプトがあれば、長編小説にさえ変えることができます。」

GPT-2 のトレーニングの目標は単純です。テキスト内の前の単語が与えられた場合、次の単語や文を予測します。トレーニング データ セットの多様性により、多数の異なるフィールドでテキスト生成を完了できます。

技術的には新しいものはないが、鉱物レベルの訓練を受けており、それがモンスターレベルの新しい道具を生み出したのだ。

OpenAIの研究者らは、GPT-2はさまざまなドメイン固有のデータセットに対する言語モデリングテストで優れた評価スコアを達成したと述べている。ドメイン データで特別にトレーニングされていないモデルであるため、そのパフォーマンスはこれらの専用モデルよりも優れています。

NLPの台頭?

数か月前に Google が発表した言語モデル BERT は業界で広く注目を集め、しばらく画面を更新し続け、その 3 億個のパラメータが 11 件の記録を更新しました。しかし、今回OpenAIが発表したGPT-2はさらにひどいもので、パラメータ数は15億に達します。

以前の最先端の人工知能モデルと比較して、GPT2 モデルは「12 倍大きく、15 倍のデータセットとより広い範囲を備えています」。これは、Reddit 上のニュース リンクから 3 票以上を集めて選択された約 1,000 万件の記事のデータセットでトレーニングされました。学習したテキストデータは最大40GB!

BERT が NLP (自然言語処理) のトップ指標を大惨事にする前は、OpenAI の GTP はトップの専門家であり、新しい GPT-2 トレーニングのデータ量がこの分野を直接的に新たな高みに引き上げました。

BERT と GPT-2 により、NLP の道は間違いなく繁栄するでしょう。どのように人類に利益をもたらすかについては、まだ慎重な課題です。

アレン人工知能研究所の研究者であるアニ・ケンバビ氏は、GPT-2 に興奮する理由の 1 つは、テキストの予測がコンピューターにとって「スーパー タスク」と考えられるためであり、この課題が解決されれば道が開かれるだろうと述べています。知恵へ。

それはパンドラの箱だろうか?

残念ながら、このような強力なツールはまだリリースできません。その背後にある考慮事項は、フェイクニュースの生成、悪意のあるコメント、スパムの作成など、それがもたらす可能性のある隠れた危険性です。このような兵器が違法に使用されれば、壊滅的な結果がもたらされます。

開発者もこの点を懸念しています。 OpenAIの研究者らは、何が起こるか予測できないと述べている。彼らはまだ探索中です。さまざまな理由から、彼らはプロジェクトについて何を共有するかについて非常に慎重であり、現在は主要なベースコードとトレーニングデータを公開していません。

彼らは、注意すべきもう 1 つの理由は、誰かが人種差別的、暴力的、女性蔑視的、または虐待的なテキストを GPT-2 に提供した場合に危険であることだと指摘しています。結局のところ、それはインターネットトレーニングに依存しています。

このテクノロジーが大きな変化をもたらすことは否定できませんが、どんなツールも悪意のある者の手に渡れば悲惨な結果をもたらすでしょう。

また、GPT-2 によって書かれたテキストは新たに生成されるため、コピー&ペーストの問題はなく、以前の検出方法を使用した検出とトラブルシューティングはより困難になり、これが潜在的な脅威となります。

ここで重要な質問が来ます。この記事は AI によって書かれたのでしょうか?