ChatGPTの影響で変化する人間の言葉遣いとコミュニケーション:標準化と個性の狭間で
AIによる言語変化が顕在化 ChatGPTのリリースから18ヶ月後、人々の言葉遣いに著しい変化が見られている。マックス・プランク・ヒューマン・デベロップメント研究所の研究者たちは、アカデミックチャンネルの約28万本のYouTube動画を分析し、この時期には「meticulous」(慎重な)、「delve」(深く探求する)、「realm」(領域)、「adept」(熟練した)などの言葉の使用が、ChatGPTが偏愛する言葉との相関関係があることが示された。特に「delve」が学術的な会話の中で頻繁に使われるようになり、「ChatGPTがここにいた」という標識のような役割を果たしているという。 AIの影響は、単に語彙だけではなく、話し方のトーンや感情的な表現にも及んでいる。コーンウェル大学の研究では、チャットでのスマートリアプライ機能使用が増えたことで参加者間の協力や親密感が高まったが、パートナーがAIを使用していると疑う人はその相手を協力的でないと感じた。これは、言葉の選択から得られる印象が重要であることを示している。 人間らしい信号の喪失 モル・ナーマン教授は、AIを利用したコミュニケーションで失われている人間の信号を3つのレベルに区分した。基本的な人間らしさの信号、注意と努力の信号、そして能力の信号だ。例えば、「I’m sorry you’re upset」という平仄のない言葉と、「Hey sorry I freaked at dinner, I probably shouldn’t have skipped therapy this week」という人間味のある言葉の違いは、後者が脆弱性や個人的な背景を示している点にある。 AIによって言葉遣いが「正確」になる一方で、個々の言語的特徴や地域固有の表現が消失し、信頼が失われかねないという問題がある。カリフォルニア大学バーリー校の一研究では、非アメリカ標準英語の使用者に対してAIがステレオタイプや誤解に基づいた応答をすることが明らかになった。「Singlish」(シンガポール英語)を使用したユーザーからのフィードバックでは、AIの応答が過剰に方言を強調し、不自然で恥ずかしいとの指摘があった。 市場と未来の展望 AIの影響は、プロフェッショナルなメールテンプレートやフォーマルなプレゼンテーションのような標準化と、個人的・感情的な場面での本物の表現の間で分裂の兆しを見せている。ここには3つの核心的な緊張関係が存在する。学者たちが「delve」を避ける早期反発や、人々がAI風の表現を避ける動きは、同質化の自粛が行われる可能性を示唆している。また、AIシステム自体がより表現的かつパーソナライズされたものになることで、現在のAI音声の問題が軽減されるかもしれない。 最も深刻なリスクは、AIによって言語的な均一性だけでなく、私たち自身が考えや表現の意識的な制御を失うことです。将来、AIの影響がさらに増すことは避けられないが、それを通じて個々の奇抜な表現や感情的な複雑さを大切にし、Communicationが人間特有のものとして認知され続けるかどうかが重要な問いとなる。 業界の反応 モル・ナーマン教授は、「言葉的选择不仅反映了我们的身份,还塑造了我们的思维。如果我们不再主动表达自己的想法,而是依赖AI来为我们表达,我们可能会更容易被说服,甚至失去自我控制。”と警告している。AIがcommunicationsの多様性を保護しつつ、人間に近い表現力を獲得することで、信頼回復の道筋は見えてくるだろう。コーンウェル大学は、AIと人間の相互作用における信頼形成について継続的に研究を行い、より良い解決策を見出すべく努力している。