スタブ 新しい研究は、人々が機械生成されたテキストを見分けることを学ぶことができることを示しています - Unite.AI
私達と接続

倫理

新しい研究は、人々が機械生成されたテキストを見分けることを学ぶことができることを示しています

公開済み

 on

人工知能 (AI) の高度化とアクセシビリティの向上により、AI が社会に与える影響について長年の懸念が生じています。 最新世代のチャットボットは、雇用市場の健全性やフェイクニュースや誤った情報の蔓延に対する懸念を伴い、こうした懸念をさらに悪化させています。 こうした懸念を踏まえ、ペンシルバニア大学工学応用科学部の研究者チームは、テクノロジーユーザーがこれらのリスクを軽減できるように努めました。

AI テキストを認識できるようにトレーニングする

彼らの 査読済みの論文は、人工知能推進協会の 2023 年 XNUMX 月の会合で発表され、人々が機械で生成されたテキストと人間が書いたテキストの違いを見分ける方法を学習できるという証拠を提供しています。

この研究は、コンピュータ情報科学部(CIS)のクリス・カリソン・バーチ准教授と博士が主導して行われた。 学生のリアム・デュガンとダフネ・イッポリトは、AI が生成したテキストが検出可能であることを実証しました。

「私たちは、人間が機械生成のテキストを認識できるように訓練できることを示しました」とカリソンバーチ氏は言います。 「人々は、マシンがどのような種類のエラーを起こすかについて、一定の仮定を立てて始めますが、これらの仮定は必ずしも正しいとは限りません。 時間が経つにつれて、十分な例と明確な指示があれば、私たちは機械が現在起こしているエラーの種類を認識できるようになります。」

この研究では、オリジナルの Web ベースのトレーニング ゲーム「Real or Fake Text?」を使用して収集されたデータが使用されています。 このトレーニング ゲームは、検出研究のための標準的な実験手法を、人々が AI を使用してテキストを生成する方法をより正確に再現するものに変換します。

標準的な方法では、参加者は、機械が特定のテキストを生成したかどうかを「はい」または「いいえ」の形式で示すように求められます。 ペン モデルは、すべて人間が書いたものから始まる例を示すことによって、標準的な検出研究を効果的なトレーニング タスクに改良します。 次に、各例は生成されたテキストに移行し、参加者にこの移行が始まると思われる場所にマークを付けるよう求めます。 研修生は、エラーを示すテキストの特徴を特定して説明し、スコアを受け取ります。

調査結果

研究結果では、参加者のスコアがランダムな偶然よりも大幅に高かったことが示されており、AI が作成したテキストがある程度検出可能であるという証拠が得られました。 この研究は、私たちと AI の関係に安心感を与え、さらには刺激的な未来を概説するだけでなく、人々が機械生成のテキストを検出できるように訓練できるという証拠も提供します。

「人々が AI に対して不安を抱いているのには正当な理由があります」と Callison-Burch 氏は言います。 「私たちの研究は、これらの不安を和らげるいくつかの証拠を提供します。 AI テキスト ジェネレーターに対する楽観的な見方を活用できれば、より想像力豊かで、より興味深いテキストを書くのに役立つこれらのツールの能力に注意を向けることができるでしょう。」

Dugan 氏はさらに、「このテクノロジーを推進できる刺激的で前向きな方向性があります。人々は盗作やフェイクニュースなどの憂慮すべき例に執着していますが、私たちは今、より良い読み手、より良い書き手になるために自分自身を訓練できることを知っています。」と付け加えました。

この研究は、機械生成テキストに関連するリスクを軽減するための重要な第一歩を提供します。 AI が進化し続けるにつれて、その影響を検出して対処する私たちの能力も進化する必要があります。 人間が書いたテキストと機械が生成したテキストの違いを認識できるように自分自身を訓練することで、AI の力を活用して、リスクを軽減しながら創造的なプロセスをサポートできるようになります。

Alex McFarland は、AI ジャーナリスト兼ライターであり、人工知能の最新の発展を調査しています。彼は世界中の数多くの AI スタートアップ企業や出版物と協力してきました。