人工知能
AI 訓練のための研究の商業化: リスクとベストプラクティス
AI の需要が増加するにつれて、高品質のデータを使用してこれらのシステムを訓練する必要性も高まっています。学術出版社は、大規模な言語モデル (LLMs) の訓練データを提供するために、研究コンテンツを商業化し始めています。 この開発は、出版社にとって新しい収入源を創出すると同時に、科学的発見のためのジェネレーティブ AI を強化していますが、使用される研究の完全性と信頼性について重大な疑問を提起しています。 これにより、重要な質問が生じます。 販売されているデータセットは信頼できるものであり、この慣行は科学コミュニティとジェネレーティブ AI モデルにどのような影響を与えるのでしょうか。
商業化された研究取引の増加
Wiley、Taylor & Francis を含む主要な学術出版社は、ジェネレーティブ AI モデルを開発しているテクノロジー企業にコンテンツをライセンスすることで、大きな収益を報告しています。 例えば、Wiley は、今年だけでこのような取引から 4,000 万ドル以上の収益を得たと明らかにしました。 このような合意により、AI 企業は多様で広範な科学データセットにアクセスできるようになり、AI ツールの品質が向上する可能性があります。
出版社からの売り文は簡単です。ライセンスにより、より優れた AI モデルが可能になり、社会に利益をもたらし、著者にロイヤリティを与えることができます。 このビジネスモデルは、テクノロジー企業と出版社の両方に利益をもたらします。 ただし、科学的知識を商業化する傾向は、特に疑わしい研究が AI 訓練データセットに浸透する場合、リスクを伴います。
疑わしい研究の影
学術コミュニティは、詐欺的な研究の問題に直面しています。 研究によると、多くの公開された研究結果は欠陥があり、偏っている、または単に信頼できないものです。 2020 年の調査では、約半数の研究者が、データの選択的な報告や設計の悪いフィールド研究などの問題を報告しました。 2023 年には、10,000 を超える論文が、捏造されたまたは信頼できない結果のため撤回されました。この数字は毎年増加しています。 専門家は、この数字は氷山の一角に過ぎないと考え、数えきれない疑わしい研究が科学データベースを巡回していることを示唆しています。
この危機は主に「ペーパーミル」によって推進されています。ペーパーミルとは、学術的な圧力に応えて、しばしば中国、インド、東ヨーロッパなどの地域で研究を生み出す影の組織です。 ペーパーミルからの論文提出が世界中で約 2% であると推定されています。 これらの偽の論文は、正当な研究のように見えるかもしれませんが、架空のデータと根拠のない結論で満たされています。 心配するべきは、こうした論文が査読を通過し、信頼できるジャーナルに掲載され、科学的洞察の信頼性を損なうことです。 例えば、COVID-19 パンデミックの際には、欠陥のある研究がイベルメクチンの有効性を誤って示唆し、混乱を生み出し、効果的な公衆衛生への対応を遅らせました。 この例は、信頼できない研究を広めることの潜在的な危害を強調しています。 ここでは、誤った結果が重大な影響を及ぼす可能性があります。
AI 訓練と信頼性への影響
LLM が詐欺または低品質の研究を含むデータベースで訓練される場合、影響は深刻です。 AI モデルは、出力の生成に訓練データ内のパターンと関係性を使用します。 入力データが汚染されている場合、出力は不正確さを永続化したり、さらにはそれを増幅する可能性があります。 このリスクは、AI によって生成された洞察が命に関わる結果をもたらす可能性のある医療のような分野で特に高くなります。
さらに、この問題は、学術界と AI に対する公衆の信頼を脅かします。 出版社が継続して契約を結ぶにつれて、販売されているデータの品質に関する懸念に対処する必要があります。 そうしないと、科学コミュニティの評判が損なわれ、AI の潜在的な社会的利益が損なわれる可能性があります。
AI への信頼できるデータの確保
不完全な研究が AI 訓練を混乱させるリスクを軽減するには、出版社、AI 企業、開発者、研究者、およびより広いコミュニティからの共同の努力が必要です。 出版社は、訓練データセットに入る前に信頼できない研究をキャッチするために、査読プロセスを改善する必要があります。 審査者に報酬を提供し、より高い基準を設定することで、改善できます。 オープンな査読プロセスは、ここで重要です。 それは透明性と説明責任をもたらし、研究に対する信頼を築くのに役立ちます。
AI 企業は、AI 訓練のために研究を取得する際に、誰と協力するかについてより注意する必要があります。 高品質の研究で知られる出版社やジャーナルと協力することが重要です。 この文脈では、出版社の実績を注意深く調べる価値があります。 例えば、論文を撤回する頻度や、査読プロセスについてどれだけオープンであるかを調べます。 選択的になることで、データの信頼性が向上し、AI と研究コミュニティ全体の信頼が築かれます。
AI 開発者は、使用するデータについて責任を負う必要があります。 これには、専門家と協力し、研究を慎重に確認し、複数の研究結果を比較することが含まれます。 AI ツール自体も、疑わしいデータを特定し、疑わしい研究がさらに広がるリスクを軽減するように設計できます。
透明性も重要な要素です。 出版社と AI 企業は、研究がどのように使用されているか、ロイヤリティがどこに行っているかについての詳細を公開する必要があります。 ジェネレーティブ AI ライセンス契約トラッカー のようなツールは、期待を寄せますが、より広く採用される必要があります。 研究者は、自分の研究がどのように使用されているかについて発言する必要があります。 オプトインポリシー、たとえば Cambridge University Press から提供されているものは、著者が自分の貢献についてコントロールできるようにします。 これにより、信頼が築かれ、公平性が確保され、著者がこのプロセスに積極的に参加することができます。
さらに、高品質の研究へのオープンアクセスを促進することで、AI 開発における 包摂性と公平性 を確保する必要があります。 政府、非営利団体、業界のプレーヤーは、重要な訓練データセットへの依存を減らすために、オープンアクセスイニシアチブを資金提供できます。 さらに、AI 業界には、データを倫理的に取得するための明確なルールが必要です。 信頼できる、徹底的にレビューされた研究に焦点を当てることで、より優れた AI ツールを構築し、科学的完全性を保護し、科学とテクノロジーへの公衆の信頼を維持することができます。
結論
AI 訓練のための研究の商業化は、機会と課題の両方を提示します。 学術コンテンツのライセンスは、より強力な AI モデルを開発することを可能にしますが、使用されるデータの完全性と信頼性についても懸念を引き起こします。 詐欺的な研究、特に「ペーパーミル」からのものは、AI 訓練データセットを汚染し、信頼性を損ない、AI の潜在的な社会的利益を損なう可能性があります。 AI モデルが信頼できるデータで構築されることを保証するには、出版社、AI 企業、開発者は、査読プロセスを改善し、透明性を高め、高品質の、徹底的にレビューされた研究を優先するために協力する必要があります。 そうすることで、AI の将来を守り、科学コミュニティの完全性を維持することができます。












