ジェネレーティブAIは技術開発者の間でも懸念を呼び起こしています。

1 min read
ロイターファイルの写真
OpenAI と ChatGPT のロゴは、2023 年 2 月 3 日に撮影したこの図にあります。

ChatGPT やその他の生成 AI ツールは、情報空間に新たな脅威を提供します。

米国リサーチ会社のユーラシアグループ(Eurasia Group)が去る1月に発表した「2023年最高のリスク」は、技術的な「大量破壊兵器」を習近平(Xi Jinping)政権2位、ロシア1位に続いて3位に挙げた。

この報告書は、「虚偽の情報が繁栄し、社会的結束、商業、民主主義の既に貧弱な基盤である信頼がさらに侵食される」と述べています。

ChatGPTを開発する米国のスタートアップであるOpenAIでさえ、虚偽情報の生成について懸念を表明しました。

OpenAIやその他の機関は、1月に「AIが生成した虚偽情報のリスクを最小化するための描写はない」という報告書を発表し、(AIベース)影響作戦の脅威に対応します。

ジェネレーティブAIで誰でも簡単に誤った情報を作成できるようになったという事実が懸念を呼び起こしました。

このような誤った情報に関する問題は、すでに日本に現れている。 9月26日、台風が日本中部を襲った大雨被害を被ったツイートには、水に浸かった建物のイメージと「ドローンで捉えた静岡県の洪水被害イメージだ。 本当にひどいです。」

「ひどい」、「すぐに助けなければならない」というツイートへの返信の中には口コミがあります。

しかし、そのイメージは偽物であり、「楽しい」ために作られたとポスターは読売新聞に言った。

ポスターは、イギリスに拠点を置くAI会社が開発した無料ツールに、英語で「flood」や「Shizuoka」などのプロンプトを入力して、ツイートに含まれる画像を生成しました。

偽の画像についてのニュースが出た後、松野弘和(Hirokazu Matsuno)官房長官は記者会見で「噂による混乱を防ぐことが重要だ。 私たちは、人々に事実に基づいていない情報に警戒するように頼みます。」

AIが生み出した虚偽情報は世論操作に悪用されたりもした。 ロシアのウクライナ侵攻の途中、ボロディミル・ジェレンスキーウクライナ大統領が市民に降伏を促す偽の映像がオンラインに登場した。

日本国際大学経済学科副教授の山口真一(Shinichi Yamaguchi)は「今後、虚偽情報が指数関数的に増加することには疑いの余地がない」と話した。 「既存システムが対処できない可能性があり、社会全体に混乱を引き起こす可能性があります。」

ChatGPTのようなサービスはしばしば、AIシステムの知識ベースが制限されているトピック領域で不正確または偏向された情報を提供します。

東京大太田國弘副総長は4月3日、東京大ウェブサイトに載せた「ジェネレーティブAI(Generative AI)」というタイトルの文書で、ChatGPTを使用するのは「話すことを知っている人と話すのと同じだ」と話した。 。

これらのシステムで生成されたテキストはあまりにも自然に表現され、誤った情報を見つけるのが難しい場合があります。

ChatGPT が広くなり、ユーザーが正確な情報を確認せずに間違った情報を共有すると、社会に誤った情報があふれる可能性があります。

AIが生成した情報と人間が生成した情報を区別できる技術が必要です。

東京大学研究チームは6月、国際学術大会でAIが生成した映像を70~90%の精度で感知できる技術を発表して注目を集めた。

実際とはわずかに異なる生成された大量の画像を処理して、検出精度を高めました。

「AI生成情報を透かしするなど、開発者主導の対策に加えて、インターネットプラットフォームは、ホスティングするコンテンツがAI生成かどうかを確認し、誤用を解決する必要があります」とJF Oberlin University教授のKazuhiro Tairaが語った。

これらのサービスユーザーのコンピュータ使用能力も重要です。

ササハラ・カズトシ東京工科大学コンピュータ科学科学部教授は、「積極的にコンテンツを確認しなければ、ユーザーがだまされることができる」と述べた。 [Computer] AIが生成する情報の性質を理解するには、ChatGPT時代の文解力が必要です。



READ  Nintendo Direct Mini:パートナーショーケースに表示されているすべて
Nakama Shizuka

"フリーランスの学生。微妙に魅力的な料理の達人。トータルベーコンの先駆者。旅行の第一人者。自慢のオーガナイザー。"

You May Also Like

More From Author

+ There are no comments

Add yours