生成AIと報道

世界新聞・ニュース発行者協会の世界各国の記者や編集者ら計101人に生成AIの影響を尋ねた調査結果によれば、49%のメディアが生成AIを使っており、回答者の70%が役に立つと感じています。主な使い道は、文章の要約や情報の整理、校閲、翻訳などです。しかし、使い方を誤れば、報道の信頼性を根底から揺るがしかねません。
対話型生成AIであるChatGPTによるデータ収集をブロックする報道機関が相次いでいます。書籍などと同じく、ニュース記事にも著作権があります。ChatGPTが学習データとして報道のコンテンツを無償で利用するのは、著作権侵害に当たるとの考えからです。米ニューヨーク・タイムズ、CNN、英ガーディアンなど欧米メディアのほか、日本にも動きが広がっています。読売新聞、日本経済新聞、西日本新聞がChatGPTからのアクセスを許可しない設定をしています。
生成AIは情報源を選別しないため、ニュース記事をベースにした回答にも偽情報が紛れ込む恐れがあります。ChatGPTなどでニュースを知ろうとする人が増えれば、真偽不明の情報が事実であるかのように広まる可能性があります。報道機関のサイト閲覧者が減り、経営基盤を揺るがす可能性も指摘されます。
オープンAIと連携を進めるAP通信は、生成AIのガイドラインを公表しています。配信するコンテンツの作成には使わない、生成AIが出力した情報は未検証の情報として扱う、機密情報や機微に触れる情報を入力しないといった内容が柱です。ガイドライン公表の動きは広がりつつあります。共通するのは、コンテンツ作成には使わない、編集や省力化やアイデア出しに使うことはある、必ず人間が監督するといった点です。
生成AIについても、人間がどうコントロールするかが重要になります。不確かな情報が蔓延るのを防ぐため、生成AIの学習用にニュース記事を提供する選択肢はあると思われます。そのためには、報道機関の知的財産権を尊重するルールを早急に整備する必要があります。

(2023年10月19日 毎日新聞)
(吉村 やすのり)

カテゴリー: what's new   パーマリンク

コメントは受け付けていません。