AIに必要な倫理原則

生成人工知能(AI)は、凄まじい勢いで世界に広がっています。社会システムを変えるほどの破壊的イノベーションであり、早くも不正行為や悪用が懸念され、これまで以上に格差を広げ、人間の尊厳を傷つける可能性も否めません。本来、開発企業が担うべき責任は大きいはずですが、多くは自らの利益最大化のために責任を丸投げし、壮大な社会実験をしている感があります。
生成AIの特徴を3つ挙げるとすれば、多点・多目的開発、スピード、世界同時経験です。1つ目の多点・多目的開発は、マイクロソフトやグーグルなど多くの企業、つまり多点で開発がされているということです。競争が過熱すると同時に、多目的に開発が進んでおり、波及先が広く、汎用性が高いため、2次的な開発も急速に進んでいます。技術が展開する先があまりにも広くなっています。
2つ目は、開発から公開までのスピードです。これまでの科学技術はこの期間が一定程度あり、倫理的な対処が必要になれば、社会的に浸透する前にアセスメントをする努力が重ねられてきました。万能細胞やゲノム編集ベビーなど科学技術により生じた課題を経験し、開発の初期段階からアセスメントすることの重要性が認識されてきましたが、生成AIを巡る展開は早すぎるほど早くなっています。
3つ目の世界同時経験は、チャットGPTに代表されるように、世界中の大人数の人々が効果をほぼ同時に、かつ直接に経験をすることができます。しかも億を超えるほど多くの人々が、日々仕事や勉強に直接のインパクトがあることを実感しています。これらの特徴は、いずれも生成AIの制御を困難にする要素となっています。
生命倫理などの分野では、倫理的問題を含む科学技術が開発された際に行われるモラトリアム期間があります。しかし生成AIにとって、冷静に考える時間としては意味がありますが、開発が営利企業である以上、自制はまず不可能と思われます。AIの進化は続いているため、ある程度の未来を見通し、その上で余裕をもった予防原則に従ったルール作りが必要となります。科学技術が社会に受け入れられ共存するためには、3つのポイントがあります。
1つ目は、倫理的な問題を把握し、開発の初期段階から関与することです。2つ目は、開発される技術や製品の質を管理し、将来にわたって製造責任を担うこと、そして3つ目は、社会との対話を継続して行うことです。チャットGPTは見事にどれも未達成です。開発から公開までのスピードと、製造責任は互いに関連がありますが、これが十分に担保されないと、科学技術に対するガバナンスは十分に働きません。特に事前にリスクをある程度予想し、それを回避するためのアセスメントを整備・実行しておかないと、起こりうるリスクに対して予防原則の措置がとれません。革新的な技術開発に伴う莫大な利益によって、とかく倫理は置き去りにされがちです。
米ハーバード大学ロースクールのジェシカ・フェルド氏らのグループは、AIガイドラインを分析し、共通する8項目を示しています。個人のプライバシー、説明責任、安全性とセキュリティー(第三者からの侵害)、透明性と説明可能性、公平性と無差別性、人間による制御、専門家の責任、人間の価値の促進です。東京大の横山広美教授らは、AIの倫理面を測定する8つの尺度としてオクタゴンメジャメントというレーダーチャートの形式で可視化しています。
現代社会におけるAIのような新規技術の開発は、上流からの関与という、早い段階から社会に開かれ、問題を共有し議論することが必須になっています。ルールを作る上で、市民参加は欠かせません。企業内にこうした倫理的側面を監視するグループをしっかりと設け、経営判断に直接生かしていく体制の構築も必要となります。

(2023年5月9日 日本経済新聞)
(吉村 やすのり)

カテゴリー: what's new   パーマリンク

コメントは受け付けていません。