米NGOのFuture of Life Instituteは3月22日、OpenAIが開発・運用している「ChatGPT」の最新版「GPT-4」より強力なAIシステムの開発を6ヶ月間一時停止することを求める共同書簡を発表した。著名人を含む約1万人がすでに署名している。
【参考】【イタリア】データ保護当局、ChatGPTに一時停止命令。GDPR違反の疑い。EU全域に飛び火か(2023年4月4日)
同NGOは2017年2月、AI開発に関する「研究課題」「倫理と価値観」「長期的課題」の3つに関する23の原則をまとめた「アシロマ原則」を採択。今回の共同書簡でも、アシロマ原則に基づき、AI開発には、相応の配慮とリソースをもって計画・管理されるべきものだが、現状では、理解不能・予測不能・制御不能の開発競争に陥っていると主張した。
署名した著名人は、イーロン・マスク氏、スティーブ・ウォズニアック氏、ユヴァル・ノア・ハラリ・ヘブライ大学教授、スチュアート・J・ラッセル・カリフォルニア大学バークレー校教授、クリス・ラーセン氏、エヴァン・シャープ氏、クレイグ・ピーターズ氏、ダニエル・アレン・ハーバード大学教授等。
アシロマ原則は、AIは人々に役立ち豊かな暮らしをもたらすという前提に立っている。その上で、人間の尊厳、権利、自由、そして文化的多様性に適合するように設計、運用することや、プライバシーの保護、軍拡競争への関与の阻止、全人類のための活用等を掲げている。
今回の共同書簡では、AIの研究所と独立した専門家は、一時停止期間中に、独立第三者専門家が厳格に監査・監督する高度なAIの設計・開発に関する一連の共有安全プロトコルを共同開発すべきと提唱。AI開発を「一歩後退」させ、ブラックボックスモデルを解消していかなければならないとした。
さらに、政府当局とも協力し、強固なAIガバナンスモデルの開発を劇的に加速させなければならないとした。具体的には、AIに特化した新しく有能な規制当局の創設、高度な能力を持つAIシステムと大規模な計算能力の監視・追跡、本物と合成を区別しモデルの流出を追跡するための認証と透明性、堅牢な監査と認証エコシステム、AI被害に対する責任ルールの整備、AI安全技術研究に対する強固な公的資金、AIが引き起こす経済的・政治的混乱(特に民主主義の)に対処するための十分なリソース確保を挙げた。
また東京大学の太田邦史・理事・副学長(教育・情報担当)も4月3日、「生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について」という論考を発表。同公開書簡の内容にも触れ、「仕組み上、書かれている内容の信憑性には注意が必要」「機密情報や個人情報などを安易にChatGPTに送信することは危険」と使い方に注意喚起した。「本学では学位やレポートについては、学生本人が作成することを前提としておりますので、生成系AIのみを用いてこれらを作成することはできません」とも書き、東京大学ではAIのみを用いてレポート作成することはできないとも明言した。
インターネット分野の人権NGOのRanking Digital Rights(RDR)も4月4日、デジタルパワーを企業が正しく使うことの重要性をあらためて強調した。
【参考】【国際】インターネット人権団体RDR、リサーチ・ラボ創設。世界全体で活動展開加速(2022年10月24日)
【参照ページ】Pause Giant AI Experiments: An Open Letter
【参照ページ】生成系AI(ChatGPT, BingAI, Bard, Midjourney, Stable Diffusion等)について
【参照ページ】Conducting Corporate Accountability Research the RDR Way Just Got a Whole Lot Easier
Sustainable Japanの特長
Sustainable Japanは、サステナビリティ・ESGに関する
様々な情報収集を効率化できる専門メディアです。
- 時価総額上位100社の96%が登録済
- 業界第一人者が編集長
- 7記事/日程度追加、合計11,000以上の記事を読める
- 重要ニュースをウェビナーで分かりやすく解説※1
さらに詳しく ログインする※1:重要ニュース解説ウェビナー「SJダイジェスト」。詳細はこちら