セミナー情報
【第71回AIセミナー】「人工知能の倫理について」
終了しました。
人工知能の技術的発展と社会的普及に伴い、それに対する倫理的な問題が注目されています。人工知能は社会基盤を形成する汎用的技術として現代社会に溶け込みつつある一方で、そのことの是非に対して疑問や不安を持たれることもあります。人工知能を開発製造する場面、使用する場面に於いて、どのような問題があり、どのように解決されなければならいのか、人工知能の開発者のみならず、それを使用する社会全体で議論しなければいけない課題です。そこで、今回のAIセミナーでは、立場の違うご専門のお二人をお招きして、人工知能の倫理についての最近の話題をご講演いただきます。
名称 | 【第71回AIセミナー】「人工知能の倫理について」 |
---|---|
日時 | 2023年11月16日(木) 15:00 - 17:00 |
受付時間 | 接続可能時間:14:50-17:00 |
場所 | Zoomウェビナーによるオンライン開催 ※お申し込み後に自動配信されるメールにて参加URLをご案内いたします。 |
定員 | 500 |
参加費用 | 無料 |
連絡先 | 人工知能セミナー窓口 |
注意事項 ・定員になり次第締切ります。・産総研は、お送りいただいた情報をセミナー運営以外の目的には使用しません。 ・講演の録画やアップロードはご遠慮ください。 |

プログラム
15:00 - 15:05 | 開会挨拶 野里 博和(人工知能研究センター 機械学習機構研究チーム 研究チーム長) |
---|---|
15:05 - 16:00 | AI開発ライフサイクルに人間の認知バイアスが与える影響 〜AIをつくる・つかう人間を知る〜 香川 璃奈(筑波大学 講師) |
概要 AIによる意思決定支援においては、AIが人間よりも「良い」助言を提示することが暗黙に期待されています。その一方でAI開発は、常に「客観的」なプロセスではありません。AI開発に必要なデータ作成工程(いわば、AI開発の上流過程)において、人間の認知を介さないと作成できないデータ(例:病気の診断、主観的な感性や思考に関連するデータ)については、データ作成者の認知バイアスなどに起因するデータの歪みが生じる可能性があります。人間がAIを利用して意思決定を行う場面(いわば、AI開発の下流過程)においては、精度の高いAIの助言を人間が過小評価する傾向などが報告されています。また、人間の意思決定への介入は、必然的にシステム利用者の自律性を脅かす可能性があります。 この発表が、AIをつくる過程・つかう過程に認知バイアスをはじめとする人間の認知特性が与える影響を概観することで、責任あるAIを目指す議論の一助になれば幸いです。 |
|
略歴
筑波大学医学医療系講師。2012年慶應義塾大学医学部卒業。九段坂病院初期臨床研修医、東京大学大学院医学系研究科、日本学術振興会特別研究員(DC2)などを経て、2018年より現職。医師、博士(医学)。AIをつくる・つかう人間の高次認知機能に興味を持っている。 |
|
16:00 - 16:55 | 社会基盤としての人工知能 村上 祐子(立教大学 教授) |
概要 また人工知能特有のELSI課題として、 (1)専門家がどういうものなのか社会的に認定するのが非常に困難となる「専門家性の希薄化」 (2)データ設計におけるバイアス の2点を指摘したい。 |
|
略歴
Ph.D (philosophy, Indiana University). 立教大学 大学院人工知能科学研究科・文学部 教授。哲学。国立情報学研究所、東北大学を経て現職。応用哲学会会長、日本哲学会理事、科学基礎論学会理事、日本科学哲学会理事、IEEE SSIT Japan 役員、情報処理学会会員、電気情報通信学会専門委員。JST digestおよびCREST領域アドバイザ。 講演資料
PDF: 576KB |
|
16:55 - 17:00 | 閉会挨拶 野里 博和(人工知能研究センター 機械学習機構研究チーム 研究チーム長) |