【中止】“説明可能・信頼できるAI”の開発とその活用方法

60,500 円(税込)

※本文中に提示された主催者の割引は申込後に適用されます

※銀行振込、会場での支払い

このセミナーの申込みは終了しました。


よくある質問はこちら

このセミナーについて質問する
開催日 10:30 ~ 17:15 
締めきりました
主催者 株式会社 技術情報協会
キーワード AI(人工知能)   機械学習・ディープラーニング
開催エリア 全国
開催場所 Zoomを利用したLive配信※会場での講義は行いません。

★なぜその答えを出したのか! AIの意思決定をどのように検証するか!!★何が出力結果に影響を与えているのか...判断根拠を人が分かるように説明する方法とは!!

セミナー講師

1.千葉工業大学 人工知能・ソフトウェア技術研究センター 上席研究員 吉川 友也 氏2. 武蔵野大学 データサイエンス学部 データサイエンス学科 准教授/(同)EigenBeats 代表社員 CEO データサイエンティスト 中西 崇文 氏 3. 東京工業大学 データサイエンス・AI全学教育機構 特任教授 鈴木 健二 氏

セミナー受講料

  1名につき60,500円(消費税込み、資料付) 〔1社2名以上同時申込の場合1名につき55,000円(税込)〕

受講について

■ Live配信セミナーの視聴環境について

  • 本講座はZoomを利用したLive配信セミナーです。セミナー会場での受講はできません。
  • 下記リンクから視聴環境を確認の上、お申し込みください。 → https://zoom.us/test
  • 開催日が近くなりましたら、視聴用のURLとパスワードをメールにてご連絡申し上げます。
  • セミナー開催日時に、視聴サイトにログインしていただき、ご視聴ください。
  • Zoomクライアントは最新版にアップデートして使用してください。
  • Webブラウザから視聴する場合は、Google Chrome、Firefox、Microsoft Edgeをご利用ください。
  • パソコンの他にタブレット、スマートフォンでも視聴できます。
  • セミナー資料はお申込み時にお知らせいただいた住所へお送りいたします。お申込みが直前の場合には、開催日までに資料の到着が間に合わないことがあります。ご了承ください。
  • 当日は講師への質問をすることができます。可能な範囲で個別質問にも対応いたします。
  • 本講座で使用される資料や配信動画は著作物であり、録音・録画・複写・転載・配布・上映・販売等を禁止いたします。
  • 本講座はお申し込みいただいた方のみ受講いただけます。
  • 複数端末から同時に視聴することや複数人での視聴は禁止いたします。
  • Zoomのグループにパスワードを設定しています。
  • 部外者の参加を防ぐため、パスワードを外部に漏洩しないでください。万が一部外者が侵入した場合は管理者側で部外者の退出あるいはセミナーを終了いたします。

セミナープログラム

 <10:30〜12:00>【第1部】ブラックボックス機械学習モデルの判断根拠を説明する技術  千葉工業大学 吉川 友也 氏

【講演趣旨】ニューラルネットワークのような複雑な機械学習モデルを用いることで高精度の予測が可能になった一方で、機械学習モデルはブラックボックス化が進み、モデルの振る舞いの理解が困難になっている。本講演では、ブラックボックス機械学習モデルにおける判断根拠を説明する技術について代表的な手法を紹介すると共に、我々が研究した、効率的にモデルに忠実な説明を生成する技術についても紹介する。

【講演項目】1.機械学習の基礎知識 1-1.教師あり学習 1-2.ブラックボックス設定2.説明可能AIとは 2-1.説明可能AIの社会における需要 2-2.説明手法の分類 2-3.説明可能AIの用途 2-4.説明の具体例3.代表的説明手法 3-1.Local Interpretable       Model-agnostic Explanations (LIME) 3-2.Shapley Additive Explanations (SHAP) 3-3.ブラックボックスモデルの説明における課題4.効率的にモデルに忠実な説明を生成する技術 4-1.入力の入れ子構造を活用した説明技術5.まとめと将来展望

【質疑応答】

 <13:00〜15:00>【第2部】説明可能なAI(XAI)、信頼できるAIの技術開発と重要性  武蔵野大学/ (同)EigenBeats 中西 崇文 氏

【講演趣旨】2023年9月7日に開催された広島AIプロセス閣僚級会議では、高度なAIシステムに関する透明性、偽情報、知的財産権、プライバシーなどのリスクが指摘された。これを受け、特に透明性と偽情報を判断する技術的手段として、説明可能なAI(XAI)の研究が一層求められている。XAIの実現により、さらにAIと人間の協働や信頼性を高めることが求められている。本講演では、エンドユーザやビジネスユーザにおいて、XAIが求められるシーンを説明した上で、具体的にXAIによって、AIの振る舞いや出力の根拠が説明可能になることとはどういうことか、それによってどのような影響があるかについて述べる。

【講演項目】1.AIと人間との協働や信頼性を高めるために必要なこと2.説明可能なAI(Explainable AI;XAI)とは一体何か3.XAIによって実現できること4.XAIの具体的な利用シーン5.世界の動向6.XAIによるAIと人間との協働社会【質疑応答】

 <15:15〜17:15>【第3部】説明可能AIと機械学習における公平性と活用のポイント  東京工業大学 鈴木 健二 氏

【講演趣旨】説明可能なAIとは、AIの判断根拠を人間にわかるように説明する技術である。AIはブラックボックスと言われ、人間がAIの判断根拠を理解することが難しい。AIの判断根拠の説明は、AIを利用する人間にとって重要な技術的課題である。また、機械学習における公平性は、AIによる意思決定において非常に重要な課題となっている。データやAIのバイアスによる性別、年齢、人種などの差別を低減させるための技術が注目されている。本講座では、説明可能なAIと機械学習における公平性についての技術を解説する。

【講演項目】 1.AI倫理問題2.AIトップカンファレンスの動向3.機械学習における説明性と精度4.説明可能なAIとは5.説明可能なAIの技術分類6.説明可能なAIの各手法7.協力ゲーム理論と機械学習8.説明可能なAIのツール9.羅生門効果10.注意機構による精度向上11.データのモデルへの影響度12.モンテカルロドロップ13.生成AIによる説明14.公平と平等、社会での差別15.グループ間公平性と個人間公平性16.再犯防止予測AI、採用でのAI利用17.AIでの公平性を数式で表現18.バイアスの原因と緩和アルゴリズム

【質疑応答】