ドイツ、ワルドルフの SAP 本社で6月に開催された 2023 年 SAP AI 倫理諮問委員会会議において、SAP 最高サステナビリティ責任者であるダニエル・シュミット(Daniel Schmid)が参加者を歓迎しました。
生成 AI(人工知能)機能が近年急速に進歩しています。例えば今年の SAP Sapphire Orlando では人事データを使った生成 AI 利用に関する SAP SuccessFactors ソリューションのデモを実施しましたが、SAP のお客様も、SAP アプリケーションに生成 AI 機能を早く組み込むよう熱望されています。
SAP の目下の課題は、効率的なだけでなくサステナブルで責任があり信頼できる組み込み生成 AI 機能の需要に応えることです。この複雑な課題への対応の一環が、SAP AI 倫理諮問委員会との連携です。
SAP は 5 年前、欧州の大手テクノロジー企業として初めて、学会と産業界の AI 倫理に関する独立専門家から構成される AI 倫理諮問委員会を設立しました。SAP プロダクト・エンジニアリング担当 SAP SE エグゼクティブ・ボードメンバーであるトーマス・ザウアーエシッヒ (Thomas Saueressig) が主催する当会合は、年 2 回開かれています。SAP AI グローバル倫理運営委員会と連携して AI 倫理に関する現状の課題を議論するとともに、今後の課題に先回りで対処します。この活動に基づく今年の委員は以下の通りです。
- ペーター・ダブロック (Peter Dabrock) 氏(オンライン参加):ドイツ、エアランゲン=ニュルンベルク大学、組織神学(倫理学)教授
- スーザン・リオトー (Susan Liautaud) 氏:米国スタンフォード大学、公共政策・公法講師
- ニコラス・ライト (Nicholas Wright) 氏:コンサルタント | 米国ジョージタウン大学メディカルセンター、インテリジェントバイオロジーアフィリエイトスカラー | 英国ユニヴァーシティ・カレッジ・ロンドン、名誉研究員
- ポール・トゥーミー (Paul Twomey) 氏: ICANN 創設メンバー | 豪州 STASH 共同創業者
- エマ・ルットカンプ=ブルーム (Emma Ruttkamp-Bloem) 氏:南アフリカ、プレトリア大学、人文学部哲学科、教授兼学科長
年次会議の議長は最高サステナビリティ責任者が務めます。さらに、「AI 倫理ガバナンスプロセスを実行して、第三者が SAP の AI 倫理を監視するようにし、グローバルな人権に対する SAP の貢献を考慮する」ことも、最高サステナビリティ責任者の役割であるとシュミットは述べています。
1 日目:リスクの把握
AI 倫理諮問委員会は人権を最優先事項とし、組み込み生成 AI 機能のユースケースを最初の論点としました。
会議では率直で実りの多い議論が交わされました。例えば、個人のアイデンティティが本当に保護されるのか。アプリにできること、できないことをユーザーは正確に通知されているか。同意はどうなっているか。情報が不正確な場合、個人はどんなリスクを被るのか。法的責任はどうなるか。安全なアプリを開発する責任が SAP にはあるが、どうすれば達成できるか。生成 AI が収益と効率を上げる代償として、お客様のデータや評判または SAP がリスクにさらされることになるのか、などです。
SAP は生成 AI のユースケースをすべて高リスクと見なしています。ハルシネーション(もっともらしいが不正確な AI の回答)の問題や、訓練と運用に多大な労力を要することがその要因です。また、その他のリスクとしてモデルの誤用の可能性や出力バイアスのほか、生成 AI の知的財産と著作権に関する法的枠組みが定まっていないことも挙げられます。
高リスクユースケースは高度な監視の対象となり、SAP AI グローバル倫理運営委員会の評価を受けなければ開発の継続は認められません。
例として、個人情報や機密情報の処理、意思決定の自動化、個人や個人集団に対する負の影響といった要素を評価します。また、計画中の開発領域も評価の対象です。生成 AI の文脈で SAP が高リスクと考える用途は法執行、医療、民主的プロセス、雇用、人事などですが、これらはごく一部にすぎません。
2 日目:AI 倫理に基づいて可能性を引き出す
2 日目の議題は、生成 AI に対する SAP の戦略、人権と AI に関する議論、および責任があり信頼できる AI を提供するための SAP の従業員教育の進捗についてでした。
人材育成に取り組み、十分な情報を基に開発の意思決定を下すために必要な知識、スキル、ツール、プロセスを提供することも、AI 倫理の枠組みに含まれます。また、SAP の企業 DNA に AI 倫理をより深く取り込む手法について SAP から提案があり、委員会がフィードバックを行いました。
生成 AI の可能性を余すことなく引き出す鍵は、現時点の隠れた問題と危険を把握することであり、今後の生成 AI の倫理的課題に適合・対応し課題を管理する上で SAP の AI ガバナンスの枠組みは強い立場にあると諮問委員会は結論付けています。
なお、諮問委員会の詳細な所見は SAP AI グローバル倫理運営委員会および SAP SE のエグゼクティブボードと共有しました。
ルットカンプ・ブルーム教授へのインタビュー
教授はインタビューの中で AI に関する質問に回答したほか、委員会に関する経験と言語の重要性を述べています。
Q:AI の可能性を具体化するには?
A:AI の可能性を完全に具体化するには全面的な採用が不可欠であり、全面的な採用には信頼が欠かせません。そして、倫理的なガバナンスを実施しなければ AI を信頼することはできません。
サステナブルな AI テクノロジーの条件は?
倫理的で信頼性がありガバナンスの効いた AI テクノロジーだけが、サステナブルな AI テクノロジーと呼べます。サステナブルな AI、すなわち責任を持ってガバナンスが行われる倫理的な AI を利用しない場合、評判にダメージを受け、裁判沙汰となり、最終的にはビジネスで敗れることになります。
AI 倫理を企業 DNA に取り込むため、SAP と AI 倫理諮問委員会はどのように協力していますか?
諮問委員会と連携している SAP チームは、実のところ我々を必要としていません。SAP はこうした問題を自分で解決しています。多くの場合、SAP チームは特別な訓練を受けているわけでもなく、ソフトウェアエンジニアリングのバックグラウンドのパラメーター外にいる人たちですが、構造的バイアスやアイデンティティ、偏見といった用語を理解して用いています。そして今、SAP は完全な AI 倫理体系を持っています。これは、World Benchmark Alliance における私の経験から見て、多くの企業に欠けている要素だと言えます。Web サイトで倫理に言及している企業は 22 %だけですが、SAP はその 1 社です。
指針を策定しても具体化しなければ無意味ですが、私がコンサルタントを実施した他の企業とは異なり、SAP には基準があります。すなわち、何らかの倫理的問題が発生した場合はプロジェクトを停止して最初の段階に戻るのです。
SAP は AI 倫理体系を実際に導入しています。自分が話す内容を理解し、現実化が次のステップであることも把握しています。加えて、委員会の意見にも耳を傾けています。
例えば昨年の会議では、社内における AI 倫理の影響に関する議論を SAP がどこから始めればいいのかを議論しました。また、AI 倫理の懸念からプロジェクトの再検討や停止を強いられた場合に各部門がどう感じるかも議論しました。SAP はこれに対して、好評の openSAP コース「AI Ethics at SAP」や社内の AI 倫理講演シリーズなど、多様な取り組みで応じました。SAP が現場と社内で開発部門を積極的に支援し、AI を倫理的に開発するという追加の要件に対処していることは明らかです。こうした措置が必要な理由を SAP は労力をかけて各部門に説明しています。なぜなら、AI の倫理的な開発は最終的にサステナブルな製品の開発につながるからです。
人権と AI の交点が重要な理由は?
AI のユースケースの増加は、被害と悪用の範囲拡大も招きます。先述の通り、サステナブルな AI テクノロジーの条件は倫理的かつ責任を持ってガバナンスが行われることですが、その背景には人間中心ではなく人間主導という AI テクノロジーの性質があります。
AI は洗練された数学に支えられていますが、人間のデータがなければ何の役にも立ちません。この点は十分に強調されていません。というのも、AI は人間の日常的な振る舞いを土台とし、それには当然バイアスが含まれます。アルゴリズムがパターンに依存しているため、悪い行いが増幅されるのです。善悪の判断を欠く場合、悪い行いが増幅され、全体が崩壊しかねません。AI がもたらしかねない被害と、人間のあり方に対する AI の全体的な脅威こそが、責任を持って倫理的にソフトウェアのガバナンスを行う倫理的理由です。
指針の表現は信頼にどう影響するか?
分かりやすい指針を策定するには表現が非常に重要です。自分が枠組みに含まれない指針や理解できない言語に従うことは困難です。UNESCO の AI 倫理に関する勧告はこの点で他に類を見ません。臨時の専門家チーム(私が議長を務めた)が勧告の草案を作成しましたが、その際、共通の価値観に関する様々な文言を盛り込むべく努力しました。残念ながら、外交上認知されている語彙の問題があったため、メンバー国の交渉の中でその一部は変更されています。
倫理指針を策定するグローバル企業は誰もがその指針を理解することを望みます。そして究極の願いは開発するテクノロジーがそれを利用する社会の役に立つことです。しかし、社会で伝わらない語彙で表現された指針を用いると、信頼が低下し導入範囲が限定されます。そこで重要な役割を果たすのが文化です。文化は解釈の道具であり、方針の策定と関連する議論に用いることで人々の参画意識を高められるレンズでもあります。自分の知る語彙が使われていれば、プロセスを遵守し信頼することが容易になるのです。