AIの信頼性確保という視点から、AI分野の意思決定者や業界リーダーが一堂に会する場として開催されたイベント「Human X 2025」についてレポートします。
川守田 慶
Alliance Manager
Business Development and Alliance Group
Hitachi Solutions America, Ltd.
2009年に現日立ソリューションズに入社後、20年まで統合システム運用管理「JP1」の開発・保守に従事。21年まで自社商材のプロモーション活動を経験した後、24年3月までブロックチェーンの自社サービス事業の立ち上げにおいてプロジェクトマネージャーとして開発に従事。24 年4月からHitachi Solutions Americaに出向。DevSecOps、DataManagement、AIにフォーカスし、トレンド調査やスタートアップ発掘を担当。
世界的にAIの利活用が広がる中、AIの信頼性確保が重要な課題です。例えば、AIが誤った情報や差別的表現など不適切な内容を出力するハルシネーションへの対応や、機密情報の漏洩リスクに対する懸念など、具体的なリスク対策が喫緊の課題となっています。さらに、現場で無断に導入されるシャドーAIへの対応や、自律的にタスクを遂行するAIエージェントに対する適切なガードレールの整備などの重要性も高まっています。これらの課題はAIの信頼性を棄損し、拡充した活用の妨げになる可能性があります。
2025年3月9日から13日に米国ラスベガスで、AI分野の意思決定者や業界リーダーが一堂に会する場として開催されたイベント「Human X 2025」では、まさにその点が主題でした。
Human X の創設者のひとりでCEOのステファン・ワイツ氏は、オープニングセッションにおいて「AIへの信頼が1年間で20ポイントも低下し、わずか39%にとどまっている」と指摘し、AIへの信頼低下に強い危機感を示しました。そして、AIへの「信頼」を構築するには「リスクを予測し、透明性を確保し、説明責任を果たすことが重要」だと訴えました。技術の信頼性に関しては「守り」の領域にとらえられがちですが、今回は信頼性の確保なしにイノベーションの推進はできないとの観点から「攻め」の領域に位置づけ、論じていました。これはオープニングセッションに続き、複数のセッションでも強調されていたことから、多くの参加者にとっての共通認識といえます。
基調講演会場の様子。AIの信頼性をテーマに、リスク管理や政策連携のあり方、
フレームワークの提案など、様々な形式で発表・議論が行われた
AIの信頼性をどう担保するのか、その問いへの答えの1つがフレームワークの導入です。米国では民間主導でフレームワークの策定が活発に行われています。Human X 2025では評価基準と開発指針の観点でフレームワークが紹介されました。
Human X のワイツ氏は、AIが社会から信頼を得るには責任ある開発が鍵であると語り、責任あるAIを評価する実践的かつ測定可能な基準を設定したフレームワーク「RAIL*」の策定に取り組んでいることを紹介しました。RAILは、AIにおける責任と信頼の全体像を明確にし、業界全体で協力して開発・運用時の責任の可視化と評価基準の策定をめざす構想です。ワイツ氏は「規制を待つのではなく、開発者とユーザー自身でAI基盤に信頼を組み込むべき」と述べ、Human Xを皮切りにRAILを業界標準に育てていく方針を示しました。
開発指針の観点では、フィードザイ社の創設者のひとりでCSO(※)のペドロ・ビザーロ氏は、責任あるAI開発のための「TRUST」というフレームワークを紹介しました。TRUSTとは、学習した内容の理解などを含む透明性(Transparent)、一貫性ある回答を返す堅牢性(Robust)、バイアスを排除した結果を出すための公平性(Unbiased)、データやシステムを保護する安全性(Secure)、整合性の確認を含むテストを十分に行っていることを示すテスト済み(Tested)をめざすとしています。
これらのフレームワークは、どちらも信頼性を曖昧な概念で終わらせず、実践に結びつけようとしている点で共通しています。AIの信頼性向上に実践的・具体的に取り組もうとする米国の積極的な姿勢がうかがえました。
展示スペースの様子。スタートアップから大手まで多様な企業が出展し、参加者同士の対話が活発に行われた
AIの信頼性を確保するには人財育成も不可欠です。単なる技術の習得にとどまらず、判断力や倫理観、リテラシーを備えた人財の育成が、信頼できるAI社会の基盤になります。キーノートセッションの最後に登壇した、前副大統領のカマラ・ハリス氏はAIの雇用への影響について触れ、スキルアップや再教育の支援が必要だと訴えていました。また、キャピタル・ワン社のプレム・ナタラジャン氏は、顧客対応向けに導入されたエージェント型AIは、安全に運用するために人間が監視する体制が敷かれていると述べています。
2023年設立にしてすでにユニコーン化したスタートアップ、プールサイド社のCEOであるジェイソン・ワーナー氏のスピーチも興味深いものでした。同社はソフトウェア開発に特化したLLM(大規模言語モデル)を構築し、その上で動作するシステム群やアプリケーションまで含めたフルスタックのソリューションを提供しています。大規模な基盤モデルの事前学習に加え、コードの実行結果をフィードバックに用いる強化学習を採用し、AIのコード生成や推論能力の向上をめざしています。この手法によりAIが自律的に学習ループを回すことが可能になり、AIの能力向上が迅速に進む利点があります。ワーナー氏は「今後36カ月以内にAIが知的労働の50%以上を担う」と予測しました。
AIを活用したコーディングは今後ますます広がりそうですが、ワーナー氏は「エンジニアに求められる論理的思考力や学習能力は引き続き重要」だとしました。コーディングはプログラミング言語やアルゴリズムを学習したAIによって代替できても、AIが書いたコードで動くソフトウェアが顧客の要求に沿うものかどうかなどの判断は人間がやらなければならないからです。AIが今後多くのコーディング作業を担うようになると予測される一方で、開発者はより創造的で高度な業務にシフトする必要があります。
課題は人財の育成です。基本的なコーディング作業は初級のエンジニアにとって学習の機会になっていますが、AIが作業を代替するようになると、自らの手を動かして学ぶ機会が失われます。そこで、生成AIを人財育成ツールとして活用するアイデアが考えられます。現在は上席者が初級者の書いたコードを確認し、必要に応じて助言や指導を行いますが、プールサイド社のようなソリューションにより、今後はフィードバック業務を生成AIが担うことも想定されます。
今後、ソフトウェア開発に限らずあらゆる業種でAIと共に働くスキルが求められると思います。そうした中で重要なのは、自身の専門領域に関する深い理解を持ちつつAIを使いこなすスキルです。このようなスキルを備えた人財をいかにして育てていくか、人間の知恵と工夫が求められています。