2024.11.06
AIのリスクを減らすAIのガードレールとして「AI Testing」と「AI Firewall」といったツールを提供しているRobust Intelligence, Inc.(以下、Robust Intelligence)。株式会社日立ソリューションズはこれらの技術にいち早く注目し、社内でこれらのツールを活用、十分にお客様にお勧めできる製品だと確信して、Robust Intelligenceとの販売代理店契約を結び、両社の協創によって日本企業の積極的なAI活用の推進をサポートしています。
平田 泰一
Robust Intelligence
Country Manager, Cisco Business Development Manager
コンサルティングファームや米国AIスタートアップDataRobotなどを経て、デジタル戦略を通じた企業の成長と変革を20年以上に渡り支援。22年にRobust Intelligence Japanを立ち上げ、日本市場の責任者に就任。日本事業を2年連続で数倍の規模へ成長させ、Ciscoの買収に貢献。
上村 理
株式会社日立ソリューションズ
経営企画本部 研究戦略部 主管研究員
AX生産技術部 主管技師
AIリスク管理センタ 担当部長
日立製作所で計測系の研究開発および研究管理業務に従事。日立ソリューションズ入社後は、研究戦略業務に携わり、2024年4月からは、AIの技術開発やAIリスク管理の業務にも従事。
平松 雅宏
株式会社日立ソリューションズ
ITプラットフォーム事業部
デジタルアクセラレーション本部 データソリューション部
データサイエンティスト
ビッグデータを使ったデータ分析・AI活用プロジェクト、また、データ利活用の実現に向けたプラットフォームのグランドデザイン、構築プロジェクトに多数参画。昨今においては、生成AIの登場とともに顕在化したAIリスクに対処するためのAIリスク管理・AIガバナンスの事業にも従事。
平松:企業のAI導入は、生成AIの登場前と後で変わってきています。生成AIが登場する前のAIのリスクは、AIの正答率が最も重要で、企業が求める100%の正答率に対してどのようにリスクをケアするのかが重視されていました。一方、生成AI登場後は、AIのリスクが増え、回答が外れた場合に「嘘をついている」とジャッジされ、企業がその責任を負わなければならなくなってきています。
上村:生成AIが100%正しい回答を出すわけではないので、使う側がマインドチェンジする必要があるのですが、実際にはそこにまだついていけていません。これまでのAIはスキルの高い限られたエンジニアが使っていましたが、生成AI登場後はハードルが下がって誰でも使えるようになったことで、リスクが高まっていると言えます。
平田:生成AIの登場によって、AIはデータサイエンティストだけのものではなく、専門性が高くない一般の方々も使えるようになりました。ところが表面上は簡単に使えるように見えるものの、AIの技術自体はより以前より複雑化していて、リスクは増大しコントロールしづらくなっています。AIはブラックボックスである部分が大きく他のIT技術と比べて裏でどのようなメカニズムで動いているのかわかりづらいです。企業がAIという素晴らしい技術をどう安全、安心に活用できるかが課題になっていると考えています。
平田:たとえば、ある航空会社はお客さま向けのQ&Aチャットボットを生成AIで作成していました。あるユーザーがこのチャットボットに「普通運賃で購入後に身内に不幸があった場合に忌引割引を適用できるか」を質問したところ、チャットボットは「割引を適用できる」と回答していました。しかし、実はこれはAIが出力したでたらめな回答で、本当の規則ではそういったケースは存在せず、この航空会社は支払いを拒否しました。その後、ユーザーは割引の差額を求めて訴訟を起こし、結果的に航空会社が敗訴しています。この事例で示唆となるのは、基盤となる生成AIを作った企業ではなく、それを使ってサービスを提供した企業が責任を追うことが明らかになったことです。つまり、AIを活用する全ての企業がこのリスクと課題に向き合わなければなりません。
平田:AIの技術が急速に発展し、リスクの質と量が増え続ける中では、産官学民のさまざまなプレイヤーが関わっていくことが非常に重要になってきていますが、その中でも企業は、自社のAIリスクをコントロールするために、社内のルールメイキングを行い、新たな組織を立ち上げ、AIのリスクを技術的に評価・対策する取り組みが必要となります。
平松:たとえば企業は、経産省などが整備したガイドラインなどを参考にすると思いますが生成AIの成長が速いため、これらの法規制やガイドラインも速いスピードで変わっており、企業はそれに追随するために、組織的にどう対応していくのか、AIとともにどのように事業を拡大していくのかといった明確なビジョンを持っておく必要があると思います。
上村:誰もが安心して使える環境を整えることで、さまざまな人がより多くの仕事でAIを活用しやすくなっていくのだと思いますね。
平松:AIを使用する人に対してよい使い方や悪い使い方などの具体例を数多く示すことも重要です。自社だけで安全な環境を整えるのは難しいので、Robust Intelligenceさまのような企業が提供するAIのセキュリティやリスクを管理するツールを活用することも考えていく必要があると思います。
平田:前述のようなAIのでたらめな出力によるインシデントは、生成AIを活用している企業に今後も起こり得る可能性があります。これらのリスクから企業を守るために、当社はAIを検証してリスク評価することによって問題を洗い出すツールを提供しています。AIの開発段階では「AI Testing」によって、でたらめな出力などの品質の問題、差別的・暴力的な回答などの倫理の問題、個人情報の漏洩などのセキュリティの問題を様々な角度から評価します。そして、運用段階では「AI Firewall」でリアルタイムにAIリスクを保護できるようにしています。
平田:「AIはどういう振る舞いをするかわからないから怖い」と漠然とした認識では活用は進みません。むしろ、「どうすれば安心・安全にAIを使いこなすことができるか」と考えることが重要です。こうした取り組みを一般的にAIガバナンスと呼び、前述した3つの取組み(社内のルールメイキング・組織構築・AIリスクの技術的評価)を進めていく必要があります。多くの企業のスタート地点は、個社のルールを作ること。これには平松さんが挙げられたAI事業者ガイドラインなどの参照が、特に日本市場においては有効でしょう。さらにルールに則ったAI開発・運用を実現する組織と役割を新たに定義する。産みの苦しみはありますが、これからのAI時代においては越えなければいけないハードルだと思います。そして、AIサービスを全社的にリスク・コントロールする。人手だけでは早晩限界が来るため、ソリューションの導入が不可欠だと考えます。
上村:日立ソリューションズでは、AIガバナンスも含めたAIへの取り組みとして、2024年4月からAIトランスフォーメーション推進本部を新設しています。その中に、戦略、生産技術、リスク管理に関する3つの部門を設立しています。AIに関するリスク管理やガバナンスの取組みを行うとともに、Robust Intelligenceさまのツールを社内で活用するときの基盤側からの支援なども行い、AIの活用やお客さまへの提供の一助になればという思いで活動しています。
平松:我々がRobust Intelligenceさまと協創することになったのは、生成AIが登場する前のことです。AIの場合は、100%正しい回答を出すことはできないため、どうやって品質向上を実現するのかが課題でした。Robust Intelligenceさまは、AIの回答が100%正しいわけではないことを前提として、リスクベースのアプローチでAIを評価することに取り組んでいる先進的な企業で、モデルの品質向上に活用するためにお声がけしたことがきっかけですね。社内で検証したところ、AIリスクの可視化や品質向上に寄与できることがわかったため、他社にも提案できると考え、その後いち早く販売代理店契約も結んでいます。
平田:日立ソリューションズからは、日本のシステムインテグレーターの中でおそらく最も早くご連絡をいただいたと思います。早くから当社の技術の重要性をご理解いただいていたこともあり、日本支社ができてすぐに検証を開始することになりました。日本は世界的に見ても品質に対するこだわりが強く、特に日立グループの品質に対するこだわりは誰もが知るところです。日立ソリューションズがAIリスクを評価する当社のツールを用いてお客様の品質保証に役立てようとする姿を見て、Robust Intelligenceのニーズは日本においても高いと確信しました。品質への要求が高い日本企業に展開するためには、日本に確固たる基盤があり、技術力の高いパートナーと共に汗を書きながら取り組む必要があります。いち早く日立ソリューションズと協創が始められたことは私としても非常に大きな価値があると思っています。
平松:開発と運用の双方でチェックできることがRobust Intelligenceさまの強みですし、生成AIの進化の速度が早く、新しいリスクは日々登場します。個社がリスクの対処を追随しなくても、Robust Intelligenceの専門チームが研究し対策をソリューションに実装するため、安心してAIの開発ができます。社内では、Robust Intelligenceが自動的にテストを行い、我々が想定していないリスクに対するテスト用の入力データを使って、AIの弱点をチェックするのは非常によかったと思います。我々は仕様に沿ったデータを使って検証はしていますが、仕様にそぐわないケースも更に詳しく検証することでより品質の高いAIサービスを提供できるようになりました。
上村:そしてこれから運用段階ではRobust Intelligenceさまの「AI Firewall」でリアルタイムにAIリスクからモデルを保護することが重要です。開発段階で品質を向上し、使っていく中で問題が起きないようにするという両面で取り組んでいくことによってAIガバナンスを実現することができるからです。
平田:たとえば、先ほど航空会社のインシデント事例で挙げたようにAIがでたらめに事実と異なることを発言してしまったり、差別的、性的、暴力的な発言をしてしまったりするとそれを利用したユーザーに大変な影響があります。また、悪意ある第三者が様々な手法を使って個人情報などの情報をAIから抜き出そうとする攻撃をしかけられる可能性があります。これらがインシデントとして発現してしまうとそのAIを提供した企業は信頼を損ね、企業価値を大きく下げたり、訴訟などの問題が起こったりする可能性もあります。AI FirewallによってこうしたAIリスクを未然に防ぐことが可能です。
もう1つは公平性の問題への対処です。AIのデータに何らかのバイアスがかかっていると、結果が偏ったものになります。たとえば、同じ家に住んで同じくらいの資産を持った夫婦のクレジットカードの与信の結果が20倍違ったというケースが起きていました。我々の製品を使えば、事前に公平性を評価することができます。
平松:Robust Intelligenceさまのツールは、問題が発生していることをいち早く検知できて損失を最小限に抑えることができます。Robust Intelligenceが検知して、我々がモデルを改善していくことで、AIを使った事業をサステナブルに続けていくことができます。日立ソリューションズのお客さまがRobust Intelligenceさまの技術を正しく活用できるように手助けすることで事業の継続をお手伝いできると考えていますし、日本企業の持続的なAI活用推進を手助けしていくことが、我々の協創の価値だと思っています。
平田:AI活用によって、少子高齢化やIT技術者不足といった社会課題の解決が行える可能性があることは間違いありません。実は世界的に見ても、日本のようにAIを活用することにとても前向きな国は実はまだ多くはないんです。これは大きな社会課題に直面しAIによる課題解決が強く望まれる日本だからこその状況であり、AI活用を適切に推進することができれば、世界をリードするAI立国になるチャンスとも言えます。日本企業のお客さまが当社の技術を使ってAIを継続的に活用していくためにも、日立ソリューションズとの協創は持続可能な企業活動に貢献できるサステナビリティにつながるものだと思います。
平松:AIのリスクは非常に多く複雑であるため、ツールのAIリスク評価結果を正しく理解することも企業のAI活用にとって重要です。Robust Intelligenceさんのツールも進化していき、我々SIerもツールの改善などを提言し、ともに進化してお客さまにわかりやすくAIリスク評価結果、改善策について説明して、お客さまの負荷を減らすことにも協創の価値があると考えています。
上村:社内でRobust Intelligenceさまのツールを活用することで、我々のエンジニアも成長して新たな知見を得られることも大きな価値だと思っています。
平田:AIGAは、AIガバナンスの社会実装に向け、実践的な課題を解決していくため2023年に設立された協会で、現在日本で活動する代表的な企業約70社が参加しています。設立からわずか1年足らずでAIガバナンスというシングル・イシューにおいては日本最大の協会となっており、2024年10月に一般社団法人に移行しました。Robust Intelligence(現在はメンバーシップをシスコシステムズ合同会社に統合)と日立ソリューションズは初期メンバーとして発足時より参加し、AIガバナンスの普及に向けた活動に取り組んでいます。
上村:AIガバナンスは、一社だけで行えるものではなく、複数であっても企業だけが集まってできるものでもありません。政府やさまざまな機関と連携していき、お客さま企業や一般の方も含めた幅広いステークホルダーの間でルールやガイドラインを作っていく必要があります。その中でAIGAという存在は、さまざまなステークホルダーの意見を集約していくという重要な活動を行っていると考えています。
平松:AIを今後活用していくためには、リテラシーを上げていく必要がある中で、AIGAに入ることで、さまざまな企業がAIガバナンスにどう取り組んでいるかを共有し合えることに大きな意味があると思います。AIGAの中で話し合うことで日本のリテラシーが上がり、標準的なガイドラインを提言できるということが今後の日本企業にとって有意義なものとなると思っています。さまざまな情報を共有していくことで、より日本企業にマッチしたAIガバナンスに向けて成長していける場になることを期待しています。
平田:AIGAは産業界横断でAIガバナンスについて考えられる土壌がある場だと思っています。生成AIが盛り上がっていますが、この技術が社会にとって真に有用な技術となるためには、多様なステークホルダーが関わって社会実装にまで落とし込む必要があります。AIGAは産業界自らが声を上げ、ルール作りやAI活用のあり方を社会に示していく場です。足元では、参画企業各社がAIガバナンスの習熟度を自ら評価できる仕組みを作り、現状とめざす姿のギャップをどう埋めていくのかを考えて、AIを活用した企業の継続性を高め、我々自身も成長していけるような取り組みをめざす活動もしています。
平田:当社は、AIリスク管理のソリューションとして「AI Testing」と「AI Firewall」を提供しています。これまで繰り返しお伝えしているように、これらのソリューションを活用することで、AIを安全かつ安心して利用できる環境が整い、企業は自信を持ってAIの導入を進められるようになります。多くの企業が生成AIの試験段階を終え、今まさに本格的な運用へと移行しつつあります。今後、AIはあらゆる分野に組み込まれ、さまざまな社会課題の解決に貢献していくでしょう。その結果、AIが社会をより豊かで幸福なものへと変え、企業が持続可能な形で成長し続ける未来を私たちはめざしています。
平松:特に人口減少の問題が非常に大きな社会問題で、これを解決するためにAIを活用することは避けられないと思っています。AIの下支えとなるのはデータで、企業が今後大変なのは、データをどう整備して、AIに正しく学習させるためのデータセットをどう作っていくかが非常に重要になってきます。ヒト、モノ、カネ、データをしっかりと扱うことができれば、AI活用のメリットを最大限に発揮させることができますし、そうなる未来であってほしいと願っています。日立ソリューションズは、データ利活用のソリューションも提供していますし、Robust IntelligenceさまのAIセキュリティも完備することで、データの整備とAI活用をサポートできると考えており、安心安全なAI活用とデータ整備のご提案を積極的に行っていきたいと考えています。
上村:企業の持続的な成長には、AIは不可欠なものだと思います。また、さまざまな社会課題を解決し、社会が発展してさまざまな価値を実現していくためにも、AIは必須であると思います。AIを活用して、多様なステークホルダーにさまざまな価値を提供できるかが今後の社会で重要になってきます。AIのリスクはゼロにはならないのですが、いかに守っていくかに加えて、トラブルが発生したときでもエビデンスを残しておくことで対応しやすくしておくなどの取組みも、よりよい社会の実現や企業の成長に重要ではないかと感じています。
平田:日立ソリューションズは技術に対しても、お客さまに対しても、誠実な企業だと信頼しています。Robust Intelligenceを日本で広めていくには、日立ソリューションズと共に市場の信頼を築いていくことが重要だと考えています。協創を通して培った知見が、両社のみならず、社会全体に活かせるような取り組みができればと考えています。
平松:AIのリスクは倫理的な問題や公平性の問題だけでなく、AIセキュリティという問題も今後大きくなっていくと思います。我々もデータ利活用やデータマネジメントといった範囲を広げながら、お客さまに価値を提供したいと考えていますので、Robust Intelligenceさまとともに成長していければと思っています。