米Robust Intelligenceは、生成AIモデルのリスクを検証・分析する「生成AIリスク評価サービス」の提供を、5月30日に開始した。
同社は、シリコンバレー発のAIスタートアップであり、AIの開発段階から運用段階まで一貫してテストベースでリスク検証を行うプラットフォーム「Robust Intelligence Platform」を、国内外の大手企業に提供している。
今回の、生成AIリスク評価サービスの提供は、生成AIの利用が急速に広がる中で不正確な出力や倫理的に問題のある出力、プロンプト・インジェクションといった、これまでのAIモデルと異なる形のAIリスクが問題視されるようになったことを受けて行われる。
同サービスは、従来のソリューションの基本的な考え方であるTest-Drivenアプローチを生成AIにも適用し、多岐にわたるAIリスクの検証・解決を目指す。同社のプラットフォームは日本のビジネス環境に準拠しているため、日本語LLMにも適用可能であり日本企業の準拠すべき各種規制にも対応している。また、各国政策や国内外のユースケースに関する知見を活かして、AIリスク管理において重要となる社内のAIガイドライン・プロセス整備などもサポートする。
- 関連リンク
この記事は参考になりましたか?
- この記事の著者
-
ProductZine編集部(プロダクトジンヘンシュウブ)
「プロダクト開発」にフォーカスしたオンラインメディアです。プロダクトマネージャーや、プロダクトマネージャーを目指す方をはじめ、チームメンバーや事業責任者、テックリードなど、プロダクト開発を「正しく」進めていきたいすべての人のために、プロダクトマネジメントに関するあらゆる知見をお届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア