責任あるAI検証ツール開発でシンガポール、官民国際団体を発足

(シンガポール)

シンガポール発

2023年06月15日

シンガポールのジョセフィン・テオ情報通信相は6月7日、責任ある人工知能(AI)を検証するツールの開発と普及を目的とした「AIベリファイ団体(注1)」の発足を発表した。同団体の発足により、情報通信省傘下の情報通信メディア開発庁(IMDA)が開発中のAI検証ツール「AIベリファイ(AI Verify)」をオープンソース化し、ツール開発にあたって国際的な協力を募る。

AIベリファイは、AIが国際的な倫理基準どおりに基づき運用されているかを客観的に検証できるソフトウエアツール。IMDAは、同ツールを民間企業の協力を得て開発し、2022年5月に試用版を国際公開していた。テオ情報通信相は発表の中で、「AI検証技術は発展しているが、まだ、新しい技術だ。産業、学識界の垣根を越えて広く、最善策を集める必要がある」と強調した。

同団体の中核メンバーとして、IMDA、シンガポール政府系投資会社テマセク・ホールディングス傘下のAIソリューション会社アイカディウム(Aicadium)、米国の情報通信技術(ICT)大手企業のIBM、マイクロソフト、グーグル、レッドハット、セールスフォースの7社・機関が参画。同中核メンバーは、AIベリファイの戦略的な方向性と開発ロードマップを策定する予定だ。このほか、日立や地場大手銀行のDBS、米国のICT大手メタ(旧フェイスブック)など、日系を含む内外の企業やスタートアップ約60社が、一般メンバーとして参画している。

責任ある生成AI導入に向けたディスカッションペーパーを発表

一方、IMDAとアイカディウムは同日、「ChatGPT」など生成AIの導入に向けた政府の対応を示したディスカッションペーパー(注2)を発表した。同文書では、生成AIのリスクとして(1)事実誤認と誤解を招く出力(ハルシネーション)、(2)個人情報保護と秘密保持、(3)偽情報やサイバー危機、(4)著作権侵害、(5)差別、(6)倫理の統一、の6つを指摘。同リスクを認識した上で、責任ある生成AIのエコシステムを構築するための政府対応の枠組みを示している。テオ情報通信相は同文書を通じて、「多くの議論につなげ、安全策の必要についての認識を広げたい」と述べた。

(注1)「AIベリファイ団体(Ai Verify Foundation)」の参加方法など詳細は同団体のサイト外部サイトへ、新しいウィンドウで開きますを参照。

(注2)ディスカッションペーパーは、AIベリファイ団体のサイトPDFファイル(外部サイトへ、新しいウィンドウで開きます)からダウンロードできる。

(本田智津絵)

(シンガポール)

ビジネス短信 1a5ca30880c3785f