これが、責任あるAIを構築するためのGoogleの取り組みです。

ジャカルタ - 今週、パリで開催されたGoogle Responsible AI Summitで、Googleのトラスト&セーフティ担当バイスプレジデント、ローリー・リチャードソンは、利益を最大化し、人工知能(AI)テクノロジーを使用するリスクを最小限に抑えるためのGoogleの取り組みの一部を明らかにしました。

まず、Trust & Google Teamは、リリースされたGenAI製品が責任を持って構築されていることを確認するために、トレーニングとレッドティーミング技術を実施しました。Googleはまた、当社のアプローチをより広く共有することにコミットしています。

第二に、Trust & SafetyのGoogleチームは、AIを使用して、同社がオンラインでユーザーを保護する方法を改善しています。AIを使用すると、侵害しているコンテンツを大規模に識別できます。

さらに、検索大手LLMを使用することで、数日でモデルを迅速に構築およびトレーニングすることができます。たとえば、LLMを使用すると、これまでにない方法で嫌がらせ、文脈、言語の種類の範囲を拡大できます。

最後に、AI生成コンテンツに対処するために、Googleは定期的に他の業界やエコシステムと協力して最適なソリューションを見つけています。

今週初め、Googleは研究者や学生を集めて安全専門家と交流し、AI時代のリスクと機会について話し合いました。

現実世界のアプリに影響を与える研究を生み出すエコシステムをサポートするために、Googleは今年のGoogleアカデミックリサーチアワードの受賞者数を2倍にし、信頼と安全の研究ソリューションへの投資を開発しました。

「私たちは、AIを使用して虐待に対してプラットフォームを強化することから、ツールを開発することまで、AIを責任を持って実装することにコミットしています」とローリー氏は述べています。