Bumbleがサイバーフラッシュに対抗するAI検出器技術のオープンソースをリリース

ジャカルタ - 2018年以来、Bumbleの親会社であるBumble Inc.は、しばしばサイバーフラッシュと呼ばれるヌード画像のオンライン投稿と戦うために米国の法律を支援してきました。

「Bumble、Badoo、Fruitzの親会社であるBumble Inc.では、安全性は私たちの使命の中心的な部分であり、製品の革新と同社のロードマップを知らせるコアバリューでした」と、オンライン出会い系アプリの親会社は発表で述べています。

翌年、BumbleはプライベートディテクタAI機能を立ち上げて、ユーザーを保護するためにテクノロジーを使い始めました。

「私たちは、テクノロジーと人工知能(AI)の最新の進歩を活用して、ユーザーコミュニティに、当社のプラットフォームで安全な体験をするために必要なツールとリソースを提供するのを支援しました」と彼は付け加えました。

このプライベート検出器は、Bumbleのチャットで共有されている潜在的に裸の画像をぼかすことによって自動的に動作します。

通知され、画像を表示するかブロックするかを決定する自由が与えられます。

現在、Bumble Now Dataチームは、プライベートディテクタAIテクノロジーを説明するホワイトペーパーを作成し、このテクノロジーのオープンソースバージョンを作成しました。

同社は、Private Detector AIのオープンソースがGitHubで利用可能になったと述べている。

「この機能が、インターネットをより安全な場所にするために協力しながら、より広い技術コミュニティに採用されることを願っています」と同社は発表に書いています。