シェア:

ジャカルタ–思春期の精神的健康を損なうという申し立てで訴えられた後、キャラクターAIは多くのことを変更することに決めました。このチャットボットは、トレーニングモデルを変更し、新機能を追加しました。

より安全な空間を構築するために、Charakter AIは、ユーザーと直接対話する大規模な言語モデル(LLM)を構築および改善し続けていると述べています。彼らはティーンエイジャー専用の別のモデルを作成しました。

「目標は、モデルを特定の応答や操作から遠ざけ、ユーザーが機密性の高いコンテンツや示唆に富んだコンテンツを返すためにモデルを見つけたりプッシュしたりする可能性を減らすことです」とAIキャラクターは公式ウェブサイトで述べています。

Chara karakter AI はまた、LLM が機密性の低いコンテンツを生成するのを防ぐために、2 つの新しい戦術を使用しています。このプラットフォームは、不適切なコンテンツの出力をブロックし、不適切なユーザー入力をブロックしようとしています。

出力セクションでは、チャラクターAIはLLMの特定の種類のコンテンツと応答を識別できる分類ツールを使用し、入力セクションでは、チャラクターAIはプラットフォーム上のフィルター検出と介入機能を強化します。

「たとえば、ユーザーが利用規約やコミュニティガイドラインに違反するコンテンツを送信したことが検出された場合、そのコンテンツはキャラクターとの会話からブロックされます」とキャラクターAIは説明します。

モデルアップグレードによる予防に加えて、キャラクターAIは、青年期の精神的健康障害の問題を予防できる多くの新機能も立ち上げました。この機能は、子供に関する洞察を提供するための親コントロールです。

保護者は、プラットフォーム上で費やされた時間と、対話によく使用されるキャラクターを確認できます。さらに、廃止された時間通知機能もあります。ユーザーがプラットフォームを1時間使用するたびに、メッセージが届きます。

「この機能には後で成人ユーザー向けにカスタマイズ可能なオプションがありますが、18歳未満のユーザーは変更する能力に対する制限が増えます」とAIキャラクターは述べています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)