気を付け!ChatGPTは危険で無責任な目的で悪用される可能性があります
ジャカルタ-「チャット生成事前トレーニング済みトランスフォーマー」の略語であるChatGPTは、人間のような応答を生成できる言語ベースのボットです。このプログラムは、OpenAI社によって昨年11月に開発および公開され、重力がどのように機能するかの説明から詩を書くこと、オンラインデータベースからデータを収集してコンピュータープログラムのコードを提供することまで、あらゆる種類の質問や要求に答えるように訓練されています。
ただし、チャットGPTには欠点があります。プログラムは何も新しいものを作成せず、見つかった研究資料から情報を収集してユーザーに提示するだけです。これは、理論的には、プログラムがオンラインで公開された虚偽、偏見、または虚偽の情報に依存し、それを事実として人々に提示できることを意味します。
このAIは、コンピュータウイルスの作成方法など、有害または不適切な情報を見つけるためにも使用できます。したがって、企業がこの種のプログラムを使用して、さまざまな職業の人間の労働者を置き換える可能性があることが懸念されています。
OpenAIは、ChatGPTバイアスへの対処と、潜在的に悪意のあるリクエストをフィルタリングする方法に取り組んでいると述べています。
OpenAIは、ユーザーがChatGPTの使用を再考し、有害または不適切なコンテンツを検索または作成するためにChatGPTを使用しないことを期待しています。
このエンジンが無責任な当事者による使用をどのように制限および防止するかについてChatGPTに尋ねられたとき、ChatGPTが説明するアクションのいくつかを次に示します。
OpenAIは、提供された情報が悪用されないように、いくつかのアクションを実行します。
フィルターと監視の使用:OpenAIは、フィルターと監視システムを使用して、ChatGPTシステムへの着信リクエストを監視します。システムは、危険または不適切と判断した要求を検出した場合、その要求を拒否します。
データベースの更新:OpenAIは、有用と見なされる新しいデータを追加し、役に立たないまたは有害と見なされるデータを削除することにより、ChatGPTデータベースを定期的に更新します。これは、ChatGPTに信頼できる関連情報のみが含まれるようにするために行われます。
アクセスの制限:OpenAIは、ChatGPTシステムへのアクセスも厳密に規制しています。厳格な検証および承認プロセスに合格したユーザーのみが、システムへのアクセスを許可されます。これにより、ChatGPTシステムにアクセスできるユーザーが責任ある信頼できる人であることを保証することができます。
倫理と道徳の実装:OpenAIは、ChatGPTの使用に関する厳格な倫理的および道徳的ガイドラインも設定しています。これには、デマの拡散や公共の安全の脅迫など、有害または非倫理的な目的でのChatGPTの使用の禁止が含まれます。
これらの規制を実施することにより、OpenAIはChatGPTの有害な使用のリスクを最小限に抑え、テクノロジーが社会にとって前向きで有益な目的にのみ使用されるようにしたいと考えています。