メッセージング アプリで生成 AI の使用に反対する 7 つの理由

メッセージング アプリで生成 AI の使用に反対する 7 つの理由
あなたのような読者が MUO をサポートします。当社サイトのリンクを使用して商品を購入すると、アフィリエイト手数料が発生する場合があります。 続きを読む。

AI は前例のないレベルで進歩しており、ほぼ毎週新しい開発が行われています。 ChatGPT などの生成 AI ツールは現在非常に人気があり、あらゆる場所に統合されています。





しかし、そうすべきでしょうか?生産性、教育、エンターテイメントに AI テクノロジーを使用することは理にかなっています。しかし、企業は現在、メッセージング アプリに直接それを組み込むことを検討しており、これは破壊的な結果をもたらす可能性があります。その理由を7つご紹介します。





その日のメイクアップビデオ スクロールしてコンテンツを続けてください

1. AI チャットボットは幻覚を見る傾向がある

使用したことがある場合 ChatGPT、Bing、または Bard 、生成型 AI チャットボットは「幻覚」を起こす傾向があることはご存知でしょう。 AI 幻覚は、ユーザーが要求したクエリに関する適切なトレーニング データが不足しているために、チャットボットがでっちあげたものです。





言い換えれば、彼らは誤った情報を伝えますが、あたかもそれが事実であるかのように自信を持っているように聞こえます。多くの人がチャットボットを使用するときにファクトチェックを行わず、デフォルトでチャットボットが正確であると信じているため、これは大きな問題です。それは最大のものの一つです AIツールを使用する際に避けるべき間違い

メッセージングアプリにそれが組み込まれると、人々が(意図的または非意図的に)連絡先間やソーシャルメディア上で誤った情報を広めたり、プロパガンダを拡散したり、エコーチェンバーを助長したりするためにそれを使用する可能性があるため、及ぼす可能性のある害の量はさらに大きくなります。



2. 人々はボットと話すことを好まない

  オレンジと銀の小さなロボットがカーペット敷きの床に座っており、その前にノートパソコンが置かれています。
画像クレジット: graphicsstudio/ ベクティージー

会社のカスタマーサポートに連絡しようとして、実際に問題の微妙なニュアンスを理解し、適切なアドバイスを提供してくれる生身の人間の経営幹部ではなく、チャットボットと話さなければならないときの煩わしさを考えてみてください。

個人的な会話にも同じことが当てはまります。友達と話しているところを想像してみてください。途中で、彼らは自分の考えや意見に基づいて自分で応答するのではなく、ずっと AI を使用してあなたのメッセージに応答してきたことに気づきます。





ネットワークに接続しているがインターネットにアクセスできない

あなたがほとんどの人と同じなら、私的な会話での AI の使用は、まるで相手があなたに時間や注意を払う価値がないと考えているかのように、すぐに気分を害し、無神経で不気味で、さらには受動的攻撃的であると認識するでしょう。共感。

たとえば、AI を使用して電子メールを作成することは、専門的なやり取りであるため理解できますが、個人的な会話で AI を使用することは、誰も推奨したくないことでしょう。テクノロジーの目新しさが薄れると、この文脈でそれを使用するのは失礼になるでしょう。





3. AI はあなたの独特の調性をコピーできません

今日の生成 AI ツールでは、すでに、誰に宛てて、どのように伝えたいかに応じて、フォーマル、陽気、中立など、メッセージの調子を変更することができます。 Google メッセージでの Magic Compose たとえば、同じことを行うことができます。

それは良いことですが、これらの口調は個人のチャット履歴ではなく、設定されたトレーニング データに基づいてトレーニングされるため、ユーザー固有の口調や通常使用する絵文字を複製できないことに注意してください。

特に、誰もが多かれ少なかれ同じ形式的な口調を使用する単純な仕事用メールを作成するために AI を使用している場合は、このことはあまり気にしないかもしれません。しかし、メッセージ アプリで友人や家族と話すためにそれを使用する場合、それはあなたが思っているよりもはるかに重要です。

AI ツールがあなたのチャット履歴に基づいて言語モデルをトレーニングするオプションを許可するまでは、AI ツールはあなたの独特の方言や奇行を再現することはできません。とはいえ、この課題を解決するのはそれほど難しいことではないため、すぐに実装されるかもしれません。

4. 適切なプロンプトを作成するには時間がかかる

  携帯電話でテキストメッセージを送る男性

AI チャットボットから望ましい結果が得られるかどうかは、プロンプトの品質に大きく依存します。不適切なプロンプトを作成すると、悪い応答が返されるため、満足のいく結果が得られるまでプロンプトを修正する必要があります。

このプロセスは、長い形式のコンテンツを書きたい場合には理にかなっていますが、くだけた会話で複数の短い応答を書く場合には非常に非効率です。

プロンプトを改良して使用可能な応答を得るまでにかかる時間は、ほとんどの場合、自分でメッセージを作成した場合にかかる時間よりも長くなります。

5. AI は攻撃的な結果を生み出す可能性がある

精度とは別に、バイアスも問題の 1 つです。 生成AIの最大の問題 。 AI には独自の動機がないため、偏見がないと認識している人もいます。しかし、これらの AI ツールを支えているのは、最終的には独自の偏見を持つ人間です。

言い換えれば、バイアスがシステムに組み込まれているということです。 AI は本質的に、何が攻撃的で何が攻撃的でないとみなされるかを理解していないため、たとえば、特定の人々のグループや特定の文化に対して偏見を持つように訓練され、その結果、その過程で攻撃的な結果を生み出す可能性があります。

6. AIは皮肉やユーモアを理解できない可能性がある

皮肉や比喩などの比喩表現に対する AI の理解は時間の経過とともに向上していますが、会話の中でユーモアを認識できるレベルにはまだ程遠いです。たとえば、Google の Bard に皮肉を込めて尋ねたところ、結果は当たり外れでした。

  Google Bard チャットボットが皮肉を言おうとしている

場合によっては、それは本当に面白くて、私の皮肉に合わせて演じられました。しかし、他の場合には、デフォルトで面白くない型にはまった応答に戻ったり、単なる LLM なので私の質問には役に立たないと言って会話への参加を完全に拒否したりすることもありました。

7. AIへの依存はコミュニケーション不全につながる可能性がある

生成型 AI をメッセージング アプリに統合する場合のもう 1 つの微妙だが重大な問題は、それが私たちのコミュニケーション能力にどのように影響するかということです。私たちがお互いに会話するために AI にますます依存すると、私たちの能力が妨げられる可能性があります。 私たちの心の知能を訓練する そして社会的スキル。

ここで重要なのは、社会的ニーズを AI にアウトソーシングすればするほど、有機的な手段でアイデアを伝えるのが難しくなるということです。言い換えれば、AI を使用して連絡先と話すほど、人間関係の質が低下する可能性が高くなります。

すべてにAIが必要なわけではない

新しいテクノロジーの出現に伴い、私たちはそれをどのように使用するかを考えるのに忙しすぎて、そもそもそれを使用すべきかどうかを議論できなくなることがよくあります。

電子メールの作成、アイデアのブレインストーミング、またはプレゼンテーション用の画像の作成に生成 AI を使用することは完全に理にかなっていますが、メッセージング アプリへの統合は多くの批判を招きます。