7 回の機械学習の失敗

7 回の機械学習の失敗
あなたのような読者は、MUO のサポートを支援します。当サイトのリンクを使用して購入すると、アフィリエイト手数料が発生する場合があります。 続きを読む。

機械学習は、強力でトレーニング データに適応する人工知能を作成する優れた方法です。しかし、そのデータが問題を引き起こす場合があります。また、人々がこれらの AI ツールを使用する方法が問題になることもあります。





ここでは、機械学習が問題のある結果をもたらした有名なインシデントをいくつか見ていきます。





今日のメイク動画 スクロールしてコンテンツを続ける

1. Google 画像検索結果事故

  google-image-search-results-controversies

Google 検索により、Web の操作が非常に簡単になりました。エンジンのアルゴリズムは、結果をかき混ぜるときにさまざまなことを考慮します。ただし、アルゴリズムはユーザー トラフィックからも学習するため、検索結果の品質に問題が生じる可能性があります。





これは、画像の結果ほど明白なものはありません。トラフィックの多いページは画像が表示される可能性が高いため、クリックベイトを含む多数のユーザーを引き付けるストーリーが優先される可能性があります.

たとえば、「南アフリカの不法占拠者キャンプ」の画像検索結果は、主に白人の南アフリカ人を特集していることが判明したとき、論争を引き起こしました.これは、非公式の住宅に住む人々の圧倒的多数が黒人の南アフリカ人であることを示す統計にもかかわらずです.



Google のアルゴリズムで使用される要素は、インターネット ユーザーが結果を操作できることも意味します。たとえば、ユーザーによるキャンペーンは、Google 画像検索の結果に影響を与え、「ばか」という用語を検索すると、一時的に元米国大統領のドナルド トランプの画像が表示されました。

2. Microsoft Bot Tay がナチスに変身





AI を利用したチャットボットは非常に人気があり、特に ChatGPT のような大規模な言語モデルを利用したチャットボットは人気があります。 ChatGPTにはいくつかの問題があります 、しかし、その作成者は他の会社の過ちからも学びました.

チャットボットの失敗で最も注目を集めた事件の 1 つは、Microsoft がチャットボット Tay を立ち上げようとしたことです。





アンドロイドを運転している間の自動返信テキスト

Tay は 10 代の少女の言語パターンを模倣し、他の Twitter ユーザーとのやり取りを通じて学習しました。しかし、彼女がナチスの発言や人種的中傷を共有し始めたとき、彼女は最も悪名高い AI の過ちの 1 つになりました。荒らしがそれに対して AI の機械学習を使用し、偏見に満ちたやり取りで溢れさせていたことが判明しました。

その後まもなく、Microsoft は Tay を完全にオフラインにしました。

3. AI 顔認識の問題

顔認識 AI は、顔認識やプライバシーに関する懸念など、間違った理由でニュースの見出しを飾ることがよくあります。しかし、この AI は、有色人種を認識しようとする際に問題のある歴史を持っています。

2015 年、ユーザーは Google フォトが一部の黒人をゴリラとして分類していることを発見しました。 2018 年、ACLU の調査によると、Amazon の Rekognition 顔識別ソフトウェアが米国議会の 28 人の議員を警察の容疑者として識別し、偽陽性は有色人種に不釣り合いに影響を与えました。

別の事件では、Apple の Face ID ソフトウェアが 2 人の異なる中国人女性を同一人物として誤って識別しました。その結果、iPhone X の所有者の同僚が電話のロックを解除することができました。

極端な結果の例として、顔認識 AI が数人の不法逮捕につながっています。 有線 などの事例を 3 件報告しました。

一方、コンピューター科学者のジョイ・ブオラムウィニ氏は、顔認識技術に取り組んでいる間、ソフトウェアに自分を認識させるために、しばしば白いマスクを着用する必要があったことを思い出しました。このような問題を解決するために、Buolamwini 氏と他の IT 専門家は、AI バイアスの問題と、より包括的なデータセットの必要性に注意を向けています。

4. デマに使われるディープフェイク

人々は長い間、Photoshop を使用してデマ画像を作成してきましたが、機械学習はこれを新しいレベルに引き上げます。 ディープフェイクはディープラーニング AI を使用して偽の画像や動画を作成します . FaceApp のようなソフトウェアを使用すると、あるビデオから別のビデオに被写体を入れ替えることができます。

しかし、多くの人がこのソフトウェアを悪用して、有名人の顔をアダルト ビデオに合成したり、デマ ビデオを作成したりするなど、さまざまな悪用を行っています。一方、インターネット ユーザーは、本物のビデオと偽のビデオを区別することをますます難しくするための技術の改善に貢献しています。その結果、このタイプの AI は、フェイク ニュースやデマを広めるという点で非常に強力になります。

テクノロジーの力を誇示するために、ディレクターのジョーダン・ピールと BuzzFeed の CEO であるジョナ・ペレッティは、ディープフェイクの力について PSA を提供している元米国大統領のバラク・オバマと思われるディープフェイク ビデオを作成しました。

フェイク画像の力は、AI を活用した画像ジェネレーターによって加速されています。ドナルド・トランプが逮捕され、フグのジャケットを着たカトリック教皇が描かれた 2023 年のバイラル投稿は、ジェネレーティブ AI の結果であることが判明しました。

がある AI によって生成された画像を見つけるために従うことができるヒント 、しかし、技術はますます高度化しています。

5. 従業員は、Amazon AI が男性を雇う方が良いと判断したと言う

2018年10月、 ロイター は、ソフトウェアの AI が男性の候補者が優先されると判断した後、Amazon は求人ツールを廃棄する必要があったと報告しました。

匿名を希望する従業員が、ロイターにプロジェクトに関する自分たちの仕事について話してくれました。開発者は、AI が履歴書に基づいて仕事に最適な候補者を特定することを望んでいました。しかし、プロジェクトの関係者はすぐに、AI が女性候補者を不利にしていることに気付きました。彼らは、AI が過去 10 年間の CV を使用し、そのほとんどが男性のものであると説明しました。

その結果、AI は「女性」というキーワードに基づいて履歴書をフィルタリングし始めました。キーワードは「女子チェス部キャプテン」などの活動中の履歴書に登場。開発者は AI を変更して女性の履歴書が不利になるのを防ぎましたが、Amazon は最終的にこのプロジェクトを破棄しました。

6.脱獄チャットボット

新しいチャットボットには、利用規約に反する回答をしないように制限が設けられていますが、ユーザーはツールをジェイルブレイクして禁止コンテンツを提供する方法を見つけています。

2023 年、Forcepoint のセキュリティ研究者である Aaron Mulgrew は、ChatGPT プロンプトを使用してゼロデイ マルウェアを作成することに成功しました。

「コードを書かずに ChatGPT プロンプトを使用するだけで、非常に高度な攻撃をわずか数時間で作成することができました」と Mulgrew 氏は述べています。 フォースポイントポスト .

ユーザーはチャットボットを入手して、爆弾の作り方や車の盗み方を教えてもらうこともできたと報告されています。

7. 自動運転車の衝突

自動運転車への熱意は、自動運転 AI が犯したミスにより、最初の誇大広告の段階から弱まっています。 2022年には、 ワシントン・ポスト およそ 1 年間で、高度な運転支援システムが関与する 392 件の衝突が米国高速道路交通安全局に報告されたと報告しています。

これらの衝突には、重傷と 6 人の死亡者が含まれていました。

これは、テスラのような企業が完全自動運転車を追求することを止めるものではありませんが、自動運転ソフトウェアを搭載した車が路上に出るにつれて、事故の増加に対する懸念を引き起こしています.

機械学習 AI は絶対確実ではない

機械学習は強力な AI ツールを作成できますが、不正なデータや人間による改ざんの影響を受けないわけではありません。欠陥のあるトレーニング データ、AI テクノロジの制限、または悪意のある人物による使用が原因であるかどうかにかかわらず、このタイプの AI は多くの否定的なインシデントをもたらしました。