エクスレラ8

壮大な失敗: 世界を驚愕させた 5 つのアルゴリズムの悪手 – Tech Startups

今日のハイパーテクノロジー環境では、周囲の会話は Artificial Intelligence (AI)とテクノロジーの進歩は避けられず、「AI はすごい!」といったフレーズが反響を呼びます。 「データは新たな金だ!」そして時代を超えた格言「AI が私たちの仕事をすべて奪うだろう!」これらの感情は最終的には真実になるかもしれませんが、現在の現実は、AI がまだ初期段階にあることを示唆しており、時折の事故や、正直に言えば、いくつかのまったく陽気な失敗が特徴です。最初の一歩を踏み出す小さな子供のように、AI は確かにつまずき、その過程で眉をひそめたり、笑いを引き起こしたりしました。

さらに…興味深い…事故のうち 5 つを見てみましょう。

エラーの喜劇を明らかにする: AI と COVID-19 の検出

世界が新型コロナウイルス感染症の課題に取り組む中、多くの医療機関は患者のウイルスを検出できる AI の開発に努めました。しかし、 MIT テクノロジー レビューの論文 これらの試みにおける数多くの失敗を明らかにします。根本的な問題は?全く意味のない無関係なデータを学習させる AI の驚異的な能力は、非常に複雑な意思決定につながります。

たとえば、ある研究者は、新型コロナウイルス感染症の存在を予測しようとする AI が、患者が横になっているか立っているかに注目していることを発見しました。なぜ聞くの? AI に供給されるデータが、当然のことながらベッドで療養中の重病患者を中心にしていることは理にかなっています。立っている人も、横たわっている人も病気であることを示唆するモデルを作成しました。歪んだトレーニング データは意思決定プロセスに影響を与え、任意のパターンを捉える AI の才能を示しました。このような間違いを正すのは簡単なことではありません。コードを 19 行調整するだけでは済みません。複雑さは、相互に依存するコーディングの複雑な網の中にあります。問題を 19 つ取り除くと、AI が新しい問題を発明し、おそらく 新型コロナウイルス感染症の重症度をベルトやネクタイの有無と同一視する可能性があります。

マイクロソフトの不幸: AI がヒトラーに同調したとき

Microsoft の AI、特にチャットボット「Tay」への進出は、このテクノロジーの潜在的な落とし穴を例示しています。 Tay は、Twitter (現在は X)、Kik、GroupMe などのプラットフォームでのソーシャル メディアのやり取りから学習することで、ミレニアル世代をエミュレートするように設計されています。 AI には文脈の理解が欠如しているため、テイは「人間はとてもクールだ!」というような発言の間で揺れ動くようになりました。衝撃的なことに、「ヒトラーは正しかった」と。この AI は、知覚のないツールとして、データバンク全体で、誰かが「ヒトラー」と言うたびに、次によく使われる単語は「だった」であり、その次によく使われる単語は「正しい」であることに気づいただけです。これは、AI が反復的なパターンを採用し、その意味を理解していないケースでした。この事件は、たとえ一瞬のミスでも意図しない、この場合は不快な言葉を発する可能性があるため、AI を導入する際には厳格なフィルターが必要であることを浮き彫りにしました。

Facebook のアルゴリズム上の失敗: ヘイトとの意図せぬ連携

同様に不幸な事件として、ソーシャルコネクションの代名詞であるプラットフォームであるFacebookも、その広告アルゴリズムによりブランドが憎悪に満ちた反ユダヤ主義的なコンテンツで特定の層をターゲットにすることができたことが明らかになり、厳しい監視に直面した。などの出版物で報告されているように、 スレート, Buzzfeed, ProPublica、「ユダヤ人嫌い」や「ヒトラーは何も間違っていない」などの不可解にカスタマイズされたフィルターは、プラットフォームによって自動的に承認され、わずか 30 ドルの支払いでチェックされずに実行されました。これは単純に、テクノロジーがそれ以上のことを知らなかったためです。人間によるシステムの乱用が確かに影響している一方で、AI がパターンを模倣し、トレーニング データに広く見られる数学的関連性を理解する傾向が問題を悪化させました。ここでのメッセージと教訓は明らかです。AI には次のことが必要です。 警戒する 有害なコンテンツの永続を防ぐための人間による管理。

AI による犯罪プロファイリングの筆頭: シャーロックには及ばない

画像認識に対する AI の闘いは、対テロおよび対犯罪ソフトウェアの分野で表面化しています。特に特定の層に偏った個人のテロリストや犯罪者としての無差別な識別は、重要な特徴に対する AI の理解の限界を浮き彫りにしています。現実には、この機械学習テクノロジーの賢さは、供給される情報と同じであり、このことは、私たちのグローバル社会における体系的な問題の蔓延を浮き彫りにしているだけです。存在する歴史的な情報や会話の大部分が、特定の肌の色、文化、性別、または信条が本質的に悪いか善であるかを示唆している場合、AI は統計的に提示されたもの以外に何も学ぶことがありません。残念ながら、これにより、AI テクノロジーが自動的に社会的不平等を拡大する例が発生しています。 人種に基づく運転免許の停止, 女性と少数派グループの過小評価 ヘルスケアモデリングにおいて。

繰り返しますが、このような誤認の影響は、訓練を受けた専門家、例えば、専門家による人間の介入の必要性を強調する以上のものです。 分析のオンライン修士号、重要な意思決定プロセスにおいて。

AI が反逆するとき: 独自の言語を作成する

非常に奇妙な出来事として、かつてチャットボット「ボブ」と「アリス」を使った Facebook の AI 実験では、 英語から完全に独立した言語の創設。これらのチャットボット (コンピューターと人間の両方と通信できる AI 技術) の「交渉」を支援することを目的とした演習では、使用する言語について具体的な指示は与えられませんでしたが、ボブとアリスは最終的に英語が最適であると判断しました。 「報酬」に欠けていて、独自のコミュニケーション手段を編み出しました。これは AI の創造的な可能性を示している一方で、「報酬」という概念が信じられないほどとらえどころのないものであるため、AI が人間の理解から乖離していることも浮き彫りにしています。

グランド フィナーレ: AI の特徴を受け入れる

これらの逸話で繰り返されるテーマは、AI はツールであり、特に現在の状態では完璧な神託ではないという否定できない事実です。その固有の課題は、数学的な複雑さと、考えられるすべてのシナリオを予測するのがまったく不可能であることに起因しています。あらゆるニュアンスに合わせてフィルターを作成しようとするのはシシュフェの仕事であり、たとえそれが達成されたとしても、その機能を監視することは非現実的な偉業になります。

要約すると、おそらく鍵は AI の強みと限界を認識することにあります。私たちの意思決定プロセス全体をそれに委ねるのではなく、言語の発明や創造的なアイデアのような分野におけるその能力を認めましょう。複雑で微妙な人間の仕事は、専門知識と、AI がその優れた点にもかかわらず依然として理解に苦戦している複雑さに対する真の理解を備えた有能な人間の専門家に任せましょう。これは調和のとれたパートナーシップであり、人間がテクノロジーの進歩を導き、双方がそれぞれの領域で繁栄することを可能にします。


私たちとチャット

やあ! どんな御用でしょうか?