人工知能 (AI) は危険ですか?


2023 年 5 月 22 日月曜日、「ブルームバーグ フィード」と呼ばれる認証済み Twitter アカウントが、ペンタゴンでの爆発 があったとするツイートを画像付きで共有しました。これが人工知能 (AI) と何の関係があるのか​​疑問に思っている方のために説明すると、この画像は AI によって生成されたもので、ツイートはすぐに拡散し、株式市場の一時的な下落を引き起こしました。事態はさらに悪化する可能性がありました。これは、人工知能の危険性をはっきりと思い出させます。

人工知能の危険性

私たちが心配しなければならないのはフェイクニュースだけではありません。 AI には、プライバシーやセキュリティから偏見や著作権の問題に至るまで、多くの差し迫ったリスクや潜在的なリスクが存在します。これらの人工知能の危険性のいくつかを掘り下げ、現在および将来的にそれらを軽減するために何が行われているかを確認し、AI のリスクが利点を上回るかどうかを尋ねます。

フェイクニュース

ディープフェイクが初めて登場したとき、悪意を持って使用されるのではないかという懸念が生じました。 DALL-E 2、Midjourney、DreamStudio などの AI画像ジェネレータ の新しい波にも同じことが言えます。 2023 年 3 月 28 日、バレンシアガの白いパファー ジャケットを着て、スケートボードやポーカーなどの冒険を楽しむ偽 AI が生成したフランシスコ教皇の画像 の姿が急速に広まりました。画像を注意深く観察しない限り、これらの画像を本物と区別するのは困難でした。

法王の例は間違いなくちょっと面白いものでしたが、国防総省に関する画像 (およびそれに付随するツイート) は決して面白くありませんでした。 AI によって生成された偽の画像には、評判を傷つけ、結婚やキャリアに終止符を打ち、政情不安を引き起こし、間違った人々が使用した場合には戦争を引き起こす可能性さえあります。つまり、これらの AI によって生成された画像は、悪用されると非常に危険になる可能性があります。

AI 画像ジェネレーターが誰でも無料で利用できるようになり、その人気のソフトウェア Photoshop に AI 画像ジェネレーターを追加 により、画像を操作してフェイク ニュースを作成する機会がこれまで以上に大きくなっています。

プライバシー、セキュリティ、ハッキング

AI のリスクに関しては、プライバシーとセキュリティも大きな懸念事項となっており、多くの国がすでに OpenAI の ChatGPT を禁止しています。イタリアは、このモデルが欧州一般データ保護規則(GDPR)に準拠していないと考え、プライバシー上の懸念からこのモデルを禁止し、中国、北朝鮮、ロシアの政府は誤った情報が拡散することを懸念してこのモデルを禁止した。.

では、なぜ私たちは AI に関してプライバシーをこれほど懸念するのでしょうか? AIアプリ とシステムは、学習と予測を行うために大量のデータを収集します。しかし、このデータはどのように保存され、処理されるのでしょうか?データ侵害、ハッキング、情報が悪者の手に渡るという現実のリスクがあります。

危険にさらされているのは個人データだけではありません。 AI ハッキングは真のリスクです。まだ起こっていませんが、悪意のある者が AI システムをハッキングできれば、深刻な結果を招く可能性があります。たとえば、ハッカーは無人車両を制御したり、AI セキュリティ システムをハッキングして非常に安全な場所に侵入したり、さらには AI セキュリティを備えた兵器システムをハッキングしたりする可能性があります。

米国国防総省の国防高等研究計画局 (DARPA) の専門家はこれらのリスクを認識しており、すでに DARPA の「欺瞞に対する AI の堅牢性の保証 (GARD)」プロジェクトに取り組んでおり、この問題に根本から取り組んでいます。このプロジェクトの目標は、ハッキングや改ざんに対する耐性をアルゴリズムと AI に確実に組み込むことです。

著作権侵害

AI のもう 1 つの危険は著作権侵害です。これは、これまで述べてきた他の危険ほど深刻ではないように聞こえるかもしれませんが、GPT-4 のような AI モデルの開発により、誰もが侵害のリスクが増大します。

ChatGPT に何かを作成するよう依頼するたびに、それが旅行に関するブログ投稿であれ、ビジネスの新しい名前であれ、ChatGPT に情報を入力することになり、その情報を使用して将来のクエリに答えます。 AI がユーザーにフィードバックする情報は、他人の著作権を侵害している可能性があります。そのため、AI によって作成されたコンテンツを公開する前に、盗用検出ツールを使用して編集することが非常に重要です。

社会バイアスとデータバイアス

AI は人間ではないので、偏見を持つことはできませんよね?間違っている。 AI モデルと チャットボット のトレーニングには人材とデータが使用されます。つまり、偏ったデータや性格によって偏った AI が生成されます。 AI には、社会バイアスとデータ バイアスという 2 種類のバイアスがあります。

日常社会には多くの偏見が存在しますが、これらの偏見が AI の一部になると何が起こるでしょうか?モデルのトレーニングを担当するプログラマーは偏った期待を持ち、それが AI システムに組み込まれる可能性があります。.

あるいは、AI のトレーニングと開発に使用されるデータが不正確であったり、偏っていたり、悪意を持って収集されたものである可能性があります。これはデータバイアスにつながり、社会バイアスと同じくらい危険な可能性があります。たとえば、顔認識システムが主に白人の顔を使用してトレーニングされた場合、少数派グループの顔を認識するのに苦労し、抑圧が永続する可能性があります。

ロボットが私たちの仕事を奪う

ChatGPT や Google Bard などのチャットボットの開発により、AI を取り巻くまったく新しい懸念が生じています。それは、ロボット が私たちの仕事を奪うリスクです。テクノロジー業界ではライターが AI に置き換えられ、ソフトウェア開発者がボットに仕事を奪われるのではないかと心配し、企業が人間のライターを雇わずにブログ コンテンツやソーシャル メディア コンテンツの作成に ChatGPT を使用しているのを私たちはすでに目にしています。

世界経済フォーラムの「雇用の未来」レポート 2020 によると、AI は 2025 年までに世界中で 8,500 万人の仕事を置き換えると予想されています。たとえ AI が作家に取って代わることはなくても、すでに多くの人がツールとして使用しています。 AI に置き換えられるリスクのある仕事に就いている人は、生き残るために適応する必要があるかもしれません。たとえば、ライターが AI プロンプト エンジニアになり、これらのモデルに置き換えられるのではなく、ChatGPT などのツールを使ってコンテンツを作成できるようになるかもしれません。

将来の潜在的な AI リスク

これらはすべて差し迫ったリスク、または差し迫ったリスクですが、可能性は低いものの、将来的に発生する可能性のある AI の危険についてはどうでしょうか?これには、人間に危害を加えるようにプログラムされた AI (たとえば、戦争中に人を殺すために訓練された自律型兵器など) などが含まれます。

そして、AI はプログラムされた目標にひたすら集中し、人間がそれを阻止しようとしても、どんな犠牲を払ってでもその目標を達成しようとするため、破壊的な行動を起こす危険性があります。

スカイネットは、AI が知的になると何が起こるかを教えてくれました。ただし、Google エンジニアの Blake Lemoine は、2022 年 6 月に LaMDA、Google の人工知能チャットボット ジェネレーターは知覚力を備えていた だったということを皆に納得させようとしたかもしれませんが、ありがたいことにこれが真実であることを示す証拠はこれまでのところありません。

AI 規制の課題

202 年 5 月 15 日月曜日、OpenAI CEOのサム・アルトマン氏、人工知能に関する初の議会公聴会に出席 は、「この技術が間違った方向に進むと、かなり間違った方向に進む可能性があります。」と警告しました。 OpenAI CO は、規制を支持していることを明らかにし、公聴会に彼自身のアイデアの多くを持ち込みました。問題は、AI が非常に速いスピードで進化しているため、どこから規制を始めるべきかを判断するのが難しいことです。.

議会はソーシャルメディア時代の初期に犯したのと同じ過ちを犯すことを避けたいと考えており、チャック・シューマー上院多数党院内総務と専門家チームはすでに、企業がトレーニングに使用したデータソースを明らかにすることを義務付ける規制に取り組んでいる。モデルとそれを訓練した人。ただし、AIがどのように規制されるのかが明確になるまでにはしばらく時間がかかる可能性があり、AI企業からの反発があるのは間違いない。

汎用人工知能の脅威

人間 (または動物) が実行できるあらゆるタスクを実行できる汎用人工知能 (AGI) が作成されるリスクもあります。 SF 映画でよく言及されているように、そのような創造物が実現されるまでにはおそらくまだ数十年かかりますが、もし私たちが AGI を創造した場合、それは人類に脅威をもたらす可能性があります。

スティーブン ホーキング博士、ビル ゲイツ氏、さらには元 Google CEO のエリック シュミット氏を含め、多くの著名人がすでに AI が人類の実存的脅威となるという考えを支持しており、次のように述べています。テクノロジーが邪悪な人々によって悪用されないようにするためです。」

では、人工知能は危険なのでしょうか?また、そのリスクは利点を上回りますか?陪審はまだ結論を出していませんが、現時点で私たちの周りにあるリスクのいくつかの証拠がすでに見えています。他の危険は、たとえあったとしても、すぐに現実になる可能性は低いです。ただし、1 つだけ明らかなのは、AI の危険性を過小評価すべきではないということです。将来のリスクを最小限に抑え、できれば軽減するために、AI が最初から適切に規制されていることを確認することが最も重要です。

.

関連記事:


31.05.2023