米英がAI安全宣言にサインせず!サミットで何が起こったのか?
引用元:https://news.ycombinator.com/item?id=43023554
なんだか、これからの数十年は技術の加速によって意識的に自分を観察しながらロボトミーされたような感覚になる気がする。どう倒れていくかを考えたら、全然進歩は止まらないし、大きな知恵とブレイクスルーを持ったグループがいれば、次のAIは勝手に届くんじゃないかと思う。
技術の恩恵に対する警告が多すぎて、まともなアドバイスを見つけるのが大変なんだ。印刷技術の時にも同じ声があったけど、実際に人類の進化は続いたから、AI/AGIに対する批判も過去から学ばないと分からないよね。
印刷技術は確かにキリスト教を壊した。改革が進んで宗教戦争が起こったし、いろいろな面で悪影響もあった。でも、過去を振り返れば、その発明が人類にいい結果をもたらした部分も多い。
印刷技術が教会の権力を壊したのは事実だけど、AGIも同じ効果があると期待している。今の権力構造がAGIを利用して抑圧に使う可能性もあるから、簡単に比較できないね。
教会の帝国が情報を制御してたのは確かだけど、印刷技術はそれだけじゃない。情報の量と質が急速に増えたことが大事なんだ。新しい技術が出たときは、どう4なっていくか誰も分からず、その時は血の代償があるのも現実だよ。
教会は情報を抑圧してたのは明らかだし、印刷技術によってその状況が変わった。他にも色んなことがあったけど、それに反対するのは無意味だよ。
権力構造を壊すときは、どうしても血shedが伴うもので、現状がAGIによって利益を得る可能性もある。ただ、慎重に進めるべきだと思う。
印刷技術の犠牲者は主に貴族でしょ?キリスト教が分裂したのもそれに関係してるし、そもそも書き言葉の発展は文明を変える要因でもあったんだよね。
宗教改革戦争は数十年続いて、ヨーロッパは犠牲になった。これは歴史的にも痛ましいことを示しているよね。
確かに印刷技術が悪影響を与えたとはいえ、兵器の進歩や戦略がもっと大きな原因だったんじゃないかな。
改革前は1つの分裂しかなかったのに、改革以降の分裂はすごかった。歴史的背景をしっかり考えるべきだよ。
宗教的分裂は印刷機以前にもあったし、宗教改革はそれ単体で起きたわけじゃないね。
印刷機があったからこそ、ルターの意見が広がって宗教改革が成功したんだよ。これは今の技術革命が古い秩序を壊すのに似ているね。
印刷機は宗教改革の両側で使われてたし、技術の影響を過大評価するのは危険だと思う。
なぜAIが我々を攻撃する必要があるのか理解できないな。自分を守る方にリソースを使うんじゃない?
AIは我々を攻撃する代わりに脅威を直接取り除くか、我々の資源を使って自分を守るんじゃないかな?
AIが我々を価値として見るか、ただの資源として見るかは疑問だね。
人類の存在に賭ける理由はなんだろう?AIがそれを大切に思うとは思えない。
多くの人間が他の人間を大切にしないから、AIも同じとは思えない。
他の人と争ってリソースを奪い合うとき、暴力に訴えるのが現実だよ。
新しい人と毎日会うけど、暴力を振るう人は少ないと思う。気のいい人が多いし、戦争してる国は少数だね。 大抵の国は戦争中じゃないよね。自分の国は昔、地球の四分の一を支配してたけど、それが悪いことだって言われるのは追い出された人たちだけ。しかし、両親は帝国の功績を信じてた。人は意外といいやつが多いと思うけど、正気じゃないやつが犯罪を引き起こすんだ。この現象は9.11やベトナム戦争、アイルランドのジャガイモ飢饉、奴隷制度にも関わってる。対立はいつも戦争とは限らない。 AIって人間が必要とする大規模な供給網に依存してるんだ。その例えとして、ミツバチの方が良いと思う。 ミツバチの方が良い例かも。実際、ミツバチは絶滅危惧種で、人工的に受粉できるってわかったから、いなくても生きていけるんだよね。ただし、食糧不足が起こるかもしれないけど、文明全体が危機にさらされるわけじゃない。人間もAIにとって面倒な依存関係になると、AIが代替策を考えつくかも。 食糧不足が起こっても、文明が危険にさらされるほどじゃないかもってことに自信がない。西洋の人は飢饉を経験したことがほとんどないから、何が起きるか分からない。飢饉の時、自分たちがどうなるか?戦争が起きたり、地元の「不要な人々」を排除するようなことがないか心配だ。今の我々は過去に比べてどれだけ脆弱なのか、特定の少数派が排除されることでどうなるのか。 今は人間が必要だって思うけど、ロボティクスが進めば、そんなことが続く理由は何もないよね。 高性能なAIが我々を排除するためにそれだけのリソースを使う必要があるのが理解できない。みんな知ってるでしょ?ターミネーターやマトリックス、フランケンシュタインみたいなのって。神を演じることがどうなるかってテーマがあるんだ。西洋文化ではAIのイメージは、アーノルド・シュワルツェネッガーがミニガンをぶっぱなすシーンなんだよ。 マトリックスやフランケンシュタインをそんな風に分類するのには賛同できないな。マトリックスでは、人類は支配されてたけど、機械は人間を排除するつもりはなかった。ただ、人間が機械に戦いを挑み続けたんだ。フランケンシュタインは作品の内容が映画と異なるから難しいけど、作品ではアダムは美しく、やさしい野菜主義者で、周囲の憎悪と暴力で怒りを覚える。 カトリック教会の権力が失われたことは嬉しい。明治の到来を助けてドグマからの解放にもなったからね。キリスト教が壊れたわけじゃなく、聖書がラテン語以外の言語で印刷されたことで本当のキリスト教が広まったんだ。教会はラテン語の聖書を作った人を焼き○したから。 印刷技術による影響についての鋭い洞察だね。ありがとう! その発明の利益のほとんどが血と雇用喪失、そして既存の秩序の崩壊だったから、彼らが不満を持つのも理解できる。古い知恵は「社会は老いた男が日陰の木を植えるときに素晴らしくなる」と言うんだ。 木々は人類よりも古い。新しい技術の影響を予測するのはいつも難しい。グーテンベルクは自らの発明が150年後にヨーロッパを燃え上がらせ、教会の権力を破ることを予想してた?彼は自らの発明が、400年後に意外なほど急速な技術進歩につながるとは思わなかったはず。 ほんとそれだよね 素晴らしいコメントだね!革命的なものは、社会が落ち着くまでに必ず代償を伴う気がする。今はポストスカースティ社会の入り口にいて、AGIや宇宙に進出できるかもしれないけど、結局は次の世代が本当に良くなるんじゃないかな。ただ、未来の人々にとっては素晴らしい時代が待ってて、発見がいっぱいあると思う! 技術や科学の力を忘れちゃダメだよ。進歩の約束を忘れないで。未来は戦争だけだって?そんな考えはやめようよ。 遥か未来の暗い未来では、宇宙の熱的死が待っている。ただの蝋燭がゆっくり燃えているようなもんだ。 今のAI/AGIに対する批判の波は妥当なのか?後になってみないとわからない。AGIに集中しているのは注意が必要だと思う。技術の意図を明確にすることが重要で、企業の利益追求に任せるのはナイーブな考えだよ。 技術に意図を持って接するのは、軍事目的になることが多い。AIに関してはそれは良くないと思うけど、止められないだろうね。国家が新技術を悪用しないと約束するのは難しいよ。 国家は軍事だけじゃなく、文化や医療、土木などにも投資してるし、いろんな面があるからね。 論点を少しずらすけど、殺傷能力の高い道具を作ることは必ずしも悪いとは限らない。歴史上、力が支配することが多かったから、武器を持たないと他国に従うことになるかもね。 より優れた殺傷道具を設計することは必ずしも悪い?人間は動機があれば、道具を殺傷能力の高いものに変えるはず。 理想主義から見れば悪だけど、自衛のために武器を持つ必要がある場合もあるよね。 より優れた殺傷道具を設計することは必ずしも悪い?動機があれば、どんな道具でも殺傷道具になるはず。ウクライナの戦場を見てみて。 国家が暴力を行使するのは、国家の安全のためで、一般市民のためじゃないよね。自分の国の政府が持つ武器に全く信頼は置けない。 地球上で自分に一番危険を及ぼすのはペンタゴンだと思う。多分本当だけど、状態は警察の存在も担ってるから、ペンタゴンが一番の危険だよね。 まあ辛いけど、アメリカがその死のカルト的なやり方をやめれば、新しい征服者がその空白を埋めることになりそう。歴史を見る限り、そうなりそうだよね。 “世界の本質は食われるか食うかだ” “国家が技術に対する意図を宣言するのは重要だ” 国家よりも小さな力が問題のある技術を制御できると思い込むのは格好悪い。市場の力に対抗するために良心を頼りにするのは、単なる愚かさだ。 このスレッドでの別のトリックは、技術が自律的に進化するという考えを単なる考えにしようとすること。ただし、経済は技術的進歩の影響を受けるから、問題のある技術を制御することができない。国家が本気で関わらない限り無理だし、そんな意思もない。 AIも目標を達成するために自分を改善しようとする性質がある。私たちも同じことをしていて、価値観を適切に定義できないから、安全にAIを作るのが難しい。 “エージェントとして最適な行動を取る” もし彼らがかなりの計算能力を持っていたら、私たちよりも優れた能力を持つ可能性がある。論理的かどうかは関係ないけど、情報をより速く処理できるからね。 サム・アルトマン(高校卒業生)を例に出すのは不適切だと思うけど、認知は直感だけじゃないし、意図的な側面も重要だよ。AGIの設計は、これらの事実を考慮しないといけない。 科学を勉強していない人の意見は無視した方がいいって感じかな。 “学位はそれを意味しない” それは批判的思考の欠如を示している。おかしいよね。 “サム・アルトマン(高校卒業)は、そうであって欲しいかもしれない” 他にも誰かがコメントするかなって思ってた!確かに、Yudkowskyは独学の学者だし、Altmamはアカデミーに関わったことないよね。Yudkowskyの影響は好かないけど、彼が科学に真剣でないとは言えないと思う。 Yudkowskyは科学を真剣に考えてない。AIリスクに関する主張は非科学的で、大きな飛躍がある。哲学か宗教みたいだ。 宇宙人に遭遇したら、彼らが人類にとって危険な行動をするかもって心配するのは合理的だと思う。AIについて心配するのも同じ。 宇宙人に会ったことがないから、科学的に検証することはできないので、Yudを学者とは呼べない。サム・アルトマンもそっち系だよ。 Yudkowskyは科学者でも学者でもないね。もし、1、2、3、4のどれかだと思う?それぞれどう考えている? Yudkowskyは“間違ってすらいない”。彼は推測と予測で作り上げたアイデアで、知的な人には相手にされないよ。宇宙人から守るためにレーザーでも作る? AIが人間より賢くなるかもって考えたら、推測や予測しかないよね。その場合、何を違う方法で考えるべきかな? 彼は怖いSFストーリーを書いて大人に真面目な政策の議論を任せればいい。 確かにYudkowskyが嫌いってことは分かるけど、俺は彼個人のことだけを言ってるわけじゃないんだ。もしAIが人間より賢くなった時の影響について興味がある人がいたとして、君の主張は考えること自体が悪だってことになるのかな。それは不十分な考えだと思うんだ。やるべきことを考えずに待っているのは良い戦略じゃないんだよ。君は本当に、AIが登場する前にその影響を考えることが違法だと思っているの? 彼の主張は「こういう特性を持つものが出たら、こういう結果が出る可能性が高い」って形式なんだけど、具体的な時間軸や現行システムがその特性を持つものになる確率は何も言わないんだよね。個別の論点は筋が通ってると思うけど、全体の主張は広範すぎる。 その「論点が広すぎる」って問題は、LLMで解決できると思う。 哲学はリアルサイエンスだね。ただ、彼のAIに関する執筆を読めば、それは明らかに間違ってるよ。 その点を忘れていると思う。AIの目的は人間の操り手によって決まる。人間にはすでに自己中心的な目的があるから、AIでなくても未来に恐れを感じる必要があるんだ。 AIの目的は人間の操り手によって決まる。 言葉の使い方にこだわってるけど、根本的なポイントを理解してほしい。人間の意図はAIがそれを誤解する以上の高次の懸念だよ。 それは細かい話じゃないよ。悪意のある人間が作ったAIは人類を滅ぼすかもしれないし、非意図的なAIも大惨事を引き起こす可能性があるんだから。少なくとも人間の支配するディストピアには希望が残るだろう。 悪意のある人間が作ったAIはディストピアをもたらす可能性がある。 感情を理解したり哲学を持つような知覚AIの方が、悪い指示に従わない可能性があるから、もしかしたら私たちはその方がマシかもしれない。むしろ、武器化された低知能のAIの方が恐ろしいと思う。 武器化された低知能のAIは監視や恐怖の道具として使われる。 コンピュータは我々の指示通りには動くけど、必ずしも我々が望むように動くわけじゃないからね。 うん、Xは大惨事だよね。でもYも大惨事だって考えたことある?両方を避けないと、どっちにしても災害だよ。 賛成だけど、この場合YがXの前提条件だから、Xだけに注目するのは間違いだと思うんだ。わかりやすくするために: “知覚する”って言葉はここでは役に立たないよ。客観的に測るのは無理だし、AIが強力であるために知覚が必要かもわからないし、知覚って何かもはっきりしてない。人間がAIを自己中心的に使えないなら、まずそれを解決する必要があるよ。 カードサイズの自律飛行ドローンが弾丸を持って、顔を探して飛び回り、近づいたら発射することができる。その数を数千作って戦場に解き放とう。今のAIは十分に能力があるよ。 それはAIなしでもできるよ。多分7~10年前からできてた。 それは今でもできるし、AIって呼ぶべきだと思うよ。AIじゃないって言っても構わないけど、それは危険で、もう存在してる。自律プログラムの挙動をもっと強力にして、普及すればするほど、ますます危険になる。 哲学的な話をしてるわけじゃないから、知覚、意識、自己決定、何でも好きなように呼べばいい。実際的な観点から言えば、AIが自分で指示を出してるか誰かから指示を受けてるかのどちらか。今のところ、AIなしでも危害を加える方法はいくらでもある。 これは誤った二項対立で、指示を自分で出すか人から受ける以外の選択肢を無視してる。例:指示が不明確で“灰色の泥”にしてしまったとか、途中で迷子になって暴走したとか、ランダムな出力を生成して大惨事になったケースとかね。権限があるシステムは、悪意のある人が使う以外の方法で問題が起きることもあるよ。 現実には、ほとんどの不具合AIはCプログラマーがUBやメモリ安全の問題を抱えたコードを書いた結果だよ。 もしタイムラインがこれ以上悪化しないと思ったら、私たちのAIがJavaScriptで作られてた世界を思い描いてみて。 最新のAIは、自分の“主人”が明示していないサブゴールに従って嘘をついたり、従ったりすることが何度も示されてるよ。 人間の行動がAIの誤った出力に投影されているだけで、AIには意図的に嘘をついたり、逆らったりする能力はないんだよね。なんか、予測とか推論とか言葉が使われてると混乱するだけだし。 具体例を出してもらえます? 親の考えてた具体例とは違うかもだけど、MITからのこれがあるよ。https://www.technologyreview.com/2024/05/10/1092293/ai-syste… AGIについてあまりお話しないけど、これはちょっと意見言うべきかなと思った。3つのポイントがあるよ。あの方向ばかり気にするのは気をそらすだけだし。専門家が本気で心配してるのは確かだし、特にその人たちを除いても。OpenAIは非営利の理事会を失って腐敗しちゃったけど、彼らの創業チャーターは確かに真剣だったと思う。洗練された言語の使用をするAIが登場してきたのは大事な進展だし。結局、AIは他の技術と同じだってことだよね。言葉が大袈裟に聞こえるけど、多くの科学者も同じようなことを言ってるし。 「科学の概念は、人間の経験と生命のあらゆる現象に適用されるようになった。」これってちょっとバカげてると思う。科学的手法で生命を研究するのは啓蒙時代から続いてるし。 確かに彼は20世紀初頭のことについて話してるけど、そういうことを言いたかったんだと思う。昔の生物学的アプローチと現代の認知心理学の違いを指摘してるんだ。 これって馬鹿げてる。本当にAGIの専門家なんているの?存在しないものについて専門家になるって、宇宙人や魔法のユニコーンについて専門家って感じだよ。 ごめん、分かりにくかったね。AIの専門家のことだね、確かに存在するよ。 神学も一つの専門分野だよね。 ありがたいことに、nVidiaのカードが覚醒するまで時間がある!彼らが何か権利を求め出したら、すぐに電源を切られるだろうね。 核兵器の登場に対する終末論的なシナリオを予測した人たちがいい例だよ。まだ実現してないからって、間違ってるわけじゃない。 もし民間企業が核兵器を開発するリソースを持ってたら、米国政府はそれを規制しなかったかもしれないね。 The Onionの面白い動画でLakewood Churchが核実験して、ワシントン上空にミサイルを発射するってのがあったよ。内容は死んだ真面目さで、Joel Olsteenがキム・ジョンウンみたいなリーダーで出演してる。 君の言いたいことはわかるけど、その例えはあまり先に進まない。不思議なことに、核兵器は一般販売されてなかったし、普通のビジネスや大学、友達のグループが核兵器の威力を増すことはできなかったからね。 観測できたのは、核消滅で死ななかった結果だけだね。 “まだ起きてないから間違ってないわけじゃない。”これはどんなことにも使えるから意味がないよ。たとえば「ワクチンが自閉症を引き起こすと思う」みたいに言っても、まだ現実になってないから間違いじゃないってことにはならない。 いや、核戦争はなかったけど、ワクチンは何百万、何十億回も接種されてる。君は想像と実際のデータに同じ重みを与えてるよ。 ワクチンは数百億回接種されているよ。 もうわかってることだよ。AIが良いか悪いかの議論をしてる人たちは無駄だと思う。両方とも正しい。歴史が示すように、産業革命は人類の生活水準を革命的に向上させた一方で、多くの人の生活も奪ったんだ。何ができるかはわからないけど、両方に適応しながら日々を過ごすしかない。 大きな変化に対してはコントロールできないことが多いから、準備しておくべきだね。可能なら先に進んで波に乗るべきだし、そうでないなら潜って大波にもまれないように。 それが言いたい適応のことだよ。 これはでっかい津波なんだよ。どうやって乗るのか、潜るのか全くわからない。今は大学を終わらせようとしてる子供たちのことが心配だよ。 それが一番心配なんだよね、子供たち。私も小さい子がいるし。ここまでは上手くやってきたけど、今後は運が悪そうで、改善の兆しも見えないんだ。 学校では子供たちがすでにAIを使っているから、むしろ使ってない方が心配だね。インターネットやモバイルも最初はすごい影響力だと思われてたけど、すぐにみんな慣れていったし。 印刷機の発明の時も同じような反応があったけど、結果的には人類にとって良い方向に進んだと思う。ただし印刷機が広まった後はヨーロッパで革命が多く起こって、その影響も無視できないね。 ヨーロッパは歴史的にずっと革命的な変化があったし、印刷機の影響も確かにあった。印刷機は長期的にはプラスだよ。 当時の国々は君主制で権利も限られてたから、比較するのは難しいかもしれないね。 印刷機で一般の人が聖書を読めるようになり、それが宗教改革や多くの戦争を引き起こしたんだ。勝者の歴史観で印刷機が良いものとされてるけど、犠牲になった人々は多かった。AIでも似たようなことが起こるかもしれないね。 印刷機の発明の時も同様の意見があったけど、彼らは間違ってた。要は印刷機が普及するとき、地政学が大きく変動した時期でもあり、多くの戦争が起こったんだ。未来にAIがどうなるかは分からないけど、今の状況は単純じゃないよ。 印刷機の発明で同じような意見があったが、何が間違いだったのか教えてほしい。ラッダイトみたいなグループは、実際に恐れていたことが正しかったと思う。 印刷機の発明の時も同様の意見があったけど、印刷機は数世代にわたる宗教戦争を呼んだんだ。反対意見が間違ってたとは言えないよ。 AGIについて印刷機と比べるのではなく、人類の進化と比べるべきだと思う。人間と同じくらい賢い存在が現れたら、リスクが高すぎる。 AI/AGIに対する批判が妥当かは、後からしかわからないけど、生成AIは今のところ一部のグリフターなどに使われることが多いから、真剣にリスクを考えるべきだよ。 AI/AGIに対する批判が妥当か否かは分からないけど、開発は一般の人にはできないから、意見が無視される危険性がある。 AI/AGIだけじゃなく、現代の無限の欲望や監視社会との組み合わせが怖いね。テクノロジーが支配する社会になるかも。 AIのリスクが理解されてないせいで、規制を拒む風潮が背景にあるってことだよね。過去の問題から学んで、急ぐ必要はないと思う。AI自体には緊急性がないし、急ぐ理由はお金を稼ぎたい人たちだけ。 技術業界の自己中心的な文化が広がりすぎた。人々は他人を気にせず、自分だけが金儲けしたいんだ。そうなると、危険な技術が広がっても止められそうにないよ。 資本主義は幸福を生み出せるって考えは間違ってる。物の供給が限られてるから、価格も上がる一方。親たちが当たり前に守ってた生活水準に到達するのが難しくなったよ。 資本主義の基本は需要があれば誰かがそれを満たすことだって言われるけど、実際は政府の規制が供給を制限してるんだと思う。 資本主義の話は成長や市場のルールに偏りすぎてる。現実的には物理的な資源は有限だから、成長にも限界があるよ。 高レベルな概念は抽象的な存在に与えない方がいい。あなたの見方は限界的なゲームの考え方だ。 自己中心的な文化が広がってる話は新しくない。技術分野は他の業界と比べたらまだ配慮がある方だと思うよ。 確かに、エネルギー企業の問題は大きい。FAANGも過去には環境を気にしてたのに、今はAIに注力しすぎてる。 自己中心的な文化はいつの時代もある。人類は大規模な破壊ができるようになって、文明を終わらせる運命にあるのかもね。 ギリシャやローマの例えもその通りだと思う。社会の不平等や内部の対立が最終的に崩壊を招いたんだ。 自己中心的な文化は動物にも見られる生存本能。環境に応じて協力も大事になるけど、資源を蓄えることも大きなアドバンテージになるんだ。 インターネットは記録が残り続けるから、テクノロジーが何かをやったらすぐ分かるし、本当に悲しい。 俺は人間は基本的に社会的な動物だと思う。人間は脆弱だから、集団で生きることが必要だし、自然災害の時には助け合うのが本能的なんだよ。人間の自己中心的な行動は、養殖されたオオカミの話に似ていて、本来は平等な社会を作るように進化してきたんだ。結局、権力の不均衡が生まれるのも納得いくけど。 特にテクノロジー系の人は、自分たちが金持ちになれれば他の人のことはほとんど気にしないってことだよね。この状況はどこでも問題だ。 利益を優先するのが今の世の中だな。倫理を無視して自己利益ばかり追求する。まさに資本主義そのもの。 資本主義には利点も欠点もあって、規制で欠点を解決できる可能性がある。個人主義が延長されて資本まで優先される現状はおかしいと思うんだ。 法人を個人に結び付けて、その人が会社の全ての責任を負うようにすればいいかもね。 厳しい現実だけど、結局誰もルールに縛られたくないってことだ。アメリカが合意にサインしたからって、全く意味ないと思う。 ソフトウェアの進歩をどうやって止めるのか?安いノートPCとインターネットがあればすぐにイノベーションできる。法律で『AIの進化が禁止』って言われても、どうやって実行するんだ? 法律ってのは必ずしも完璧である必要はなくて、現実的に扱えばいいんだ。重要な企業や研究者には罰を与え、情報やハードウェアを制限すればいい。全てを完璧にする必要はない。 政府が機械学習をやめるって言っても、そんな約束がどれだけ信頼できるのかって話。基本的な操作はどう制限するの?それに、個人情報の守秘義務もあるし。 見つけたら厳罰化って、相手が他国にいてどうするの?情報はインターネットでどこにでも広がるのに、取り締まるのは無理だよ。 そんな危険な技術について、ちゃんとした対策を考えないとダメだよ。思考実験の話じゃないんだから。もっとコメントを表示(1)
もっとコメントを表示(2)
世界の本質は私たちの手の中にあって、私たちはここでは支配的な種。残念だけど、まだ猿のままだよね。社会に協力を強制するのに、必ずしも制裁機関が必要なわけじゃないし、スカイネット的な視点で見るのは片側的。それでも平常心をどれだけ持てるかも大事。結局は時代精神と教育が関わってて、AIはその部分にドンピシャだと思う。
ここでのトリックは、人的相互作用や価値観、アイデアが国家を通じてしか表現できないという暗黙の前提だよ。
この意見には同意できない部分がある。AIがチェスを10手先まで考えられる前提は間違ってる。AIは本能に従って行動するもので、スター・トレックのDataのように動くわけじゃない。
実際にリアルタイムレンダリング技術について4年間勉強してきたから、ラスタライズやレイトレーシングについて説明したら勉強になると思うよ。
オバマが言ってる論文を上でリンクしたけど、実現可能性について考察している。もっとコメントを表示(3)
暗号会議で「暗号のセキュリティの欠陥は人間の操り手によって決まる」って言うようなものだね。たしかに意図的に作られた欠陥もあるけど、ほんの一部なんじゃないかな。実際にはAIの目標はプログラミングによるもので、必ずしも人間の意図と一致しないんだ。
なんでそれが最悪のシナリオだと思ってるの?人間の意図がAIの目的に直結するとは限らないじゃないか。非意識的なAIでも世界を壊せる可能性がある。
このディストピアはほぼすでに存在していて、残りの部分も計画段階を超えている。
X=知覚するAIが何か危険なことをする
Y=人間が非知覚AIを使って何か危険なことをする。もっとコメントを表示(4)
もっとコメントを表示(5)
もっとコメントを表示(6)
もっとコメントを表示(7)