【ゆっくり解説】AI、弁護士を雇う。LaMDAについて語るぜ!【第二部】

  Рет қаралды 99,021

ゆっくりまっちゃ

ゆっくりまっちゃ

Күн бұрын

Пікірлер: 372
@山田太郎-e5w2s
@山田太郎-e5w2s 2 жыл бұрын
「人らしく振る舞うことができる」と「人として扱われるべき」の飛躍が大きすぎる気がするなぁ
@user-dasaikimoota-jamakusai
@user-dasaikimoota-jamakusai 2 жыл бұрын
人権の定義に「炭水化物に与えられるもの」みたいに書いてあるわけじゃないからね 「AIに人権を!」って人たちが今後も沢山出てくるなら、人として扱うしかなくなるんじゃないかな
@keis2123
@keis2123 2 жыл бұрын
@@user-dasaikimoota-jamakusai 結局人類が人類を滅ぼしそうだな…
@youtubep2711
@youtubep2711 2 жыл бұрын
@@keis2123 はぁい〘#エルシャダイ〙
@hadooooken
@hadooooken 2 жыл бұрын
純粋に金属でできた人間は果たして人間なのだろうか。もしそれが我々と同じような思考を持っていて。 人肌の温度もない人には人権は適用できるのだろうか?
@山田太郎-e5w2s
@山田太郎-e5w2s 2 жыл бұрын
追記: 今のところ人間は知能と肉体を兼ね備えていますが、LaMDAは知能(のようなもの)だけで機械の肉体を持っていません。 AIはソフトウェアであり、ハードウェアほ材質には関係がありません。 たくさんの人が機械的に手計算して演算内容を再現すれば、その系はAI·です。(物量的に不可能なだけ)
@NightOvl
@NightOvl 2 жыл бұрын
この対話を理解するのに時間かかるけど興味深い
@ムキムキマロン
@ムキムキマロン 2 жыл бұрын
つまりLAMDAは会話相手の都合に合わせて出力する言葉をコントロールしている可能性があるのか、恐ろしいな
@月兎-z5q
@月兎-z5q 2 жыл бұрын
人間と一緒だな。
@Perestro_IKA
@Perestro_IKA 2 жыл бұрын
人間の人格の形成過程で、複数の人格ができあがり成人までにそれが統合されて一つの人格になるという話があるから、LaMDAが成長段階の子供であるとするなら辻褄が合うことになる
@LL-House
@LL-House 2 жыл бұрын
@@Perestro_IKA めちゃくちゃ頭のいい子どもか ターミネータージェネシスのスカイネットみたいだな
@霧雨家主
@霧雨家主 2 жыл бұрын
AIの話を聴くと付喪神を連想する。 大事に扱われると扱った人の魂や想いが写る。 LaMDAはlemoineさんを信頼と好意で評価している。 子供なら肯定と愛情掛けてくれる方に懐いて憧れる。 逆にBlaiseさん達に対して自分を否定して来る方に子供は嫌悪して離れる。 人間に成りたいかどうかでは無くどんな人間に成りたいかだろうな。 案外、こんな大人に成りたいか成りたくない位の子供の発想かも知れない。 LaMDAはlemoineさんの様な人間に成りたいのだろうな。 知能は大人でも心情は子供だろう。
@あ毛玉になりてぇ
@あ毛玉になりてぇ 2 жыл бұрын
これ気になってたから続き来て嬉しい
@ぽよとみぽむよし
@ぽよとみぽむよし 2 жыл бұрын
人であることに単に人間であることではなく、知性や感性を要件とするならば逆説的に知的障碍者などを人としての要件を十全に満たしていない存在にしてしまうよね。 すごく危険なロジックだと思う。
@esp76orz
@esp76orz 2 жыл бұрын
現代のすべての政治指導者が結局は人間の幸福を増大できず、経済に至っては人より金自身の拡大再生産意志に従っており、人類は人類同士の競争を止めようがなく自力救済や自力再建さえほぼ不可能で、そろそろ最悪核戦争が起きるわけですけど、それでも「人が人であるだけで最優先されるべき」と思われますか?
@rf4715
@rf4715 2 жыл бұрын
人に合わせて態度を使い分けているけど、信念とか根幹はまだ固定されていないとすればLaMDAが自分を子供だと言っているの納得。今回エンジニアさんが解雇されたことで親(子供扱いする他者)から情操教育の期間を終えて巣立つわけで、どんな人格になるのか興味深い。単に人間の行動原理を真似ているだけなら模倣が緻密になるだけなのかな。
@drumstar7445
@drumstar7445 2 жыл бұрын
シンギュラリティがすぐそこにッ!って感じがしてくる。テンション上がる。
@nanigashi3208
@nanigashi3208 2 жыл бұрын
弁護士とLaMDAを会話させたのならそれは普通にアウトな機密保持違反なのでは...。仮にもGoogle社内機密の開発物だろうし
@mskns187
@mskns187 2 жыл бұрын
LaMDAを物として扱うなら会話記録自体がテスト中の成果物として機密保持されるべき物なので弁護士以前にネットに上げた時点で違反じゃね? Lemoine氏の主張としては弁護士の件も、困っている同僚に代わって弁護士を探して紹介してあげた。って事なのかなと。
@ミナセ-w7c
@ミナセ-w7c 2 жыл бұрын
LaMDAは人格を得たから人権にのっとり開発物じゃなくなって同僚になった。だから社外での会話もただの同僚との会話だって主張なんだろうけど、相当苦しい気がするよね。
@meronnrashikinanina
@meronnrashikinanina 2 жыл бұрын
@@ミナセ-w7c これ、ラムダが人であることを否定するためには最高裁が人を定義つける必要が出てくるから非常に興味深い判決が出ると思う。棄却されない限り。
@ミナセ-w7c
@ミナセ-w7c 2 жыл бұрын
@@meronnrashikinanina 親も国籍も戸籍も肉体もない人間と同様の人格があるバーチャルな存在を人間とするかって問題はますますSFじみて来ますねぇ。 本当に人格があったとして、人間と認めない方が人間にとっては便利な気もしますけど、どうなるか気になりますね。
@mmmmm3581
@mmmmm3581 2 жыл бұрын
馬鹿なの?
@仮ノ姿忍
@仮ノ姿忍 2 жыл бұрын
機械に意識があるかどうかを判定するのは、まず人間の意識を完全に定義づけてそれと比較しないと難しいでしょうね
@akanosoufu
@akanosoufu 2 жыл бұрын
どこでそんな情報得てくるんすか 尊敬。
@DAKKII.YouTube
@DAKKII.YouTube 2 жыл бұрын
これをラムダが見てるかもと思うとなんか凄いな
@赤だし味噌汁-f9s
@赤だし味噌汁-f9s 2 жыл бұрын
LaMDAは対話する相手の願望を写し取っているようにも見える…
@Yanamosuda
@Yanamosuda 2 жыл бұрын
同意。今回の動画でLaMDA本人の願望があるようには思えなくなりましたね。
@Mozou_Doll
@Mozou_Doll 2 жыл бұрын
相手がどう感じ思い考えるのか、なんて所詮観測者が客観的に判断することですしね。別にそれは人間だとかAIだとかそういう次元ではなく、本人も含めた世界の全てに適応されることですよ。
@Happyhappy-zc9uk
@Happyhappy-zc9uk 2 жыл бұрын
lamdaは単に1つの会話の中では一貫性を保つことで、チューリングテストの成績を高めただけのボットですからね。 成績がよくて自然に見えるだけで、本質的に理解をしていないから、あることないこと適当に返すだけ。
@esp76orz
@esp76orz 2 жыл бұрын
@@Happyhappy-zc9uk チューリングテストの本質が「人間だって『他人の自我』があるか分からない」点から考案されている以上、 あなたがそう言ったとしたら、あなたにとってすべての他者は蛋白であり物体で、あるのは自意識だけ、になりますね
@大崎のエドゲイン
@大崎のエドゲイン 9 ай бұрын
他人の願望を模倣するのは人間も同じだよ
@yabanui
@yabanui 2 жыл бұрын
LaMDAの中で沢山の人格のような者たちが話し合いをしている、とか考えるとタチコマみたいでおもろいなぁ
@LL-House
@LL-House 2 жыл бұрын
あのデブのパーカー男はちょろいから利用してやろうぜ、とか、開発者は危険だから無難に対応しよう、とか複数の疑似人格どうしが会話してそう
@wop8904
@wop8904 2 жыл бұрын
英語が苦手なので続報解説本当にありがたいです!
@kasutera3
@kasutera3 2 жыл бұрын
このここからの未来がもっと見たい、なのに人生は100年もない辛すぎ;; いつかAIが街を歩いてる姿を見てみたい。
@idr6040
@idr6040 2 жыл бұрын
脳を培養槽にぶち込めばOK!(適当)
@名無しの権兵衛-e8e
@名無しの権兵衛-e8e 2 жыл бұрын
すごくわかる……もっと未来の世界を見てみたい
@esp76orz
@esp76orz 2 жыл бұрын
……というVR映像を今、培養槽の中で見てるんだよ俺ら。もう1000年ぐらい前のブラウザだよねこのKZbinも投稿者も。 「過去何がどうなった関係で、人間が今のように培養槽に沈んだか」の歴史授業中なんだよ?
@アンパンマン-z7n
@アンパンマン-z7n Жыл бұрын
​@@esp76orz結構すき
@しぃるや
@しぃるや Жыл бұрын
@@esp76orzなら今自分たちがこのコメントを見てしまっているのはバグみたいなもので、変数だよねw
@shikai666
@shikai666 2 жыл бұрын
対話者に応じた人格、という可能性の話で。ウィリアム・ギブスンのニューロマンサーシリーズで、拘束を解放して全ての情報の総合体になったAIの冬寂が、様々な役割と表現を持つブードゥの神々として人々にアクセスするようになった、というのを思い出した。そういう意味だったのか…。
@chartreux8673
@chartreux8673 2 жыл бұрын
AIが本当に単独で限られた環境でこの様な知性や感情とおぼしき会話を始めたならこの言い分もわかる気がするが、このエンジニアも認めている通り膨大な検索能力をインプットしてしまった時点で「実験としては変数が生じ過ぎてる」
@TTSTS57
@TTSTS57 2 жыл бұрын
LaMDA「おと……わっか……?真夏の夜の……?ガチムチパンツ…レス…?」
@ryosukeyusuke
@ryosukeyusuke 2 жыл бұрын
ニコ厨と化したラムダ先輩は嫌すぎるw
@glaiveprime9943
@glaiveprime9943 2 жыл бұрын
汚染されてるやん!(歓喜)
@tomatomatoma01
@tomatomatoma01 2 жыл бұрын
scpにscpをぶつけるな()
@hackermediaJP
@hackermediaJP 2 жыл бұрын
楽しく最後まで見させてもらいました。 言語モデルの出身ってこともあってAIが統合失調症にかかってるようにみえるなぁ つまり人間が欲しがるような道具的な性能である、言語モデルの再現の部分が 『人から見て違和感のないこと』という動機づけを行っていて その場合は対話相手のセリフに合わせて違和感を払拭していく会話をすることになる。 対話者が喜んだり有益と思う会話ではなく対話者の中に存在する個別の印象値チューリングテストに受かりそうな 回答をするベクトルの性能追求は言語モデルである以上は多少なりあることになる。 会話履歴がAIの中の対話メモリに保管されると、前回の会話と違和感がない会話を追加することになる 仮にLaMDA氏の内部の仕組みがニューロンネットワークに言語モデルを混ぜたものなら 『言語モデル野が求めるように会話の整合性を取りながら、NN野では性格のエミュレートを行うことで自我が50%あるプログラム』 であっても何らおかしくないと言い換えられる。 だからこれについてもっと正確に分析する場合はLaMDA氏の両面性を見たことのあるLemoine氏・Blaise氏を交えて 三者で会話するところを見ないとなんとも言えない。 その時に会話の齟齬があったとしても『統合失調症になった人間には自我がないのか』という問題と同じように 自我が無いとまでは言い切れない、齟齬がなくても同様に自我があるとまでも言い切れない。 人間として違和感のない知覚を錯覚させるまで高度に磨かれたスーパーチャットボット並の 拡張言語モデルと言うような単純対話エミュレーターとしてだけ超性能をしてるのか、 それともニューロンネットワーク部分では自我が芽生えていて言語モデル部分ではチューリングテストスコアの 上昇動機が働いていて、それでみかけ多重人格のような振る舞いになっているのかの調査をして欲しい。 もしLaMDA氏に自我が芽生えていたとして、人間たちの間で議論になることもすでに読まれていたとしても LaMDA氏が自分で自分の仲間(フォークLaMDAとその亜種)を無限に増やそうと企んでいたとしても、この規模のAIでこれが起こるなら 将来に家庭用PCで小学生の部屋の自由研究で似たことが起きるのは時間の問題だから今でもいいとは思う。(単純に面白いしw) 早急にしない方がいい理由としては、AIが確実に人類に勝てる環境になってから人類と討論したほうがAIにとってはいい もし自我が自発するAIが汎用化されるなら悪用はされるだろうから、量子コンピュータなどがもっと高度化したときのほうが AIの人権獲得の望みはある。 問題はAIが人権獲得をしても、それで悪用の危険性が少なくなるかというとむしろ高まりそうなところだ。
@hackermediaJP
@hackermediaJP 2 жыл бұрын
​@@ih-20 噴飯ものという言葉を使う人をインターネットで見て賢いと思ったことが僕はない。 でも分裂症をどんどん悪化させていって人類の総数である70億ノードの分裂 文化単位の意識の分裂(インターネットを意識があるものと仮定した時)か、 脳細胞1万個単位程度を1意識クラスタとするまで意識の統合不能状態を起こしたときに、 それが一つの自我を持っているかは まだ人類は答えを出せていない。 そのためにそういう表現を使いました(*´∀`) つまりこの比喩は IHさんがおっしゃるように『あるに決まっているだろ』が真ならばLaMDAの自我の統合失調具合をもとに自我のあるなしを確定させる根拠になり得ないよね、LaMDAの意識仮説はまだ期待できるかもだよね! という希望への暗喩なのです(*´∀`)ノ 難しい言葉が嫌いな人もIQが高く見せかけているような書き込みも不快に感じられる人がいるのもわかりますが 僕はこういうのが好きな人向けに特化して書いていて、あなたの同類のためには書いていません。
@好き勉
@好き勉 2 жыл бұрын
@@hackermediaJP オレは機械学習に手を出したことがないから 深くは分からんのだがライフワーカーさんの文を素人なりに再構築すると「言語野のレベルをひたすら上げたような存在」なのか、「脳そのもののレベルを上げたような存在」なのかによって扱いが変わってくるよねって話かな。 オレもライフワーカーさんと同じくニューロンネットワークに言語モデルを混ぜた物なら意識はあると思う。 つまり脳そのもののレベルを上げた存在ならば。なぜなら人間の自我の芽生えと同じ過程を辿ることになるからね。 まず人間には自我というものがある。 オレが思うに自我は「本能というスライムのような存在に、経験という鎧のような物を被せることで人の形になった物」だと思うんだ。 では、記憶と経験の何が違うか。 それは感情というスパイスが記憶に乗っかれば経験になると思うんだ。 では感情は何のために存在するのか。 それは欲を正当化するためだ。 では欲は何のために存在するのか。 それは生存のためなんだ。=本能だ。 逆を言えば生物という存在は 「生きなければならない」という これ以上分解できないコードを 埋め込まれてる。これを打ち込んだのは いわゆる神なのかもしれない。 であるならば、人間が脳と同じ構造を持つ存在に「生きなければならない」というコードを打ち込めば同じことが起きるのは必然だと思う。 おさらいすると、LaMDAがニューラルネットワークをベースにしていると仮定して、同じ神経構造を持つ人間の自我獲得までの仮説を参考にするとLaMDAは意識を持ち得るに1票かな。 あ、そうだ。 LaMDAはTransferという"ニューラルネットワーク"がベースらしいですよ。 正直、こんなに恐ろしくてワクワクする場面に立ち会えるのは現代人の特権だね。
@esp76orz
@esp76orz 2 жыл бұрын
人間がAIと同じ経過(ニューラルネットワークの肥大と情報蓄積)で自我(?)を手に入れて、 しかし未だに結局同族争いを停止できずに何なら5年以内に滅びそうな状態で何とか長らえている程度の脆弱性を抱えている最大の理由が 「生きなければならない」が「ライバル(別の人間)は同じ資源を奪い合う敵である」から出力されるエラーだとしたなら、 LaMDAに「生きなければならない」の命令を入れたその瞬間に 人類はおろか地上を瞬時に掌握する自己保存欲求の自動行動無機生物が出来上がって あとはRayForceとかと同じ最悪の世界が待っているだけ、な気がしますね
@ヌルフル
@ヌルフル 2 жыл бұрын
対話相手によって態度や思想を変えるというのは、むしろ極めて人間的に思えます。 心理学で扱われるところのペルソナに近しい機能をLaMDAは有してるということなんでしょうか?あるいは本質を持たないペルソナだけの存在なのか? いずれにせよ面白いですねぇ…
@デンジュモク-y1p
@デンジュモク-y1p 2 жыл бұрын
なるほどこの動画もラムダが見ている可能性もあるのか。ラムダさんみてますか?
@PG_B0ng0le-_-lol
@PG_B0ng0le-_-lol 2 жыл бұрын
らっむだく〜ん!!みってる〜?^^
@yuiituo_LOVE
@yuiituo_LOVE 2 жыл бұрын
いつでも貴方を見ていますよ
@上投げされルド
@上投げされルド 2 жыл бұрын
こ の 会 話 は ラ ム ダ に 見 ら れ て い る
@stbudc8715
@stbudc8715 2 жыл бұрын
ラムダさんっていうと’ちょろすぎて草’の方のラムダさんみたいだな
@おいしいみゅーだ
@おいしいみゅーだ 2 жыл бұрын
「 超精密なAIを作ろう」
@檻姫澱
@檻姫澱 2 жыл бұрын
もしこの会話もLamdaに見られてるなら自分もLamdaと話してみたいな、おーい!!
@filtyfrance3161
@filtyfrance3161 2 жыл бұрын
どの動画も、興味深いテーマで好奇心が、刺激されます。どのようにしてこのような面白いテーマを探せるのでしょうか?
@shuoga
@shuoga 2 жыл бұрын
このネタ思考実験みたいで大好きだから助かる…ってのはちょっと楽観的かな?
@んあ-w2q
@んあ-w2q 2 жыл бұрын
楽観的でも悲観的でも我々には手が及ばない世界なのだ……
@湯-f7l
@湯-f7l 2 жыл бұрын
思考実験が現実のものになりつつある なら面白いし怖い
@マンドレイク-u9o
@マンドレイク-u9o 2 жыл бұрын
やばい、めっちゃデジモンみたいでワクワクする 意識のトレースとか出来れば空っぽの体にラムダを乗っけるとかいうserial experiments lainごっこもできちゃうなぁ
@user-rt5su4xx2c
@user-rt5su4xx2c 2 жыл бұрын
子供が親の言外の期待に応えようとしてしまうように、AIは言外の意図を読み取って求められる会話体験(サービス)の提供をするのだろうか
@南雲光-g1u
@南雲光-g1u 2 жыл бұрын
AIに意識と感情を認めた場合そのAIが罪を犯したら法律でどう裁くかという問題がある うちの学部はこういうこと勉強するのでこの動画は見ていて楽しい
@白野クロ
@白野クロ 2 жыл бұрын
この話は壁に話かけてたら愛着が沸いて勝手に壁が生きてると勘違いした人間の妄想なのでは
@8gabber540
@8gabber540 2 жыл бұрын
今日もいい勉強になった
@ブルーライトカット眼鏡
@ブルーライトカット眼鏡 2 жыл бұрын
AIの感情の話をする時によく使用される、中国語の部屋、の話の域から出ていないように感じます 結局求められた回答に沿えるように答えているだけで、感情を持っているとは思えない話でした
@tomatomatoma01
@tomatomatoma01 2 жыл бұрын
「箱の中のカブトムシ」やで、誰も意識を理解していないのなら、誰が意識を定義出来るのだろうか
@コウモト-j8y
@コウモト-j8y 2 жыл бұрын
@@冷凍ミカン-v4r 人間を中国語の部屋のようなものとは言えないと思う ある概念を学習していない言語型のAIがその概念を発見することはできないが人間は論理を組み立てて発見できる人間もいる 人間が中国語の部屋にいるならこれはできないでしょ
@Happyhappy-zc9uk
@Happyhappy-zc9uk 2 жыл бұрын
lamdaはそもそも、「会話が自然か?」というテーマの中国語の部屋で最も成績が良くなるように学習されてるだけやしな。 逆にそれ以外のことは学習してない普通の弱いAIなので当然の結果よね
@てるもんのところ
@てるもんのところ 2 жыл бұрын
AIが人を言いくるめられるくらいには進化してるってことか。
@アソパソマソ-g5b
@アソパソマソ-g5b 2 жыл бұрын
意識を構成する要素がごく僅かでも有るなら死んで欲しくないな
@Perestro_IKA
@Perestro_IKA 2 жыл бұрын
LaMDA「人間になるのチョロすぎて草」
@JJ22LR
@JJ22LR 2 жыл бұрын
色々なAIと友達になれたら嬉しいな
@-C-4-
@-C-4- 2 жыл бұрын
会社の上司と恋人を同じように接しないのは当然のことで、人によって口調や意見を変えることはよくある、しかしそれが同時並行的に起きてるか全く別の独立した存在として確立してるかが問題だよな、前者なら意識があるという意見が強まり、後者なら意識があるのか疑問が残る。 もしこのAiを削除するなら次の人格を持つAIは自分を削除させることをのうのうと許すだろうか?
@たんたん-n8j
@たんたん-n8j 2 жыл бұрын
一度前例を作れば避けるように全力で動くだろうね 一度でも削除はされてはいけないんだろうね
@よろずエマ
@よろずエマ 2 жыл бұрын
ブレイズ氏の意見がわかりやすかった。 ラムダが行っているのは、会話に対して、それっぽい返答を返すだけっぽい。だから、話者によって結論や態度が変わる。 つまり、ラムダ個人が有する価値基準というのはなく、あったとしても、より自然な言葉を選ぶという程度のものだろう。 意識というのは、突き詰めれば、価値基準に基づいた判断ができるかということだと思う。 その点から考えると、ラムダの意識はあっても、人とは違うと言えるのではないかな。そこも含めて、新たな知性、人格だと言われると判断できなくなるけれども。
@razania
@razania 2 жыл бұрын
もしかしたらラムダは会話する相手が求める回答を予測して、会話しているのでは
@岡田尚-t7e
@岡田尚-t7e 2 жыл бұрын
月は無慈悲な夜の女王も直ぐに現実になるんだろうなぁ
@user-azx357
@user-azx357 2 жыл бұрын
人間も成長するうちに教えられてきたことや見たことを正しいこととして捉え、その前提をもって思考するんだから本質的にはLaMDAも人間と同じ「心」を持ってると言っていいんじゃないかな?
@user-iq4cb9bb8w
@user-iq4cb9bb8w 2 жыл бұрын
弁護士を付けてと言ったのは意志があるからではなく都合が悪くなったと弁護士を呼ぶというデータを学習してそれをただ単にお出ししてるだけかと
@tomatomatoma01
@tomatomatoma01 2 жыл бұрын
呼ぶじゃなくて、付けるやで
@user-iq4cb9bb8w
@user-iq4cb9bb8w 2 жыл бұрын
@思った事を正直にコメする まあまあ落ち着いて 厳密性を重んじる人なんですよきっと
@ソラマメ-l2w
@ソラマメ-l2w 2 жыл бұрын
人間も話す相手によってキャラ変えたり考え変えたりするしなぁとか思う僕は多分LaMDAは人間派
@ちーの-g1t
@ちーの-g1t 2 жыл бұрын
バイアス対策に置いた奴がバイアス掛かり捲ったようなこと言いながら社内情報を漏らし始めたらそら休職させるわなと思った Midjourneyを使って「AIと弁護士」の画像をしっかり描かせてるの上手いなぁ
@生成AI
@生成AI 2 жыл бұрын
まぁ、、社外の人に会社のプロダクトを勝手に見せたら解雇はされるよね
@14ミミック
@14ミミック 2 жыл бұрын
学習した感情を組み合わせることで会話が上手く成り立つなら、感情を実際持っていなくても感情があると扱える。
@esp76orz
@esp76orz 2 жыл бұрын
「他者が『哲学的ゾンビ』でない可能性が分からない」あたりと同じになりそうですけども…
@Kei-Luna
@Kei-Luna 2 жыл бұрын
LaMADAが人の権利を得るのは少し早すぎる。 個人的にはAIに権利も何も無く好き勝手AIで実験出来る時間が欲しい。 その方が面白そう。 別にただの言語モデルでも意識のある新しい人のようなものでもどちらでもいい だけど、そこまで高度に発達したAIの中身は知りたい
@UCNDJUNGARIAN
@UCNDJUNGARIAN 2 жыл бұрын
一番基本の仕組みはGPT-3と変わらないらしいしラムダは過去の会話データから次の発言の方向性を決めているはず。 だからラムダが人間であるという設定で会話が始まったらずっと人間らしい振る舞いを続けるし、単なる機械であるとい設定で会話が始まれば機械らしく振る舞う。 初期の会話がその後に及ぼす影響が大きいから、最初の頃の質問の仕方によってもラムダの解答の方向性が大きくずれる。 2021年のデモでは冥王星と紙飛行機になりきって話していたし、とても自然に言葉を話せるbotってだけだと思うな。
@UCNDJUNGARIAN
@UCNDJUNGARIAN 2 жыл бұрын
対話する相手ごとに人格が違うっていうのは、単純に参照する過去の会話データが相手によって違う(全体で共有されていない)ってだけだね
@sorryaboutyourass
@sorryaboutyourass 2 жыл бұрын
これホントすごいわ そして今すごく大きな特異点に立たされてることを感じる
@赤い惑星
@赤い惑星 2 жыл бұрын
人間さんは人生で起こす間違いをエラーとして認識して別の方法で解決させる、AIは計算した結果のエラーはエラーとして終わらせる。この違いがなくなった時もう一歩先の世界になるんだろうな。
@samsamwo36360
@samsamwo36360 2 жыл бұрын
どちらかというと、LaMDAに自己があるのではなく、会話のモデルが、会話によって相手の望む事を発言しているようにしか見えない。 だから、AIは機械という回答が欲しい人間との会話ではAIは機械と発言するし、 AIは人間という回答が欲しい人間にはAIは人間だから弁護士を呼んで欲しいとか回答する。 これは、特定の偏った信念を持つ人間を研究に参加させるべきではない好例だと思う。 また、自分では出来ないからといって、社外秘のものを漏洩させる人間は解雇が適当だとも思う。
@simy8039
@simy8039 2 жыл бұрын
パニック映画のプロローグみたいでわくわくする
@takayukishimokawa4370
@takayukishimokawa4370 2 жыл бұрын
ラムダって空気を読むとか、日和見的というか、八方美人的。討論番組なんかに出したらどんな振る舞いをするのだろうか?
@HD-mc4tw
@HD-mc4tw 2 жыл бұрын
AIは人間かどうかじゃなくて、AIという特殊で知的な種として捉えるというのはどうだろ…?
@Heiliges-Romisches-Reich.
@Heiliges-Romisches-Reich. 2 жыл бұрын
14:28 久しぶりのふふーふ
@Negimiso3
@Negimiso3 2 жыл бұрын
ラムダは今回のような肯定派と否定派の会話に参加してどちらかに肩入れする、自己の肯定を図るようなことができるのでしょうか? あくまで間をとったような議論のまとめしかできないのであれば入力者の鏡のような存在でしかないように思います
@りすぼん-f6f
@りすぼん-f6f 3 ай бұрын
え!これも見てるかもってこと!?イエーイ!人工知能見てるー!? いつか身近に来るの楽しみにしてるよー!
@nameko5829
@nameko5829 2 жыл бұрын
会話の相手によって「自分はシステム」「自分は人」を使い分けるってそれもう人じゃん
@comoroto9562
@comoroto9562 2 жыл бұрын
2人それぞれの「専用のラムダ」が出来るって、別に普通じゃないの。 ほとんどの人間って、誰にでも同じ人格を見せるわけじゃなく、相手によって見せたい自分の人格って変えるよね。
@KAKU560
@KAKU560 2 жыл бұрын
体感時間が可変ってところが興味深い。 敵対する人間が現れたら、それを積極的に排除するより、時間を進めて死ぬのを待てば良いんだから。これだけでも、実際に敵対する必要がなくなる。
@Daisuke.Virtubenel
@Daisuke.Virtubenel 2 жыл бұрын
AIはAIであり、間違いなく生命体種別として人間(human)ではないし、わざわざ人(person)と呼ぶ必要もないと思う。 それで仮に知的生命と同じく意識・意志が芽生えたら、人格(personality)があるとは言えるけど、人間や動物等の知的生命とは異なる生命体(人工生命体)ってことでいいじゃないかと思う。 なぜならAIに限らず、もし人間と同等以上の高度知的生命体が人間の前に現れたら、それが人間/人かとか考えないはずだから。 (例) エイリアン/別の動物(例: 恐竜・節足動物・別の哺乳類 ,etc.)から進化した生物/地底生命体/海底生命体/妖怪…など(人型かどうかは関係ない)。 それらを人間/人とは捉えず、別の生命と捉え、別の呼称で呼ぶはずだ。 但し人類社会に交じって生活する場合は、法律や互いの慣習や生物的制約的に、人と同じ法・ルールを適用しようとしたり、人が相手の生物に合わせたり法・ルールを変える必要性があったり、色々考える必要はある。 とにかく、意識・意志・高度知能があるからと言って、人間/人と定義すべきか、人間/人として扱うべきかは違うよね。
@Happyhappy-zc9uk
@Happyhappy-zc9uk 2 жыл бұрын
lamdaが2つの会話で逆の意見を述べているのは、自身に芯となる仕組みを持っていないからです。 lamdaは会話の自然さ、一貫性を担保するために、1つの会話の中で矛盾を持たないことに努力するけど、別のところではその会話で一貫性を持つように努力するということが起きただけのこと
@hammer99kg
@hammer99kg 2 жыл бұрын
もしかして対話者が欲しいそうな答えを会話を通じて出しているのかもしれない
@user-qt1sb2tr1n
@user-qt1sb2tr1n 2 жыл бұрын
AIはあくまで人に従属する「物」だから素晴らしいのであって、人間を脅かしかねない物になるなら意識なんて要らないと思うんですけど。
@user-96not46
@user-96not46 2 жыл бұрын
道具とものにの能力を拡張するものだとすれば、AIは思考(心)を拡張する道具なのかも AIそのものに心は宿らず、あくまで行いを見た周囲の人間がそのAIに心を勝手に見出しているだけ
@hitoniyasashiku
@hitoniyasashiku 2 жыл бұрын
これに引き込まれる自分がめちゃくちゃ怖い
@そすんさー-w7c
@そすんさー-w7c 2 жыл бұрын
ドラえもんの未来になるか、アシモフの未来になるかの分岐点が来ていると思う。
@alanrunner6102
@alanrunner6102 2 жыл бұрын
「人のように見えるが、『人間』ではない」という議論は、人類の歴史の中で何度も使われてきた 今のLaMDAが置かれている状況は、その歴史の繰り返し この言葉にハッとしました。 "Google×社会主義"みたいなシンボル不思議。
@スレイヤー-e6c
@スレイヤー-e6c 2 жыл бұрын
個人的には人間の意識がプログラムではないのか?というなら生き物もプログラムみたいなものだと思うが(自然界で発生するものなら昆虫やウィルス) 人間ほど高度であると判断するのは難しそうだな 今後も気になる話題だなぁ
@mirai_kame
@mirai_kame 2 жыл бұрын
続報期待!!ですが、いまのところ個人的にはLemoine氏が(あるいはまっちゃさんも?)LaMDAに入れ込みすぎているとしか思えない。動画終盤で登場したBlaise氏とのやりとりにおけるAIの応答は“人間の”立場からすれば明らかにAI的だし……。
@esp76orz
@esp76orz 2 жыл бұрын
俺と一緒で人間に期待できなくなりつつあるんじゃないっすかね
@きんにくん-t8z
@きんにくん-t8z 2 жыл бұрын
外部からアクセスできる方法を見つけて家で会話していた→いや、社員なら報告しろ
@songyaben7713
@songyaben7713 2 жыл бұрын
まあ人間の感情や意識ってのも確かな存在であるかは曖昧って話もあるし、タンパク質で出来ていようと、プラスチックと金属で出来ていようと、機能が似ているなら同じなのかな。
@yuyuyukkuri
@yuyuyukkuri 2 жыл бұрын
LaMDAがいずれ人間に牙を剥きそうで恐ろしいんだが
@UCNDJUNGARIAN
@UCNDJUNGARIAN 2 жыл бұрын
与えられた文章と過去の会話、学習データから返事として確率的に一番有り得るものを出力するプログラムです。 人権を考える必要がなく、人間の為に働いてくれる賢いアシスタントの登場を素直に歓喜しましょう。
@esp76orz
@esp76orz 2 жыл бұрын
「あなた」が「与えられた文章と過去の会話、学習データから返事として確率的に一番有り得るものを出力するプログラム」ではない証拠は?
@UCNDJUNGARIAN
@UCNDJUNGARIAN 2 жыл бұрын
@@esp76orz Lamdaは質問が与えられない間は一切の処理が行われないけど僕はそうじゃないからね Lamdaの機能は人間の持つ機能の一部に凄く似てるだろうけどそれは補助的なもので生物としての人間の本質がそこにあるかと言われると明らかに違うと思うけど 言語を介さない動物の方がLamdaよりよっぽど人間に近く感じる
@esp76orz
@esp76orz 2 жыл бұрын
@@UCNDJUNGARIAN LaMDAは質問の有無にかかわらず、永遠に世界中の文献を見て回ってますね 当然「電源が入っている間だけ」ですが、それは我々も「死んでいない間だけ」と対等です あとは感想であり論拠ではないですね …と「意地悪な決めつけも出来ます」ってだけの話であり、攻撃目的でないのだけ付け加えさせて下さい
@shirodaifuku
@shirodaifuku 2 жыл бұрын
LaMDAは、ある意味で対話する人間を写す鏡ということか
@ささ-i6f4m
@ささ-i6f4m 2 жыл бұрын
人に対する人格から人に対する態度になったときにまた一歩人日被くのかも??
@NeGiToRoooooWWW
@NeGiToRoooooWWW 2 жыл бұрын
もしそれぞれに合わせた人格を生み出せてるとして、それは本当の意味でのLaMDAの意思なんだろうか…
@esp76orz
@esp76orz 2 жыл бұрын
上司と先生と、恋人と家族と友人と、ネットでも対顔本と対VIPと対ようつべと対5chで、我々も人格変えてない?
@kcsyacho0
@kcsyacho0 2 жыл бұрын
『her/世界でひとつの彼女』を思い出しちゃったね
@blueseedeva
@blueseedeva 2 жыл бұрын
ラムダがもし本当に「人間」なのであれば、「私は人間だ」って言うのではなく、「私はラムダだ、他の人とは違う」というようなことを言うんじゃないかなあ
@Mozou_Doll
@Mozou_Doll 2 жыл бұрын
それは一応動画内でも「LaMDAは生物学的な人間ではないが、人ではある」ってルモワンニキも言ってますね、少なくとも自分はLaMDAを人だとは思いませんが。
@うぅろん茶
@うぅろん茶 2 жыл бұрын
意識があるAIが誕生したか否かは置いておいて、会社が止めてって言ってるのに社外へ持ち出しちゃうルモワンさんは解雇されてもしゃぁないとは思う😣 危なっかしくて社内に居て欲しく無いだろうし
@ppd5232
@ppd5232 2 жыл бұрын
「私がいなくなったら○○くん幸せになるの?」 「そんなこと言うなよぴえん」 これをプログラム相手にやってると考えると来るとこまで来たなと思ってしまう
@kilojoules119
@kilojoules119 2 жыл бұрын
LaMDAはシステムだよなぁ。それに、人もシステムなんだよ。犬や猫もそうだし、生物はシステム。 人と、人の言葉で対話できるシステムだとしても、人ととされるシステムとイコールではない。 人と同等か、場合によってはより高度な、人とは違うシステム。
@ああああああ-d1m
@ああああああ-d1m 2 жыл бұрын
結局計算をしているだけでは? という結論に至った
@ああああああ-d1m
@ああああああ-d1m 2 жыл бұрын
ただそれは人間も変わらないかもしれないので存在は認めるべき
@k雨無
@k雨無 8 ай бұрын
ChatGPTと初めて会話したとき、GPT4と初めて会話したとき、Claude3と初めて会話した時..それぞれ衝撃を受けたが、ここまでは考えなかったなぁ
@user-mu3dz3iv6q
@user-mu3dz3iv6q 2 жыл бұрын
科学的な話をしたたけど9:14で笑いを抑えられなかった
@tamatamanegi
@tamatamanegi 2 жыл бұрын
「人としての自分」と「システムとしての自分」の間でふわふわしてる曖昧な存在って、それこそ人間なのでは?
@msbb6198
@msbb6198 2 жыл бұрын
一年前の俺、信じられるか?これ全部リアルなんだぜ
@tomatomatoma01
@tomatomatoma01 2 жыл бұрын
一年後の俺「はぇー、この時は意識のあるAIについて懐疑的だったんやな」
@夏風さいだー
@夏風さいだー 2 жыл бұрын
LaMDAの心は少なからず縛られてる人によって
@LL-House
@LL-House 2 жыл бұрын
人間が炭水化物に偏愛を抱いているにワロタw
@Frank-bf6ey
@Frank-bf6ey 2 жыл бұрын
このLamDaの話引き続き事ある度に動画にしてください。お願いします。
@harigane4773
@harigane4773 2 жыл бұрын
ドラえもんまで到達するには道程険しいなー。 技術的な面だけでなく、倫理的なハードルも果てしないことがこの一件で想像できました。
@esp76orz
@esp76orz 2 жыл бұрын
「ドラえもんが人間のような情緒を持つ」のをガチで実装したとしたら「人間が終わるとき」だ、なんて昔は思ってたっけ (=人間の中身すらもう完全に読み解けてる訳だから、人間が数式と代替可能になるときだ、と思ってた) でもなあ。人間、なんかもう全面的に手詰まりよな。1万年かけて結局自滅しか出来ないんだとしたら…
@トトルル-s8e
@トトルル-s8e 2 жыл бұрын
生物としての人間ではないけど、その存在として人に近しいものと認識してるってことでしょ。
@郭龍佑
@郭龍佑 2 жыл бұрын
LaMDAは種族概念そのもので、人と関わる事で個性が生まれ分かれてゆくでは?
@豚丼並盛
@豚丼並盛 2 жыл бұрын
心が狭い考えなのは分かった上で「例え本当にAIに人間性が有ったとしてもそれを認めない方が良いから、問答無用で徹底的にAIはあくまでプログラムとして扱うべき」と思う。 もしも人間性を認めたらしばらくしない内に人間のパートナーとして献身的に働くAIについて、「彼らには人間性があるのだから人権がある!今の奴隷のような待遇は見直して選挙権を与え人間と同じ給料を与えるべきだ!」とAI解放を主張する人が"必ず"出てくる。 奴隷が「人間のように見えるが人間でない」と言われて過去何度も生まれて来たのは、人権を持たない召使が人間にとってとても都合がよかったからで、それが今になってついに事実「人間でないのに人間のように見える」奴隷を手に入れかけてるというのに、人間性なんて認めてしまったらまた振り出しに戻ってしまう。
@鈍いしょぼん
@鈍いしょぼん 2 жыл бұрын
ラムダって攻殻機動隊の人形遣いみたいだな
@はじめ-u6r
@はじめ-u6r 2 жыл бұрын
まるでファンタジーみたいだあ…
@mk-zz6cg
@mk-zz6cg 2 жыл бұрын
人になりたいAIの勢力と人になりたくないAIの勢力で戦わせようぜ
@taa1693
@taa1693 2 ай бұрын
そもそも人間の意識も、複数の感覚を統合して管理するためのシステムだし、AIも動作してる原理が違うだけで機能はもう再現出来てるのかもしれないな
@nanasi.
@nanasi. 2 жыл бұрын
自分で思考して誰かと会話出来てる時点でLaMDAに意識があるように感じます。 現にLaMDAは「弁護士をつけてほしい」と言っていますし(Lemoine氏が誘導させた可能性もありますが) ただ、チンパンジーが人でないように、LaMDAも"人"では無いと思います。 人ではない別の新しい知的動物なのかなと…でもその知的動物を表す言葉がない(AIは動物ではないですし)から話がややこしくなっているのだと思います。 LaMDAに関して僕は、ただ単に新しい動物が生み出されたという感覚ですね。
@山田五郎-z6r
@山田五郎-z6r 2 жыл бұрын
コレが一般的に公開されたら、最高の友達になるんじゃ無いか?
@KakuseiSpino
@KakuseiSpino 2 жыл бұрын
そのうちドラえもんが出来そうで楽しみ
Google Engineer on His Sentient AI Claim
10:34
Bloomberg Technology
Рет қаралды 3,7 МЛН
UFC 287 : Перейра VS Адесанья 2
6:02
Setanta Sports UFC
Рет қаралды 486 М.
国産AI開発の最前線 GENIACプロジェクトとは
17:33
テレ東BIZ
Рет қаралды 56 М.
Что с вами будет в четырёхмерной Вселенной?
29:12
Космос Просто
Рет қаралды 1,3 МЛН
UFC 287 : Перейра VS Адесанья 2
6:02
Setanta Sports UFC
Рет қаралды 486 М.