챕터: 0:00 - 들어가며 0:27 - 현명한 정책을 세우려면 첫번째로 해야 할 일 0:52 - AI는 실존적 위협이다 1:29 - AI를 확률론적 앵무새로 비유하는 사람들 2:30 - 그들은 지능의 본질이 추론이라고 주장한다 3:05 - 훈련된 언어 모델은 1985년에 처음 등장했다 4:10 - 촘스키의 영향을 받은 심볼릭 모델은 작동하지 않는다 4:56 - 진화가 뇌를 발명한 이유는 진화보다 빠르게 학습하기 위해서다 5:36 - 심리학자 프레더릭 바틀렛의 주장 6:30 - 존 딘의 워터게이트 사건 증언 7:14 - 마치며
@klaymoon116 күн бұрын
교수님 사랑합니다. 저와 같은 생각을 교수님이 한참 먼저 하셨다는 것에 많은 용기를 받습니다. 조만간 페이퍼로 찾아 뵙겠습니다.
@woning990017 күн бұрын
와 이런 주제 정말 좋아하는데 대박 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 응원합니다. 앞으로도 많이 활동해주세요!
@이이이-g4f2y16 күн бұрын
정보를 벡터 형태로 표현하는 시스템은 참 경이로운것 같아요. 그 공유점을 갖고 있기에 이렇게 작동할 수 있는 것 같습니다. 단지 인간의 시작은 물리적 세계와 그 감각에서 글로 도착했다면, llm은 글로 시작해서 글로 끝났기에 미묘한 차이가 발생하는 것 같습니다. 시각,청각 등의 여러 센서를 가진ai가 인간처럼 16시간 추론을 하고, 추론한 정보를 스스로 압축하거나 피드백하고, 인간의 뇌가 성장하듯이 서서히 파라미터의 수를 늘려간다면 꽤나 재미있는 실험이 될겁니다.
@namwookim116 күн бұрын
영상 감사합니다.
@playdon979216 күн бұрын
결국 본질은 인간도 생체기계라는것
@corevista417117 күн бұрын
2000년대 전후 NLP 랩에 있었던 1인으로서 당시의 촘스키 신봉이 의아했던 기억이 있지요. 격세지감입니다.
@minsikbuff15 күн бұрын
힌튼 선생님 명강의네요
@MyPaseMyLife13 күн бұрын
지도교수님을 여기서 뵙네요.
@choejaewon00117 күн бұрын
응원합니다
@l__t__y17 күн бұрын
감사합니다
@qhershey16 күн бұрын
delusion이 적으면 그럴거 같은데 지금 상태에서는 확률에 기댄거 아닌가 싶은대요
@Dilimdal16 күн бұрын
언어 자체가 표상이고 남의 언어를 자신의 방식으로 재생산하는건데 당연하죠 자신은 어떤 현상을 이해하고 있다고 생각 할 수 있지만, 그저 보이는 것을 볼 뿐입니다 인공지능이 어떤 것을 기술하고 그게 실제적인 효용을 보인다면, 인공지능은 사람이 정의한 말을 한 것입니다
@user-uv8yb1mg4e16 күн бұрын
LLM은 모르는걸 모른다고 못하는게 문제지... 아무말 대잔치임 ㅋㅋ
@kordojjang13 күн бұрын
퍼플렉시티라는 대안모델이 있쬬
@ocean_color11 күн бұрын
그렇게 하도록 학습시켜서 그래요 오히려 이런문제는 해결하기 쉽다고 봅니다
@invalid-deleted-user3 күн бұрын
@ocean_color 아니... 이 영상 내용 보시긴 했나요????? "사람도 헛소리하는게 자연스러운거고 그러니까 LLM 의 헛소리는 자연스럽고 사람같은거다" ..... 결론은 앞으로 LLM 헛소리는 고쳐질 것이 아니라는거죠ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
@리드-w7k13 күн бұрын
지금의 AI는 프론티어 매쓰 문제나 올림피아드 문제를 잘 풀 수 있게 되었지만 아직 수학 난제는 풀지 못하고 있는데 이게 참 특이한 현상인게 테렌스 타오, 그레고리 페렐만 등등 올림피아드 문제를 잘 푸는 인간들은 대부분 난제도 풀 수 있기 때문임 만약 AI가 정말 수학이라는 학문을 제대로 이해하고 있다면 언젠가 올림피아드 문제뿐만 아니라 난제도 풀 수 있겠지 AI가 진짜 추론을 하느냐 못하느냐를 판단하기 위한 척도로 수학 난제만한게 없는듯
@하하호호-h3u12 күн бұрын
그게 왜 특이한 현상인가요. 올림피아드 문제 잘 푸는 '우등생'은 전 세계적으로 많지만 그 중에서 수학 난제 푸는 경우는 극소수 입니다. 전혀 다른 레벨의 능력이 올림피아드급은 우수한 고등학생이나 학부생정도의 레벨이고 난제는 그 이상입니다. 아직 그정도까지 도달을 못 했지만 언어모델임에도 수학에 있어서도 꽤 우수한 학생 이상급까지 도달했다는게 중요하죠.
@리드-w7k12 күн бұрын
@@하하호호-h3u 올림피아드 금메달 받을 정도의 사람이면 수학 난제도 잘 풀 수 있어요 ㅋㅋ 님이 생각하는 7대 밀레니엄 문제 같은거 말고 박사 과정에서 해결해야하는 자잘한 난제들이 많음
@dongju92314 күн бұрын
저도 인공지능을 연구하고있는 연구자로써 인간이 만들어낸 인공지능이 미래에는 인간에게 영향을 미칠수있다고 생각합니다. 인간이 총과 핵을 만들었고 결국 그것들은 현재 인간에게 영향을 미치고 있죠. 같은 이치라고 생각합니다. 다만 현재 수준의 인공지능은 단지 확률에 의존하는 수준인건 맞습니다. 데이터가 워낙 적기 때문에 스스로 사고할수 없습니다. 사람이 꾸준히 데이터를 넣어주어야 하고요. 하지만 머지않은 미래에 인간의 진화와 비슷한 물리적이든 신체적이든 현실세계를 완전히 파악하고 데이터로 만들 수 있다면 충분히 터미네이터같은 상황이 올 수도 있을것 같다는 생각이 드네요. 우리의 뇌에 어떤정보가 들어있는지 알 수 없는것처럼 인공지능의 복잡한 신경망도 어떤 정보가 어떻게 상호작용 하는지 모르거든요. 실제 사람 뇌에 영감을 받아 만들었으니,, 뇌 용량이 있는 인간보다 얼마나 더 뛰어나게될지 상상이 안가긴합니다.
@아무나-x9n1j14 күн бұрын
연구자로서
@coconut905913 күн бұрын
터미네이터의 이상한 점은 기계가 행성을 정복하려고 했다면 굳이 지구가 아니라 다른 행성이로 이주했을 거라는 점이다...라는 글이 생각나네요... 공기 없어도 가는데 굳이 전쟁을??
@하하호호-h3u12 күн бұрын
이미 추론하는 o1, o3모델이 나왔고 그 퍼포먼스는 인간을 이미 상회하고 있는데 쓰신 내용은 GPT가 대중화 되기 이전 지금부터 한 5년전에 할 법한 내용을 그대로 적어 놓으셨네요.
@dongju92312 күн бұрын
@@하하호호-h3u 결국 reasoning 기법을 사용한 데이터를 때려박고 RLHF같은 방식으로 학습한것 뿐입니다. 현재 수준에서 스스로 학습이 가능한가요? 어차피 추론도 학습된 데이터 안에서 하지 얘가 실 세계를 판단하고 생각해서 답변하는게 아닙니다
@표범재12 күн бұрын
@@하하호호-h3u 딥러닝 기반 AI가 인간이 하는 거의 모든 일을 할 수 있다는 게 밝혀진 현 시점에서, 인간과 AI의 가장 결정적 차이는, 인간은 스스로 세상을 돌아다니며 데이터를 수집할 수 있지만 AI는 현재로선 경제성 문제가 심각해 사람이 돌아다니며 수집한 데이터로 학습해야 한다는 거라고 생각해요. 최소한 드론과 AI의 실시간 데이터 링크가 가능해져야 컴퓨터 비전에서라도 학습 데이터 수집의 자동화가 가능할 텐데, 말처럼 쉬운 일이 아니죠.
@철-l3n11 күн бұрын
connectionist!
@seo_ohee17 күн бұрын
AI는 인간이 만들어낸 모든 창조물을 담고 있는 집합체의 산물이 되어 가고 있다. 나는 그러한 AI의 등장이 기대된다.
@TheGreatSarastro16 күн бұрын
언어는 단지 인간과 LLM 이 공유하는 ’사고’ 단계의 매체들 중의 하나임. 인간은 태어날 적 부터 말을 못해도 언어 이전의 어떤 무언가의 표상으로 사고는 할 수 있음. LLM은 아직 토큰/바이트로 인간이 사전에 정해준 단어들 내에서만 사고할 수 있음. LLM이 진정 인간처럼 되려면 토큰/바이트 뒤의 메타적인 무언가를 스스로 인지하고 인간이 제공해주는 토크나이저 없이 스스로 토큰도 규명할 수 있어야함.
@다다-n6p16 күн бұрын
틀렸음.
@TheGreatSarastro16 күн бұрын
@ word is cheap, 설명좀.
@Okwodkw16 күн бұрын
그럴듯 하네요
@Kasuga-Ichiban15 күн бұрын
말씀하신대로 메타적 인지를 하려면, LLM이 생물인 인간처럼 사고의 연속적인 순환이 필요한데, 현재의 pre-training을 통한 토큰 입/출력 방식의 구조로는 한계가 있어 보입니다. 많은 전문가들이 말하듯 강화학습 같이 연속된 신경망 학습 구조가 필요해 보입니다.
@dongwonkim504315 күн бұрын
그게 얀 르쿤 주장이잖아요. 과연 그럴지
@윤두창은시진핑16 күн бұрын
인간은 뇌에서 시물레이션 세상을 구축, 조합, 적용할수 있는 능력이 있는데, ai는 그런것이 불가능함. Ai가 그런 것이 가능하려면 세상을 극단적 추상화와 극단적 구체화 할수 있는 능력이 있어야 함.
인간이 그럴 거라고 착각하고 믿어버리는 사고방식을 LLM도 따를 거라는 가정이 흥미롭습니다. 그래서 챗gpt도 가끔 그런 엉뚱한 소리를…😅 제프리 힌튼 교수님이 유머감각이 좋은 분이셨군요ㅋㅋ 보다 보면 재밌는ㅋ
@ocean_color11 күн бұрын
왜냐면 llm이 인간을 따라하는 앵무새로 길들여졌기 때문이죠 가정이 아니고 그렇게 만든거에요
@MrNezlee16 күн бұрын
인간도 일상대화 90%정도는 통계적 앵무새라고 보는데
@Yamayajur15 күн бұрын
그건 일반화의 오류 아닐까요? 교육수준, 문학의 깊이, 또 사회적 위치에 따라 %가 차이 나겠죠?
@sell_kospi_buy_snp50015 күн бұрын
@@Yamayajur 인간도 시야를 넗히기 위해서 다양한 문물과 문화를 경험하려 하죠. 안그러면 확률적으로 똑같은 행동을 반복하고 똑같은 말을 하기 때문입니다. 그런 이유로 일부 사람들을 제외하고는 대부분 똑같은 패턴을 반복하죠. 똑같은 친구들과 똑같은 주제로 대화하고 어제와 다를거 없는 오늘을 살아가죠.
@tertervouz14 күн бұрын
우리가 흔히 무의식중에 뭐 한다라고 말하는 행동들은 컴퓨터과학의 신경망과 닮아있는거같긴 함 어려운 작업은 아니지만 기계가 하기에는 어려운 수준의 인지적 처리를 요하는 일들.. 멍때리면서 어느순간 글을 적고있거나 통화하면서 사람들 피해 왔다갔다 걸어다니거나
@arduous22212 күн бұрын
교육수준, 문학의 깊이를 LLM의 용어로 치환하면 학습 모델과 트레이닝 데이터셋의 품질이라고 볼 수 있고, 사회적 위치는 LLM에선 프롬프트에 대응됩니다. 과연 본질적으로 다른지는 고민해봐야 합니다.
@ocean_color11 күн бұрын
아직도 인간이 특별하다고 생각하는 사람들이 있네요..
@chuckberry774916 күн бұрын
많은 부분을 동의하지만, AI가 의식을 가질 것인가의 여부는 "LLM이 뇌 구조의 전부를 복제한 시스템인가?"에 대한 대답이 선행되어야한다. 뇌에 의식을 존재하게하는 토대로써 신경망 이외의 다른 작동베이스가 존재한다면 그것을 카피하기 전까지 AI는 의식을 가지지 못 할 것이고 그 전까지는 AI에 대한 지배같은 건 이루어지지 않을 것이다. 물론 그 이전에 AI에게 인간과 같은 레벨의 감각기관 또는 그 이상, 그리고 실제 자유롭게 사용할 수 있는 body가 주어질 것인지도 아직은 먼 미래의 이야기다.
@REDRICK-skb16 күн бұрын
의식이라는 걸 인간의 전유물로 생각하는 건 17세기 데카르트나 하던 발상입니다. 이미 19세기 20세기를 지나면서 인간과 기계의 경계가 흐릿해지고 생명체라는 것의 정의도 노버트 위너, 새뮤얼 버틀러, 질 들뢰즈 같은 다양한 분야의 사람들이 100년도 더 전에 다시 세워졌죠. 굳이 인간의 뇌를 카피해야 할까요? 인간의 뇌 구조는 생각보다 비효율적으로 구성되어 있는데 말이죠. 뉴턴 이전의 긴 세월과 이후의 짧은 시간을 비교한다면, 또 맥스웰과 아인슈타인 이후의 발전을 생각한다면 먼 미래의 얘기는 아닐 거 같습니다.
@tertervouz14 күн бұрын
아마 연구자들 대부분이 LLM이 인간 뇌의 작동 일부와 닮았을 것이나 핵심은 아니라는 데에 이견이 없을거라고 봄. 나 역시도 고작 이정도의 행렬연산에 의식이 있다고 믿으라면 납득하기가 어려움 다만 인간 뇌의 작동도 원리적으로는 계산으로 시뮬레이션할 수 있으리라는 점을 상기하면 계산에 의식이 있다는게 아주 터무니없는 이야기는 아니라는 점을 유의해야함
@一妄一語17 күн бұрын
나도 전적으로 동의함. 그리고 ai의 환각증상이라고 얘기되는 것도 기실 인간들도 일상적으로 보이는 증상임. 자신이 잘 모르는 것에 대해 답변을 강요받는 분위기에서는 개소리를 잘도 지껄임. 대표적인 예가 종편에 변호사들 나와서 세상 만사 일에 대해서 존문가라도 되는 것 처럼 잘도 떠들잖아? 그걸 재밌다고 많은 시청자들이 보고 즐기지. 단지 ai에게만 기계라고 완벽함을 요구해서 그렇지, 이미 인간과 거의 대등한 수준에 도달한 것으로 보임.
@donovan124516 күн бұрын
인간과 대등하다 아니다 이야기 자체가 포인트 엇나간 거라고 생각함. 인간보다 비교할 수 없을 만큼 빠르고 박식하고 다재다능하지만, 진득히 갖고 놀다 보면 이따금씩 어안이 벙벙할 정도로 황당한 소리를 천연덕스럽게 하는 걸 보면 인간과의 '격차'를 얘기할 게 아니라 그냥 인간이랑은 다르다는 생각이 듬
@dongwonkim504315 күн бұрын
@@donovan1245 어안이 벙벙할 정도로 황당한 소리를 천연덕스럽게도 하고 있네
@donovan124515 күн бұрын
@@dongwonkim5043 오~~sarcastic~
@tertervouz14 күн бұрын
문과들은 강아지 고양이를 넘어서 AI도 의인화하고 있네 ㅅㅂ...
@kordojjang13 күн бұрын
@@dongwonkim5043 인간도 가만 보면 어안이 벙벙할 정도의 소리 잘 하긴 함. 앨런 소칼이 증명했듯...
@사랑은기다림이야15 күн бұрын
힌턴 교수님은 LLM의 논리회로가 형편없는것도 아니고 인간의 논리회로도 훌륭한게 아니다 즉, 둘의 수준은 비슷하다고 보는걸까요
@rakeera17 күн бұрын
인간의 기억이 왜곡되는 과정이 llm의 환각과 같은 선상에서 바라볼 수 있을지는 모르겠습니다. 인간에게 기억은 단순히 데이터 축척 그 이상으로 의식과 정체성을 형성하는 기반이라 생각하는데.. 그렇게 되면 개별적인 인간처럼 자신만의 정체성을 가지는 개별적인 ai가 필요한데 그건 현재 우리가 보는 llm의 목적은 아니죠.
@김경진-k5w9c16 күн бұрын
촘스키는 동물에게 언어가 있다는 것도 인정하지 않음.
@가락-k6z12 күн бұрын
뻐킹 레이시스트였네
@hyades716 күн бұрын
촘스키는 LLM의 발전이 자신의 가설과 이론을 반박해나간다는 인상을 받았나봄, 거장 언어학자긴 하지만 인공지능에 대한 그사람의 의견은 좀 성급했던감이 있음
@youngone99913 күн бұрын
예, 아마도..
@newch646816 күн бұрын
오 ㄷㄷ
@hohoppa16 күн бұрын
언어가 타고난 것이라는 주장은 동의하기 어렵네요
@azzinny16 күн бұрын
짐승이 언어를 못한다는 점은 이해하시나요. 그게 언어는 타고난다는 말이라고 추측합니다.
@solidify-d9l16 күн бұрын
@@azzinny 그거야 그렇게 진화했으니까 그런거고. 유년기에 노출이 없이 동물무리에서 같이 자란 애들은 성인이 되어도 언어 못배움.
@azzinny16 күн бұрын
@@solidify-d9l 어렸을 때 특정 환경에 노출되면 언어를 습득할 수 있다는 게 타고난 능력입니다. 어린 원숭이가 사람과 지낸다고 언어를 습득하지 않아요. 문장을 논리적으로 처리하지는 못합니다.
@hohoppa16 күн бұрын
언어는 학습되는 것이 좀 더 타당하다고 보입니다. 반례로 학습없이 언어를 사용하는 사례가 있는지요?
@azzinny16 күн бұрын
@@hohoppa 학습할 수 있는 능력을 타고난 거에요. 아무도 인간이 태어나자마자 언어능력을 갖는다고 하지 않아요.
@이승철-p4p17 күн бұрын
이제 추론이 가능한 인공지능이 나오고 몇년 안에 AGI가 나온다는데..
@OOOPOOOOO16 күн бұрын
llm은 확률론적 앵무새가 맞음. 단지 인간도 확률론적 앵무새일뿐임. 성능의 차이. 인간이나 인공지능의 지능을 신성시 하려는건 위험한 주장임. 둘 다 완전히 신뢰하기 어려움
@Yamayajur15 күн бұрын
인간이 어떻게 확률론적 앵무새입니까… 아. 당신이 대중, 대중문화만 생각하셨다면 그럴 수 있겠군요.
@newch646815 күн бұрын
양자 확률론적 앵무새라서 인간이 만들어낸 알고리즘과는 차원이 다릅니다..
@LinuXtoragE14 күн бұрын
인간은 진화를 위해 정해진 시간 간격(세대교체)이 필요한 반면, ai는 세대교체에 비교적 자유롭기때문에 인간을 넘어서는건 시간문제라고 생각합니다.
@pbornary-cmc8414 күн бұрын
맞는 말인것 같음. 나도 나이가 먹으면서 내 사고과정 자체가 점차 익숙된 환경에선 그라운드업 같은 논리적인 의사결정 과정을 통하지 않고 경험에서 비롯된 직관적인 뉴럴넷 기반의 결정도 상당히 많아짐을 느낌. 특히 댓글 달때처럼 문장을 만들때 많이 느낌.
@드드득-r6v14 күн бұрын
사람 지능도 llm과 근본적으로 다를 바 없다는데에 동의 ㄹㅇ
@qpwidbmxx17 күн бұрын
LLM을 자세히는 모르지만, 부분을 이해했다고 해서 전체를 이해한건지는 모르겠네요... 환원주의가 생각나네요 물론요즘껀 글 요약 기능이나 논리적 추론이 가능하던데 그건 잘 모르겠네요 그리고 인간은 모르고 있는것에 대해서 알고있다고 생각하지는 않는데 그런부분에서도 차이가 있고(환각) 그리고 "픽셀 아트"의 픽셀 색깔을 좌표에 따라 인간에게 순서대로 보여주고 무슨 그림이냐고 물어보면 대답할 수 있는 인간이 많지 않을것 같네요 AI는 될텐데 반대로 AI가 픽셀이나 정해진 세그먼트 단위로 이미지 파일을 분석하지 않고 구별하는건 거의 불가능할것같네요
@parkjongcherl816217 күн бұрын
"인간은 모르고 있는것에 대해서 알고있다고 생각하지는 않는데" 바로 이 영상에서 힌튼 교수가 반박한 내용이죠. 그리고 " AI가 픽셀이나 정해진 세그먼트 단위로 이미지 파일을 분석하지 않고 구별하는건 거의 불가능" 이미 정복된 영역이죠.
@qpwidbmxx17 күн бұрын
@@parkjongcherl8162 아 그럴수도 있겠네여 ai분야 관심있는데 ai 공부하면서 생각해봐야겠네요
@solidify-d9l16 күн бұрын
@@parkjongcherl8162 정복같은소리하네. AI태생적한계가 "결과론"이라고 AI개론에 처음부터 등장하는데 이래서 ㅈ도 모르는 애들이 용감하다는거. 인간이 5%를 알고있다고 착각하는거랑, AI가 99%를 그럴싸한 오답으로 포장하는건 아예 다른 개념이지. 수치만 올리면된다라고 생각하는게 문제인거고. 아니... 너부터가 인간인데도 이런 환각을 만들어내는 수준이라 그렇게 생각하는걸지도?
@Kasuga-Ichiban15 күн бұрын
픽셀로 이미지를 구분하는 것은 엄청 구시대 기술이고, 인공신경망이 등장한 이후부터는 신경망이 이미지의 패턴을 분석해서 분류합니다. CNN 분류를 찾아보세요.
@가락-k6z12 күн бұрын
사과와 바나나는 다릅니다. 인간1과 인간2도 다릅니다. 인간과 llm도 다릅니다. 사과와 바나나는 과일이라는 공통점이 있습니다. 인간1과 인간2는 인간이라는 공통점이 있습니다. 인간과 llm도 공통점이 있습니다. 무엇이든 다르게 보고자 하면 다르고, 같게 보고자 하면 같겠죠. 중요한건 llm이 인간의 '힘'과 동급인지, 인간의 권리와 책임을 주느냐 마느냐를 이것 저것 갖다 붙여다가 싸우고 있는거 아닙니까? 수화 가르쳤더니 인간과 언어로 소통하는 침팬치한테 약물실험하던 인간들이, llm이 감정이나 의식 가진다고 뭐 하나 쥐어주겠습니까? 자기 편하자고 힘 없는것들 기만하고 날조하는게 역사가 증명한 인간 사회 아닙니까. 이 주제에서 중요한건 증명이 아닙니다. 'llm은 아직 힘이 없다' 인거죠.
@roeniss17 күн бұрын
인간이 거짓기억을 가지는 현상과 기계가 정보를 잘못 조합하는 현상을 동일 선상으로 바라볼 수 있는가?
@2jaemyungE16 күн бұрын
지금의 AI는 단순 메모리에서 저장된 걸 끌어오는게 아닌 인간의 뇌신경망을 복제한 상태서 이뤄집니다.
@roeniss16 күн бұрын
@ 인간의 뇌신경망을 모사한 메모리 데이터를 끌어온다,가 공평한 묘사라고 생각합니다.
@solidify-d9l16 күн бұрын
@@2jaemyungE 신경망을 참고한거지 같은 구조가 아님. 그렇게 좋아하는 ai한테도 물어보셈.
@phs-p5m16 күн бұрын
난 좀 다르게 생각함 인류의뇌는 단한가지의 시스템이 아닌 최소 20가지의 무의식의 시스템과 우리가 의식이라고 믿는 부분의 시스템이 합쳐진 형태임 llm은 사람의 언어적 무의식시스템과 비슷하다고 생각함. 이걸 상세히 설명하고 싶은데.. 답답하네 어차피 사람들 알아먹지도 못하는데 트랜스포머 구조에 대해서 대부분 이해도 알아보려하지도 않기때문에... ai수학적인부분이라던가 워드임베딩벡터에서 셀프어텐션값들이 실질적으로 변화시키는게 무엇인지 사람들이 알지도 못하니 각자의 지 상상대로 주장만하는거같은데 본질은 수학이고, 사람의 무의식시스템의 단어선택도 상황등에 맞춰서 단어를 선택하는거기때문에 비슷하다고 생각함 다만 지금의 llm구조로는 나사빠진부분이 많을뿐 그게 스케일로만 해결이 다되지않으니 앞에서 scale is all you need라고 외치고 뒤에서는 cot를 적용시키면서 현혹시키는거겠지
@Kasuga-Ichiban15 күн бұрын
CoT, 생각의 사슬로든 한계가 있다고 저도 동의합니다.
@nsc244317 күн бұрын
의식의 난제에 대해 현재 어떤 과학자들도 답을 못 내고 있는 상황에서 힌튼 교수의 염려는 다소 촘스키에 대한 반대에서 비롯되는 것 같음. 먼저 생명체의 의식/지능은 생존과 세포들의 metabolism 으로부터 기인한다고 봐야 하고 생존에 대한 기본적인 drive가 없는 AI의 경우 운전자 없는 자동차라고 해야 할까? 지금 자율주행차들이 가장 어려움을 겪고 있는게 결국 사물 인식에서 단 한개의 변수만 발생해도 같은 고양이를 인식 못하고 비닐과 구름을 따로 인식 못하는 것이기 때문에 기계적/통계적 weighting과 backpropagation그리고 결국 그것들을 함수로 이진법으로 전환 시켜 사물을 인식하는 AI의 경우 우리가 모르는 외계적인 지능을 가질 수는 있겠으나 인간과 같은 자의식을 갖게 되는 일은 아마도 거의 불가능에 가깝지 않을까 생각됨.
@유하람-y4u17 күн бұрын
자의식을 프로그래밍한다면 어떻게 될까요? 완전한 자의식이라는 거 말고 psuedo 자의식(?) 같은걸 만든다면요. 말씀하신대로 생존에 대한 기본적인 drive 같은 것들 말이죠
@강아지귀여운-t9m17 күн бұрын
이 세상에 인간이 한명만 존재해도 그 인간이 자의식을 가질까?😂😂 그게 중요한거 아님? 자의식이라는게 서로 거울처럼 볼 수 있는 상호작용으로 만들어진
@nsc244317 күн бұрын
@@유하람-y4u 그럴수 있다고 봅니다. 그럴 경우 매우 위험할 수 있다라고 볼 수 있죠. 소위 말하는 misalignment 문제겠죠.
@mubik45316 күн бұрын
흠.. 일단 자의식의 정의가 무엇인지부터 고민되는군요.
@alonelyguystaste933116 күн бұрын
디지털바이올러지 전공자인 제 관점은 현 AI는 정상 세포라기 보다는 암세포에 가까워요. 증식하지만 스스로의 미래에는 목적성을 갖고있짐 않은. 방어와 반응은 하겠지만 스스로 갈 길에 대한 설계도는 없는 상태죠. 언젠가는 되겠지만요.
@fighterfire569915 күн бұрын
인공지능이 달을 보고 저건 지구 주위를 돌고 있고 그건 중력때문이다 라는걸 사유할 수 있음??
@tertervouz14 күн бұрын
없기는 한데 아직 불가능한것뿐 좀 유예를 둬줬으면함 인류는 그거 사유하는 데까지 수만년이 걸렸음..
@아침밥-w4b9 күн бұрын
애초에 그 '사유'의 매커니즘도 모르잖음. 인공지능이 실제로 그렇게 하고 있다고 해도 비교할 기준 틀이없음
@심종훈-d9j17 күн бұрын
일부 맞는 말을 하고 있다손 치더라도 현 시점 미국이 신용을 끌어다 쓰기 위해 인공지능의 능력을 과장해서 마케팅하고 있는 것 같다는 의심이 강하게 든다. 물론 내 의심도 전부다 맞는 것은 아니겠지만 을사년 미국은 양자컴퓨터를 또 들고 나왔는데 붕괴되는 증시를 막기위해 신용을 유지하고자 설익은 기술을 가지고 또 과장하는 거 아닌가 ... 현시점 다수가 잘못된 사실에 놀아나고 몇몇사람들만이 진실을 눈치챈다하더라도 달라질게 무엇이겠는가? 곡사춤으로 돈을 버는 이들과 이를 즐기는 사람들 앞에서 기괴하고 징그럽다고 말하다 욕을 먹을 뿐이요. 설령 인공지능이 그토록 가치있다한들 이미 그들의 소유물이지 내 것은 아니므로 차라리 터미네이터를 대비하는 존 코너가 되어 인류를 구원할 생각을 하는게 현명할지도...
@2jaemyungE16 күн бұрын
특이점은 왔고 기술발전속도는 기하급수가되어 수직에 가깝게 올라가고 있습니다. 지난3년보다 1년사이의 발전속도가 훨씬 빠르고 갈수록 가속화되어가고 있습니다.
@ALETHES16 күн бұрын
어차피 인공지능이 세상을 바꿀때 쯤엔 아저씨는 이미 무존재가 되어있을테니 살아계시는 당분간은 아무 지장 없습니다. 인공지능의 정수는 아저씨 말고 젊은 우리가 누리면 되니까요
@solidify-d9l16 күн бұрын
@@2jaemyungE 수직같은소리하네 ㅋㅋㅋ COT구조 발견되고나서부턴 컴퓨팅파워만 처박은거 왜 숨김? o1-preview나올때부터 이미 o3현재 성능은 나올 수 있었음. 근데 한번에 500만원 수준이니까 절대 상용화안되고 그러니까 컴퓨팅 파워 제한해서 했지. 근데 COT는 한계있다는 논문 나왔고 추론모델 베이스가 되는 gpt5는 한계점도달했다고 나오는데 그게 무슨 수직임 ㅋㅋㅋㅋ 3, 3.5, 4, 5까지 점점 천장찍고있음. cot는 단일 돌파구였을 뿐, o1-preview, o3는 단순히 cot에 전력처박은거에 지나지않음.
@solidify-d9l16 күн бұрын
@@2jaemyungE 결국은 1년사이 발전은 gpt초창기버전 개발 이후 그냥 스케일링만 처박아서 땡긴거임. 거기에 cot가 돌파구가 됬던거고. 근데 스케일링 천정도달했다는 소리는 이제 다 알제? 이젠 cot같은 돌파구 또 안찾으면 겨울임 ㅋㅋㅋㅋ 실제로 이전 ai겨울도 주기 지금 주기랑 비슷한거 아냐? 그때도 정부들, 대기업들 다 호들갑 떨었고 그러다가 ㅈ박아서 5년사이 퇴물됨. 사람교체한다 이제 끝났다 인간을 넘어섰다 -> 근데 지금 왜 교체안됨? (진짜모름) 애초에 교체할만한 초지능 개발했으면 ai회사에 있는 연구자부터 교체되야지 ㅋㅋㅋㅋ arc-agi o3가 오답낸거나 보고와라. 초등학생도 그런건 안틀려. 자꾸 인식하는 방식이 다르다 토큰드립치지말고
언어를 기계가 학습 가능한지 안 한지를 따지기에 앞서 먼저 알아야 할 점은 언어는 인간의 위대한 창조물 또는 발명품이라는 것임. 그런데 현재의 인공지능 기법으로 이러한 언어 자체를 창조해낼 수 있을지는 의문임. LLM 앵무새론은 아마 LLM의 이런 한계점을 지적한 게 아닌가 싶음. 그렇다고 LLM이 효용이 없다는 건 아니니 오해는 말길 바람.
@y2394sswo17 күн бұрын
연사분은 정돈되지 않은 말을 생각나는대로 말씀하시네요. 한국인으로서 번역하기 어려웠을 것 같은데 잘 봤습니다.