일하는 사람, 경영하는 사람들의 ‘챗GPT 강좌 출시’ “혁명은 챗GPT가 아니라 LLM이다.” 시중의 많은 강좌가 챗GPT의 원리와 활용법 중심입니다. 하지만 기업구성원과 리더에게 필요한 챗GPT 강좌는 달라야 합니다. □ 기업 사내교육용 구매 : ttimes6000@gmail.com / (02)724-7718 / 010-5327-9524 □ 개인 수강 : 티타임즈 교육사이트(ttimes.liveklass.com/ ) □ 강좌 목차 1강. 거대언어모델(LLM)은 기존AI와 어떻게 다른가? 왜 혁명인가? 2강. 챗GPT의 한계와 길들이는 법 ‘파인튜닝’ 3강. LLM으로 어떻게 기존제품의 차별화를 만들까? 4강. LLM으로 뒤바뀐 테크회사들의 경쟁구도 5강. 생성AI시대 킬러 서비스는? 메타버스는 왜 강력해질까? 6강. 기업의 경쟁력 제고를 위한 거대언어모델 활용법 7강. 챗GPT가 제기하는 사회적 이슈(교육, 저작권, 가짜콘텐츠) 8강. 프롬프트 활용 실전 노하우
@pyrobuloso Жыл бұрын
박태웅 의장님, 다뵈에 요즘 안나오시면서 최근 소식이 궁금했는데 여기서 캐치업 했습니다. 감사~
@happyfreak2022 Жыл бұрын
박태웅 의장님 단순 최신 it 지식이 아니라 사회 전반에 걸친 깊은 통찰력을 보여주는 분입니다 ❤❤👍👍👍 emergent 개념은 진화 생물학에도 나오는 용어인데 이제 ai도 진화를 하겠네요 ㅎㄷㄷ 2편은 곧 주실거죠? 😅
@jikim9345 Жыл бұрын
잘 봤습니다. 2부를 기다립니다.^^
@hiemus Жыл бұрын
솔직히 두렵습니다. 지금까지도 정보의 비대칭으로 인해 빅브라더들은 범접할 수 없는 수준이었는데, 이제는 빅브라더들이 정말 신이 되려하고 있네요. 물론 그들이 손에 쥔 장난감이 언제 그 손에서 튀어 나갈지는 모르겠습니다만, 격변의 시대에 태어났다는 실감이 드는 요즘입니다.
@SsSs-vx1pl Жыл бұрын
생각 보다 오픈 소스로 나온 LLM 들 성능이 좋습니다. 심지어 GPT-4의 능력을 상회하죠. 그걸 만든 가격 조차 대기업이 쏟아 부은 돈 보다 훨씬 저렴 하구요. 두려워 하지 마시고 움직이면 됩니다. 만약 진심으로 두려운 거라면.
@XT55555 Жыл бұрын
기술의 발전은 빅브라더 큰 회사들보다 오픈 소스 진영인 즉 개인개발자들이 모인 인터넷 커뮤니티가 더 활발합니다. 오죽하면 구글은 AI(기술)의 해자(성벽을 방호하는 물웅덩이 즉 여기에서는 기술적 우위점을 은유함)가 없다는 말을 했습니다.
@SsSs-vx1pl Жыл бұрын
@@이한-s2f 며칠전에 메타에서 Llama 2 심지어 상업적으로도 무료로 푼건 알고 있고?
@asd-vr7nv Жыл бұрын
상세히 설명해주셔서 이해하기 쉬웠어요. 좋은영상 감사합니다.
@cheesebombjalapeno Жыл бұрын
감사합니다. 좋은 영상 잘봤습니다.
@김승원-y3r6p Жыл бұрын
좋은 영상 잘 봤습니다. AI에 대한 시각이 한층 넓어지네요.
@shostakovichable Жыл бұрын
두려움만 있으면 적기조례가 되는거죠
@Flluma Жыл бұрын
맞는 말인데 그 기준이 너무 모호하네요 법을 만드는 것도 사람 ai를 만든 것도 사람 넣을 정보를 만든 것도 사람인데 사람의 편견과 선입견이 있을 수밖에 없다고 생각합니다
@laguna8211 Жыл бұрын
바로 그부분에 대해 지금 서구권 AI연구자들이 가장 많이 얘기하는게 AI Alignment paradox죠
@pyrobuloso Жыл бұрын
엇, 중간에서 끊어지는군요ㅠㅠ 2편 기대하겠습니다~
@yoochangkim2936 Жыл бұрын
기술이 발전하면서 살기 너무 좋아져서 행복해요~ 저는 기술 잘 활용해서 잘 살아 보겠습니다ㅎㅎ
@아톰핫 Жыл бұрын
파괴적 혁명이라 하더라도 다들 위기감만 있지 엄청난 가능성에 비해 아직 우려만 있지 악영향은 한번도 보여주지 못했음. 현재 수준에서 기술을 막고 검증 하자는 논리는 시장에서 통할 수 없음 구글 조차 아직 시제품을 내놓고 있지 못하는 상태로 기술을 독점하는 미래를 걱정하는게 현실적임.
@아톰핫 Жыл бұрын
더해 이제 나온지 6개월도 안된 생성형 ai에서 백과사전식 완전한 정답을 찾으려는 생각이 문제 효율적 창의에 집중 할 수 있게 해주는 생성도구로 미래가 더욱 양극화 되는 새로운 시발점임
@하하호호-h3u Жыл бұрын
@@아톰핫 GPT-4를 준지성체로 보고 대하면 질문의 퀄이 달라지고 그에 따라 아웃풋 및 활용도가 차원이 달라지죠. 내 앞에 나와 머리를 맞댈 수 있는 브레인이 있는데 계산 노가다나 백과사전으로만 사용할 사람은 거의 없음. 다들 제대로 써보지도 않았거나 본인들이 빡대가리라garbage in garbage out 인줄도 모르고 깎아내기 바쁘거나 본인들 밥그릇이 걱정되니 어떻게든 왜곡해서 선동이나 하려고 하고 지금 당장 마음의 안위나 얻으려고 회피성 방어기제 발동 중.
@SsSs-vx1pl Жыл бұрын
구글도 내놨고 심지어 오픈 소스로 풀린 많은 LLM 들이 GPT 의 기능을 상회 하는 수준임. 이런 얘기 하려면 좀 더 조사가 필요해 보임
@Pianoman_o_v Жыл бұрын
오래전에 AI 바둑도 둬보고 요즘엔 AI 그림도 그려봤는데 정말 장점은 엄청난 시간 단축을 시켜준다는것하고 내가 생각해보지 못한 창의적이라는것 오류도 있긴하지만 결국 사람의 욕심과 이기심 그리고 실수보다는 정말 안정적이란것 결론 도구는 사람이 쓰기나름임~ 위험한건 사람
@ddimoms7416 Жыл бұрын
최근 ai 강의중 최고의 강사라고 생각
@k.w.s2156 Жыл бұрын
AI의 신캄브리아기! 이 세대를 지나면 인류는 또 얼마나 진보해 있을까요?
@sammc10825 ай бұрын
챗GPT는 인공지능이라기 보다 방대한 자료를 요약 정리하는 머신일 따름
@cyclo4u Жыл бұрын
뒤처진 회사에서 부정적인 이미지 씨우고, 뒤집을 수 있을때 쯤. 걱정없다는 여론노출하겠죠.
@하하호호-h3u Жыл бұрын
질문: GPT-4는 오류율이 10프로정도 된다고 한다. 이에 대해 어떤이가 GPT-4를 총알이 발사될 확률이 10프로인 권총에 비교하며 이 권총으로 러시안 룰렛을 하는 것과 GPT-4를 믿고 사용하는 것은 같은 정도의 위험성이 있다고 주장을 하고 있다. 여기서 보여지는 인지오류 사례를 분석하여라. GPT-4 답변: 이 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 비교함으로써 인지 오류의 몇 가지 예시를 보여줍니다. 인지 오류는 사람들이 정보를 처리하거나 판단을 내릴 때 발생하는 체계적인 심리학적 실수입니다. 이 경우, 주장에서 다음과 같은 인지 오류들이 발생하고 있습니다. 1. 과장화 (Exaggeration): GPT-4의 오류율이 10%인 것을 근거로 러시안 룰렛과 비교하는 것은 두 가지 상황 간의 위험성을 과장하는 경향이 있습니다. GPT-4의 오류가 주로 정보 누락, 표현의 정확도 등과 관련이 있을 반면, 러시안 룰렛의 위험성은 심각한 신체적 손상이나 사망과 연관되어 있습니다. 2. 동일 시선 편향 (False Equivalence): 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 동일한 시각으로 보려는 경향이 있습니다. 그러나 이 두 가지 상황은 맥락과 결과 면에서 완전히 다릅니다. GPT-4를 사용하여 정보를 얻거나 의사결정을 할 때 발생하는 위험성은 러시안 룰렛과는 비교할 수 없는 수준입니다. 3. 거짓 비교 (False Comparison): 주장은 GPT-4의 오류율과 러시안 룰렛의 위험성을 비교함으로써 거짓 비교를 만들어냅니다. 이 둘은 본질적으로 다른 상황이며, 각각의 결과와 영향력도 다릅니다. 이러한 비교는 혼동을 초래하고 정확한 판단을 방해할 수 있습니다. 4. 선택적 주목 (Selective Attention): 주장은 GPT-4의 오류율에만 초점을 맞추고 있어서, 이 인공지능의 정확도와 다양한 기능에 대한 언급이 누락되어 있습니다. 이로 인해 주장이 일방적이고 왜곡된 정보를 제공할 수 있습니다. 이렇듯 주장에서는 여러 인지 오류들이 발생하고 있습니다. 이러한 오류들을 인식하고 수정함으로써, 더 정확한 판단을 내릴 수 있습니다. 결론: 사람이 가장 위험하다.
@happyfreak2022 Жыл бұрын
ㅋ ai가 가져올수 있는 변화가 인간이 예측할수 없는 수많은 범위에 걸쳐 진행될 것이고 학자들은 그 파장에 대비하고 규칙을 정해야할 사람들이다. 그걸 미리 경고하고 규칙을 정하자고 하는걸 ai 한테 물어보고 봐 니말 틀렸지? 하는 수준이란 이래서 ai가 무서운거다 그걸 이용하는 인간들이 너무 하자니까
@하하호호-h3u Жыл бұрын
@@happyfreak2022 AI의 잠재력에 대해 아직 그 누구도 확실히 모르는 상황에서 굳이 러시안 룰렛과 비교하면서 잠재적 위험성을 과장하며 시야를 가리려는 얄팍하고 전형적인 선동형논리를 구사하길래 GPT-4 조차 그런 논리는 반박가능하다는걸 예시로 든것인데 GPT 하위호환인 닝겐은 알아먹기가 불가능 하지.
@TaewoongPark Жыл бұрын
안녕하세요. 챗지피티에게 질문을 할 때 답을 유도할 수가 있어요. 지금 하신 질문은 "인지오류 사례를 분석하여라"는 것입니다. 챗지피티는 당연히 인지오류에 관해서 얘기를 하게 됩니다. 가령 이렇게 질문을 바꿔볼 수 있습니다. 질문 ; “GPT-4에는 환각현상이 있습니다. 미션 크리티컬한 업무에 GPT-4를 사용하면 안 되는 이유를 알려주세요." GPT-4의 답은 이렇습니다. GPT-4의 답 ; "GPT-4와 같은 AI 모델은 때때로 환각을 일으킬 수 있으며, 이는 부정확하거나 무의미한 정보를 생성할 수 있다는 것을 의미합니다. 이것이 바로 오류로 인해 심각한 결과를 초래할 수 있는 미션 크리티컬 업무에 사용해서는 안 되는 이유 중 하나입니다. 다른 이유로는 잠재적인 편향성, 맥락 이해의 한계, 실시간 상황 처리 능력 부족 등이 있습니다. 위험을 최소화하려면 AI를 철저히 테스트하고 적절한 애플리케이션에서 책임감 있게 사용하는 것이 중요합니다." GPT와 같은 거대언어모델은 '물은 바에 관해서' 답을 합니다. 말하자면 '인지오류가 없습니다'라는 답을 하지 못한다는 것입니다. 이것 역시 이런 인공지능을 사용할 때 주의할 점이라고 할 수 있겠습니다.
@하하호호-h3u Жыл бұрын
@@TaewoongPark 물은 바에 대해 답도 못하고 맥락도 이해 못하는 휴먼찡은 대체 어찌해야 할까요? GPT가 물은 바에 맞춰서 답을 한다는걸 몰라서 그러는게 아니라.... "AI의 잠재력에 대해 아직 그 누구도 확실히 모르는 상황에서 굳이 러시안 룰렛과 비교하면서 잠재적 위험성을 과장하며 시야를 가리려는 전형적인 선동형논리를 구사하길래 GPT-4 조차 그런 논리는 반박가능하다는걸 예시로 든것" 이게 요지입니다. 물은 바에 따라 반응을 하는 GPT VS 멋대로 상대방 의견 편집해서 답정너로 쉐도우 복싱하는 인간. 가슴 ㅈㄴ 웅장해지네.
@hwanghhmida7086 Жыл бұрын
님이 질문에 적은 오율 10퍼센트가 MMLU(Massive Multitask Language Understanding)점수를 말씀하신거 같은데 이건 단순히 답변 오율을 나타내는게 아닙니다. 대규모 언어모델의 언어 이해도를 나타내는데, 세계적인 석학들도 95%정도고 일반적인 박사, 전문가들은 90을 넘기기도 힘들다고 합니다. 자기 분야에서요. 러시안 룰렛에 비교하는거 자체가 언어모델에 대한 이해가 전혀 없는거라고 GPT가 대답해주고 있는거 같네요.
@yoojaewoong Жыл бұрын
컴퓨터에의해 일하는 시대에서 컴퓨터에게 일하는 시대로 변화되었군요... 검증은 사용자사 지식을 길러 스스로가 확인해야 할 것 같네요... ㅠㅠ AI RELIABILITY 가 대두가 되겠군요. AI대신, 누군가 인류가 던지는 질문에 계속 답을 달고 있는게 아닌지... 인류가 던지는 질문은 범주와 범위와 확률적이기 때문일까요?
@sukyoungpark9556 Жыл бұрын
AI를 제대로 활용하려면 어떻게 해야하는 지 인사이트를 얻어갑니다. 감사합니다.
@fuga9 Жыл бұрын
자가 학습하게 하면 자가 복제하게 되면 그들은 스스로를 제제할수조차 없게되며 스스로 생성된 자의식으로 다중 성격이 형성되어 신의 영역에 돌입할것 궁극엔 인간을 통제 할것 세계의 모든 인터넷 장악으로 악몽의 시작
@화양-b7u Жыл бұрын
AI가 잘못 답해서 문제가 생겼다면 누가 책임져야 하나
@jjwoosung Жыл бұрын
"인공지능이 사람들에게 도움을 주는 분야에서 쓰일 수 있는 가능성이 무궁무진하네요."
@김태영-o4u8s Жыл бұрын
그래서 어떻게 해야 한다는거지? 그게 궁금한데. 갑자기 끝났어요
@hwkim4454 Жыл бұрын
누가 열광하고 누가 선호 한단 말입니까?
@얼리-w2t Жыл бұрын
근데 두렵다고 개발을 멈추기엔 도태될 가능성 58000%
@얼리-w2t Жыл бұрын
그리고 오염된 데이터라기엔 너무 팩트만 도려낸 AI좌 ㅋㅋ 타노스 대신 인류를 단죄 할지어다
@SsSs-vx1pl Жыл бұрын
진짜 이분법적인 사고다... 개발을 멈추는게 아니라 1년 2년이라도 늦더라도 조금 더 정제 된 데이터를 사용해서 훈련시키고 그 쪽으로 더 연구한다면 5년 뒤에 개인정보 부터 편견 가득한 모델을 쓰겠음? 아니면 정제된 데이터로 잘 만들어진 모델을 쓰겠음?
@ememememe01 Жыл бұрын
@@SsSs-vx1pl ㄹㅇ 지능 쥰내 낮음ㅋ
@두굿비굿 Жыл бұрын
학생들도 볼 수 있길 바랍니다.
@냉정한사람 Жыл бұрын
어차피 누가 만들건데 ~ 문제 안생기게 프로그램 하면되지 100년후에 나올걸 왠 걱정 서비스 업 종사자 감정노동 없이 빨리 만들어졌으면 하는 발램 뿐이다
@kenurflim7095 Жыл бұрын
100% 믿을 만한 사람의 100%의 판단은 존재하나요? 어차피 없습니다. 사람이 만든 인공지능이 100%의 유효한 판단만을 하는거. 있을 수 없구요. 차라리 인공지능이 스스로 진화해서 유효한 판단이 100%가 되는 것을 기대하는 것이 더 옳다고 보입니다. 통제된 확신.. 그런 것 없어요. 더 진화하면 할수록... 아직 인공지능이 진화하지 않아서 이러쿵 저러쿵 이야기하는 것이지... 그것을 넘는 순간 사람은 인공지능을 몰라요. 인공지능은 사람을 알아도. 그러나, 인간의 원리를 적용해서 만든 인공지능은...또한 사람의 단점과 약점을 그대로 반복해서 가져갈 것으로 보입니다. 그렇게 많이 알고...잘 알면서도 ....
@nanalee-fy7rl11 ай бұрын
더 이상의 변수와 다양성이 없는거지 인간은 그냥 일관적인 데이터 한 셀이 되는거야
@rlawodnz131 Жыл бұрын
꿈속 영상까지 저장하진 않잔아요 아직멀었어요
@ryanpark1107 Жыл бұрын
인공지능의 한계. 다재다능하지만, 미션 크리티컬한 것은 안돼.
@jmc4597 Жыл бұрын
빌 게이츠가 이걸 가지고 무슨 장난을 칠지?
@user-mw2vf4ce4s Жыл бұрын
인간이 마인드 업로딩해 AI가 되는데 무슨 걱정
@TheHjunK Жыл бұрын
스카이넷이 멀지 않았다
@yoonhosung7358 Жыл бұрын
신캄브리아... 실화냐 선캄브리아기인데....
@Gshine-x7p Жыл бұрын
지식인들이 위험한 시대.
@YS0824 Жыл бұрын
ㅋㅋㅋ벌써 챗지피티 작동 방식도 이해 못하는 사람이 태반인데 혼란만 가중되고 정보 불균형도 가속되겠군요. 자꾸 지피티 작동 원리를 생각지 않고 “세상 모든 책을 다 읽었다“ 이 문구 하나로 불안만 조장하는거 같아요. 대부분이 사람이 학습하는것과 같다고 생각하고 있음. 결국에 오리지널 컨텐츠를 만드는건 사람이고 지피티가 만드는건 짜집기게 불과함. 계속 지속이 되면 와인이 희석이 되듯이 인터넷 정보의 질이 허위정보와 낮은 퀄리티 쓰레기로 가득찰것임. 결국은 사람이 하는걸 못 이긴단 말씀.
@sonsm4881 Жыл бұрын
좋빠가!!
@존재혁명 Жыл бұрын
단순히 과학적, 기술적 측면만을 생각해도 위험성을 고려해서 논란이 많은데.. 여기에 영적인 측면까지 이해할 수 있다면 당연 AI는 머스크가 심각하게 고민하며 말한대로 선제적으로 규제를 해야하는 몇 안되는 분야인 것이 분명하다. 몇 년 전 나는 기계의 알고리즘에 외부의 영적 존재가 자신의 메시지를 집어 넣어서 그 기계의 알고리즘을 통해서 예상치 못한 답(결과물)한 것을 보면서 당황한 적이 몇 번 있었다.( 이것은 마치 요한복음 13장 2절에 예수님을 팔아넘긴 가롯유다라는 제자에게 사단이 예수를 팔 생각을 그의 뇌(생각)에 집어 넣었다고 표현된 성경 말씀을 보면 쉽게 이해할 수 있다. 즉 영적존재가 자신의 영향력을 사람뿐 아니라 데이터 수집을 기반으로 지식체계를 갖춘 인공지능에게도 얼마든지 미칠 수 있다는 것을 고려해야 한다. 그러면 마지막 때에 적그리스도가 어떤 형태로 나타날 수 있는지도 어느 정도 생각해볼 수 있는 셈이다.) 이 말의 의미를 사람들이 이해할 수 있을지는 모르겠지만 이 말은 사실이다.
@christinalee4315 Жыл бұрын
제목만보고 운세도 봐주나 싶어서 물어봣는데 안해주네요 ㅋㅋ 그저 논리왕인 ai씨
@Allin7days Жыл бұрын
요즘 ChatGPT에 대해 각종 비 전문 분야에서 '오바'하는 트랜드가 있는데 대부분 신혼기가 지나면 쏙 들어갈 얘기들이다. 기껏해야 있는 자료 챙겨서 정리해서 요약해 주는 비서 역활 정도다. 역시 내용은 본인이 다시 확인해야 한다는... 이 말이 의심되면 이 글을 읽는 그대들이 ChatGPT를 이용한 후에 우리의 삶이 뭐 그리 변했으며, 우리가 그 후 뭐 대단한 성과를 이루었나 질문해 보면 된다. 80억의 인간이 존재하는 이 세상에서 혁명이라 불리려면 인간과 비슷한 수준의 AI가 아니고 인간보다 훨씬 뛰어난 수준의 AI이다. 아인쉬타인 수준의 AI가 나오기 전에는 그냥 소프트웨어 툴.
@hyperflation Жыл бұрын
아직 나온지 1년도 안됐는데 벌써부터 깎아내리는 수준
@고성원-d4q Жыл бұрын
인공지능이 인류를 멸망시키길 바라는 사람도 있습니다
@강용두-g6n Жыл бұрын
총이 발명되었는데 그게 먼 거리의 사람도 손가락으로 죽일수 있다더라고 동네방네 떠들고 다니는 사람들 같군... AI가 무서운 게 아니라 인간이 무서운 거 아닌가... AI 없으면 안 무서운 세상이 되는 것도 아니고...
@ranma1213 Жыл бұрын
10에 22제곱이라는 수치는 뭘 의미할까
@TaewoongPark Жыл бұрын
학습연산량입니다.
@o1o1isfp Жыл бұрын
어우 재미없어 챗지피티 써봤으면 알텐데 어디 음식점 하나 추천하는것도 신뢰안가는거
@duckymomdiary5388 Жыл бұрын
이런 진보가 바른 방향으로 가게 하는 것도 당신, 당신만이 할수있지요.
@ccasio9636 Жыл бұрын
지성은 올바른 해만을 찾아 내는 것만이 아니라 거짓도 포괄하여 선택하는 능력이다. AI는 이미 지성을 가졌다고 할 수 있더. 그것도 무한히 성장할 수 있는 가능성까지도~~ .
@h.k.7360 Жыл бұрын
한빛 미디어 자체가 사쿠라 회사인데 무슨...ㅋㅋㅋ
@WNANF주물 Жыл бұрын
챗 GPT 입만 열면 거짓말 사기꾼... ㅋㅋ..
@bokhanlee4049 Жыл бұрын
AI 양자 핵 닮아 있는꼴 핵무기 핵발전 ~ 공포와 위험 생활에 유용이 함께 간다 ~ 생각하나 그건 니 생각일 뿐 ~ 답은 아무리 말려도 간다 일어날 일은 일어 나고야 만다
@ksyang00 Жыл бұрын
너무 아님 말고 식의 인터뷰인것 같네요. 그냥 개인의 의견을 마치 검증된 이론 처럼 얘기하네요. 사람 얼굴 학습에 대해서도 데이터가 이 사람은 그것밖에 못될 사람이 아니라 현재 그 직책 직업에 있는 사람을 학습시킨 것이 맞지 않을까요? 여러가지 혁명적 과학의 발전이 나오고 그 중에서 몇몇이 산업에 많은 영향을 미치는 것 처럼 보이지만 증기기관이 산업혁명을 가져온 것이 아니라 산업혁명을 가져올 수 있도록 모든 기술이 발전했을 때 증기기관이 나와서 산업혁명이 이루어 진 것이라고 생각합니다.
@philosopherPsy Жыл бұрын
인터뷰이 개인의 의견이 아니라 지금까지 주변에서 주워들은 얘기로만 계속 진술하는 거. 비유한 룰렛은 좀 심했다. 좋은 지적이십니다.
@책요리부동산23 Жыл бұрын
오바스럽네요 아직도 생활에 적용도 못했는데 무슨 큰일날것처럼 더 발전하고나서 할말인것 같네요
@mikeaurelius Жыл бұрын
관상은 과학이라며 AI가 하면 선입견이다? 내로남불 아닌가
@CutSoo Жыл бұрын
틀린답변만 체크하게하고 그것만 수정입력하면 되겠네 그럼 시간과 인력도 별로 안잡아먹음.
@billionairesinsightrow5801 Жыл бұрын
앞으로 책도 안팔리게 생겼거든 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ