Tap to unmute

😎경량화! 노트북에 구축하는 대규모 언어모델 GPT4All😎 (feat, ChatGPT, GPT3.5, LLaMA, Alpaca, Vicuna)

  Рет қаралды 26,808

한국인공지능아카데미

한국인공지능아카데미

Күн бұрын

Пікірлер
@aiacademy131
@aiacademy131 Жыл бұрын
언어모델교육 전문 브랜드 ExLM, 오픈특가로 공개! "언어모델 실용강의"는 이론부터 실질적인 구현까지, 그리고 최신 언어모델 기술 트렌드에 이르기까지 전반적인 내용을 아우르며, 귀하의 언어모델 활용 능력을 한 단계 업그레이드 시켜줄 것입니다. 이 강의를 통해, 실제 언어모델 문제에 직면했을 때, 효율적으로 해결책을 제시할 수 있는 실력을 키울 수 있게 됩니다. 언어모델의 전문성을 갖춘 탁월한 AI 언어모델 엔지니어로 나아가는 길, '언어모델 실용강의'가 그 첫걸음이 될 것입니다. 자세히 보기: exlm.kr/course-details?id=23
@neverfok
@neverfok Жыл бұрын
항상 감사합니다
@강현철-v6f
@강현철-v6f Жыл бұрын
올리시는 영상들이 모두 설명이 간결하고 너무 좋아요!
@aiacademy131
@aiacademy131 Жыл бұрын
감사합니다~^^
@수성김-s7j
@수성김-s7j Жыл бұрын
내용이 간결하고, 정리가 잘 되어있어서 19분이 5분도 안되는 시간처럼 느껴졌습니다^^ 좋은정보 감사합니다!
@aiacademy131
@aiacademy131 Жыл бұрын
감사합니다^^
@mirae91
@mirae91 Жыл бұрын
좋은 GPT4All 영상 감사합니다
@aiacademy131
@aiacademy131 Жыл бұрын
감사합니다^^
@dev4u-korea
@dev4u-korea Жыл бұрын
좋은 정보 감사합니다
@aiacademy131
@aiacademy131 Жыл бұрын
감사합니다.~^^
@레카-v3k
@레카-v3k Жыл бұрын
오우 감사합니다!!
@aiacademy131
@aiacademy131 Жыл бұрын
감사합니다.~^^
@레카-v3k
@레카-v3k Жыл бұрын
@@aiacademy131 모델 성능 측면에서 Vicuna 모델이 좀 더 좋은 것 같은데! 이것도 시간되시면 설명해주세요 ㅎㅎ
@aiacademy131
@aiacademy131 Жыл бұрын
@@레카-v3k kzbin.info/www/bejne/npKcqoynbNqfjbM 비쿠냐 설명 영상입니다.^^
@kyuwanchoi
@kyuwanchoi Жыл бұрын
요즘 Mosaic Ml이라는 LLM이 성능이 좋은것 같습니다. 이 모델을 이용해서 자신의 문서들을 fine-tuning하는 영상을 만들어 주시면 커다란 도움이 될것 같습니다.
@aiacademy131
@aiacademy131 Жыл бұрын
^^
@sazavytube
@sazavytube Жыл бұрын
훈련 하는 방법도 영상으로 만드실건가요.
@aiacademy131
@aiacademy131 Жыл бұрын
훈련 하는 방법도 영상 제작 고려중에 있습니다. ^^
@롤리롤리팝-v1r
@롤리롤리팝-v1r Жыл бұрын
@@aiacademy131 기대하겠습니다!!
@연준명-h4n
@연준명-h4n Жыл бұрын
꼭 부탁드립니다😢
@구슬생각
@구슬생각 Жыл бұрын
기대하겠습니다. 고맙습니다.😊
@Bohemian5380
@Bohemian5380 Жыл бұрын
머지않아 핸드폰에 개인용 인공지능이 탑재될듯 하네요~ 강화학습을 개인이 할 수 있는 시대~~ 예상해 봅니다. ㅎ~
@aiacademy131
@aiacademy131 Жыл бұрын
거대언어모델 경량화 기술이 빠르게 발전하고 있어서 말씀하신것처럼 멀지 않은 시점에 핸드폰에도 설치 되는 성능좋은 언어모델 기술이 나올듯하네요. ^^
@Bohemian5380
@Bohemian5380 Жыл бұрын
@@aiacademy131 어느 유튜브 영상에서 봤는데 0.7테라 정도 필요하다고 하더군요. 당장은 디지털 정보만 해석하지만 기술적 도약이 거듭되면 아날로그 정보 즉, 핸드폰이나 단말기를 통해 보고 듣는 능력까지 갖출것으로 예견됩니다. 물론 당장은 어렵겠지만... ^ ^
@fgd3476
@fgd3476 Жыл бұрын
생각보다 빠르게 다가올지도 모르겠다는 생각이 드네요
@Bohemian5380
@Bohemian5380 Жыл бұрын
@@fgd3476 이어령 교수님의 디지로그 시대가 새삼 너무 와닿는 시점 같습니다. ^ ^
@namedmaster1842
@namedmaster1842 Жыл бұрын
좋은 영상 감사합니다. 00:33 에 이 정도 비용 들여서 학습시켰다고 하셨는데 on demand 방식으로 돌리는 거 어디서 하는 건가요? 서비스 사이트 혹시 알려주실 수 있나요? 03:49 이렇게 학습시키는 데이타는 형식이 정해져 있나요? 학습시키는 데이타 형식에 대해서 알 수 있는 곳이 있으면 알려주실 수 있으신가요?
@aiacademy131
@aiacademy131 Жыл бұрын
다양한 온디멘트 클라우드 GPU 서비스가 있는데요. 아래 참고하세요. www.runpod.io/ vast.ai/ 학습시키기 위한 데이터세트는 아래의 포멧을 참고하세요. github.com/nomic-ai/gpt4all/blob/main/eval_data/user_oriented_instructions.jsonl 최종 합습용 데이터는 아래 코드를 참고하셔야해요~ github.com/nomic-ai/gpt4all/blob/main/data.py
@namedmaster1842
@namedmaster1842 Жыл бұрын
@@aiacademy131 감사합니다
@뿌뿌뿌뿌우
@뿌뿌뿌뿌우 Жыл бұрын
@@aiacademy131 안녕하세요 좋은 영상 감사합니다. 위 링크 들어가보니 찾을 수 없다고 나오는데 다시 알려주실 수 있으실까요?
@hashmarjr
@hashmarjr Жыл бұрын
요즘 영상 너무 잘보고있습니다 감사합니다!!! GPT4 api는 max tokens이 32k까지 가능하다고 하는데 오픈소스 모델로도 그런 모델을 만들 수 있을까요?
@aiacademy131
@aiacademy131 Жыл бұрын
토큰 입력 길이가 길어지면 모델의 사이즈가 커질텐데요. 적정 수준(사용 가능한 GPU 용량) 에서 오픈소스 모델도 가능합니다.
@jay_jang5604
@jay_jang5604 Жыл бұрын
내용 감사합니다!! 한가지 궁금한점이 생겼는데 Fine Tuning의 경우에는 A100 하나 기준 epoch당 대략 1시간이 걸린다고 들었습니다. 같은 경우 추론시 내장 GPU가 어느정도 되어야 하는지 알 수 있을까요? A100 하나정도면 추론에 40초정도가 걸리는게 맞을까요?
@aiacademy131
@aiacademy131 Жыл бұрын
모델의 크기, 학습하려는 데이터의 크기 등에 따라서 케바케입니다. ^^
@생강차生薑茶
@생강차生薑茶 Жыл бұрын
상업적으로 사용할 때 법적인 문제는 없을까요?
@aiacademy131
@aiacademy131 Жыл бұрын
현재는 비상업적 그리고 아카데믹한 용도로 허용되어있어요~
@생강차生薑茶
@생강차生薑茶 Жыл бұрын
@@aiacademy131 답변 감사합니다!
@SW-vc9jm
@SW-vc9jm Жыл бұрын
LLama 소스 코드는 어디서 볼 수 있나요? 들어가보니까 공식form을 작성해서 승인되면 가중치를 받는 것 같던데...ㅜ
@aiacademy131
@aiacademy131 Жыл бұрын
아래 영상 참고하시고요~ 더보기 누르면 관련 링크도 달려있어요~ kzbin.info/www/bejne/oKe8oalvi691haM
@sonagibinuwa7159
@sonagibinuwa7159 Жыл бұрын
특정 분야에 특화된 챗봇을 만들려면 어떻게 하면 되나요? 예를 들면, chatgpt에게 작성시켜도 되지만, 아주 가치있는 자기소개서를 생성하기 위해 전문가에게 검증받은 자기소개서만 데이터를 바탕으로 작성한 자기소개서를 생성하도록 할 수 있나요? 그런 데이터가 있다고 가정한다면 어떤 방식으로 할 수 있을까요?
@aiacademy131
@aiacademy131 Жыл бұрын
오픈소스 언어모델을 가져와서 특정 문야 관련 데이터로 파인튜닝(추가학습)을 진행하는 방식이 될것같아요. 다만, 라마등 해외에서 공개한 오픈소스 언어모델의 경우 한국어 데이터를 충분히 학습하지 않은듯하여 성능은 아직은 ChatGPT에 비해서 아쉬운게 사실이네요. 다만, 글로벌하게 다양한 언어모델들이 공개되고 있고 엔지니어들이 편하게 사용할 수 있도록 프레임워크들을 공개하고 있어서 빠른 시일내로 변화가 예상되긴합니다. ^^
😎(자막추가)_알파카 Alpaca 코드리뷰 feat, LLaMa + GPT3.5😎
28:27
한국인공지능아카데미
Рет қаралды 8 М.
The 6 Best LLM Tools To Run Models Locally
14:24
Stream Developers
Рет қаралды 2,2 М.
99.9% IMPOSSIBLE
00:24
STORROR
Рет қаралды 31 МЛН
小丑教训坏蛋 #小丑 #天使 #shorts
00:49
好人小丑
Рет қаралды 54 МЛН
IL'HAN - Qalqam | Official Music Video
03:17
Ilhan Ihsanov
Рет қаралды 700 М.
ChatGPT보다 성능이 더 뛰어나다? _  메타의 언어모델, LLaMA 라마 코드분석
27:06
ChatGPT 대체 오픈소스 3가지 - KoAlpaca, Vicuna, GPT4All
10:53
빵형의 개발도상국
Рет қаралды 17 М.
Transformers (how LLMs work) explained visually | DL5
27:14
3Blue1Brown
Рет қаралды 4,2 МЛН
알파카(Alpaca) - ChatGPT를 PC에서 돌리는 기술
8:33
믹스의 인공지능
Рет қаралды 11 М.