강의 감사히 보고 있습니다. 영상 9:39 에 api_key가 노출 되어 있습니다. 이미 처리 하셨겠지만 걱정이 되어 남깁니다.
@AI-km1yn Жыл бұрын
네 말씀주신것처럼 이미 삭제한 키입니다. 걱정해주셔서 감사합니다🙏
@JordanKim-b7s10 ай бұрын
너무 섹시해요...
@mmetm812 Жыл бұрын
안녕하세요 랭체인 과정 잘 듣고있습니다 ㅎㅎ 강의를 듣고 문서나 텍스트집을 요약하는 기능을 랭체인으로 만들어보고 싶은데 RAG는 질문과 유사한 텍스트를 가쟈와 답변을 하는 거라 요약으로 보긴 어려울 거 같아요 혹시 다른 방법 있을까요?
@AI-km1yn Жыл бұрын
load_summarize_chain이라는 요약 전용 체인이 있습니다. 아래 링크 확인해보시면 도움 될 것 같습니다. python.langchain.com/docs/use_cases/summarization
@minnhohoho Жыл бұрын
이번 강의 colab 코드 공유 요청드리고 싶습니다
@AI-km1yn Жыл бұрын
커뮤니티에 올려두었습니다!
@nbright3700 Жыл бұрын
좀 더 잘 알게 되어서 감사합니다. 근데 저는 한글 임베딩 모델에서 똑같이 했지만. 여전히 유사도가 제대로 안나옵니다. 질문: 홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까? ---------------------------------------------------------------------------------------------------- 홍길동의 아버지는 엄했습니다. 문장유사도: 0.81 제 이름은 홍길동입니다. 문장유사도 0.54 랭체인은 유용합니다. 문장유사도 0.23 홍길동 아버지의 이름은 홍상직입니다. 문장유사도 0.61 ===================================아래 코드================================= 코드가 틀렸는지 다시 한번 해봐야 할 것 같습니다. sentences=[ "안녕하세요", "제 이름은 홍길동입니다.", "이름이 무엇인가요?", "랭체인은 유용합니다.", "홍길동 아버지의 이름은 홍상직입니다." ] ko_embeddings = ko.embed_documents(sentences) q ="홍길동은 아버지를 아버지라 부르지 못하였습니다. 홍길동 아버지의 이름은 무엇입니까?" a = "홍길동의 아버지는 엄했습니다." ko_query_q = ko.embed_query(q) ko_query_a = ko.embed_query(a) print("질문: {} ".format(q),"-"*100) print("{} \t\t 문장유사도: ".format(a), round(cos_sim(ko_query_q, ko_query_a),2)) print("{}\t\t\t 문장유사도".format(sentences[1]), round( cos_sim(ko_query_q, ko_embeddings[1]),2)) print("{}\t\t\t 문장유사도".format(sentences[3]), round( cos_sim(ko_query_q, ko_embeddings[3]),2)) print("{}\t 문장유사도".format(sentences[4]), round( cos_sim(ko_query_q, ko_embeddings[4]),2))
@jeongjunahn4555 Жыл бұрын
다른 임베딩 모델 사용하신거 아닌가요?
@brownd3397 Жыл бұрын
영상에서도 잘 나와있듯이 HuggingFaceBgeEmbeddings가 아니라 HuggingFaceEmbeddings로 embedding model을 가지고 오셔야 합니다. 저도 동일한 문제가 있었는데, 이렇게 해야 제대로 동작하네요 :)