Cấu hình gì em, cấu hình máy để live hay cấu hình máy để host model
@dantranhung103422 күн бұрын
@@DuTrendGenerativeAI model ạ. e thấy a chạy localhost
@DuTrendGenerativeAI22 күн бұрын
@@dantranhung1034 À, anh dùng Ollama để host model llama2 7B. LLaMA 2 7B có dung lượng checkpoint khoảng 3-4GB và cần khoảng 8-10GB RAM khi chạy inference. Anh dùng MacBook M3 Pro với 16GB RAM, nên có thể chạy mô hình kia ở chế độ tối ưu.
@TuanHuy_18 күн бұрын
khi nào anh mới live stream nữa vậy a
@DuTrendGenerativeAI18 күн бұрын
21h thứ 7 hàng tuần nha em
@_angThanhLoc17 күн бұрын
Có con AI hoặc model nào mình đưa vào 1 bức ảnh về thời trang xong nó detect ra thông tin , xong đi gợi ý ra 1 outfix phù hợp không bạn ?