Create table question answering with Gen AI LLMs

  Рет қаралды 1,259

Super Lazy Coder

Super Lazy Coder

Күн бұрын

Пікірлер: 6
@laurenttran8288
@laurenttran8288 7 ай бұрын
Great video. But, what can we do when our data is much larger than in the video example ? Is there any alternative way to increase the number of tokens per query?
@superlazycoder1984
@superlazycoder1984 7 ай бұрын
Hi Lauren maybe you can try some the large model for Google tapas or Microsoft tapex. I can see large models seem to have higher model_max_length
@superlazycoder1984
@superlazycoder1984 7 ай бұрын
You can also try chunking your table data and then feed it to model
@laurenttran8288
@laurenttran8288 7 ай бұрын
@@superlazycoder1984 Yeah but it might lose some precision into the prediction no?
@superlazycoder1984
@superlazycoder1984 6 ай бұрын
Chunking might not lose precision and also using larger models
@curtdrake8088
@curtdrake8088 7 ай бұрын
*Promosm*
The most important AI trends in 2024
9:35
IBM Technology
Рет қаралды 258 М.
СОБАКА ВЕРНУЛА ТАБАЛАПКИ😱#shorts
00:25
INNA SERG
Рет қаралды 3,9 МЛН
ТЮРЕМЩИК В БОКСЕ! #shorts
00:58
HARD_MMA
Рет қаралды 2,3 МЛН
【大模型微调】- 使用Llama Factory实现中文llama3指令微调
35:28
What is Agentic RAG?
5:42
IBM Technology
Рет қаралды 25 М.
What is LangChain?
8:08
IBM Technology
Рет қаралды 247 М.
RAG Explained
8:03
IBM Technology
Рет қаралды 112 М.
How to Create a Hugging Face Space: A Beginner's Guide
16:49
Data Scientist vs. AI Engineer
10:39
IBM Technology
Рет қаралды 195 М.
СОБАКА ВЕРНУЛА ТАБАЛАПКИ😱#shorts
00:25
INNA SERG
Рет қаралды 3,9 МЛН