Artwork

Keith Bourne द्वारा प्रदान की गई सामग्री. एपिसोड, ग्राफिक्स और पॉडकास्ट विवरण सहित सभी पॉडकास्ट सामग्री Keith Bourne या उनके पॉडकास्ट प्लेटफ़ॉर्म पार्टनर द्वारा सीधे अपलोड और प्रदान की जाती है। यदि आपको लगता है कि कोई आपकी अनुमति के बिना आपके कॉपीराइट किए गए कार्य का उपयोग कर रहा है, तो आप यहां बताई गई प्रक्रिया का पालन कर सकते हैं https://hi.player.fm/legal
Player FM - पॉडकास्ट ऐप
Player FM ऐप के साथ ऑफ़लाइन जाएं!

Key RAG Components in LangChain (Chapter 10)

18:18
 
साझा करें
 

Manage episode 523867878 series 3705596
Keith Bourne द्वारा प्रदान की गई सामग्री. एपिसोड, ग्राफिक्स और पॉडकास्ट विवरण सहित सभी पॉडकास्ट सामग्री Keith Bourne या उनके पॉडकास्ट प्लेटफ़ॉर्म पार्टनर द्वारा सीधे अपलोड और प्रदान की जाती है। यदि आपको लगता है कि कोई आपकी अनुमति के बिना आपके कॉपीराइट किए गए कार्य का उपयोग कर रहा है, तो आप यहां बताई गई प्रक्रिया का पालन कर सकते हैं https://hi.player.fm/legal

Unlock the inner workings of Retrieval-Augmented Generation (RAG) pipelines using LangChain in this episode of Memriq Inference Digest - Engineering Edition. We bring insights directly from Keith Bourne, author of 'Unlocking Data with Generative AI and RAG,' as we explore modular vector stores, retrievers, and LLM integrations critical for building scalable, flexible AI systems.

In this episode:

- Explore LangChain’s modular architecture for building RAG pipelines

- Compare popular vector stores: Chroma, FAISS, Weaviate, and Pinecone

- Understand retriever strategies: BM25, dense, and ensemble approaches

- Dive into LLM integrations like OpenAI’s ChatOpenAI and Together AI’s ChatTogether

- Discuss engineering trade-offs, GPU acceleration, and production considerations

- Highlight real-world use cases and challenges in scaling retrieval

Key tools and technologies mentioned:

- LangChain framework

- Vector stores: Chroma, FAISS, Weaviate, Pinecone

- Retrievers: BM25, Dense, Ensemble Retriever

- LLMs: OpenAI ChatOpenAI, Together AI ChatTogether

- FAISS GPU acceleration

Timestamps:

00:00 - Introduction & episode overview

02:15 - LangChain modularity and design philosophy

05:30 - Vector store comparisons and scale trade-offs

09:00 - Retriever types and ensemble approaches

12:30 - Under the hood: pipeline walkthrough

15:00 - Performance metrics and latency improvements

17:00 - Real-world applications and challenges

19:00 - Final thoughts and book spotlight

Resources:

- "Unlocking Data with Generative AI and RAG" by Keith Bourne - Search for 'Keith Bourne' on Amazon and grab the 2nd edition

- Visit Memriq.ai for AI infrastructure deep dives, practical guides, and research breakdowns

Thanks for tuning in to Memriq Inference Digest - Engineering Edition. Stay curious and keep building!

  continue reading

22 एपिसोडस

Artwork
iconसाझा करें
 
Manage episode 523867878 series 3705596
Keith Bourne द्वारा प्रदान की गई सामग्री. एपिसोड, ग्राफिक्स और पॉडकास्ट विवरण सहित सभी पॉडकास्ट सामग्री Keith Bourne या उनके पॉडकास्ट प्लेटफ़ॉर्म पार्टनर द्वारा सीधे अपलोड और प्रदान की जाती है। यदि आपको लगता है कि कोई आपकी अनुमति के बिना आपके कॉपीराइट किए गए कार्य का उपयोग कर रहा है, तो आप यहां बताई गई प्रक्रिया का पालन कर सकते हैं https://hi.player.fm/legal

Unlock the inner workings of Retrieval-Augmented Generation (RAG) pipelines using LangChain in this episode of Memriq Inference Digest - Engineering Edition. We bring insights directly from Keith Bourne, author of 'Unlocking Data with Generative AI and RAG,' as we explore modular vector stores, retrievers, and LLM integrations critical for building scalable, flexible AI systems.

In this episode:

- Explore LangChain’s modular architecture for building RAG pipelines

- Compare popular vector stores: Chroma, FAISS, Weaviate, and Pinecone

- Understand retriever strategies: BM25, dense, and ensemble approaches

- Dive into LLM integrations like OpenAI’s ChatOpenAI and Together AI’s ChatTogether

- Discuss engineering trade-offs, GPU acceleration, and production considerations

- Highlight real-world use cases and challenges in scaling retrieval

Key tools and technologies mentioned:

- LangChain framework

- Vector stores: Chroma, FAISS, Weaviate, Pinecone

- Retrievers: BM25, Dense, Ensemble Retriever

- LLMs: OpenAI ChatOpenAI, Together AI ChatTogether

- FAISS GPU acceleration

Timestamps:

00:00 - Introduction & episode overview

02:15 - LangChain modularity and design philosophy

05:30 - Vector store comparisons and scale trade-offs

09:00 - Retriever types and ensemble approaches

12:30 - Under the hood: pipeline walkthrough

15:00 - Performance metrics and latency improvements

17:00 - Real-world applications and challenges

19:00 - Final thoughts and book spotlight

Resources:

- "Unlocking Data with Generative AI and RAG" by Keith Bourne - Search for 'Keith Bourne' on Amazon and grab the 2nd edition

- Visit Memriq.ai for AI infrastructure deep dives, practical guides, and research breakdowns

Thanks for tuning in to Memriq Inference Digest - Engineering Edition. Stay curious and keep building!

  continue reading

22 एपिसोडस

सभी एपिसोड

×
 
Loading …

प्लेयर एफएम में आपका स्वागत है!

प्लेयर एफएम वेब को स्कैन कर रहा है उच्च गुणवत्ता वाले पॉडकास्ट आप के आनंद लेंने के लिए अभी। यह सबसे अच्छा पॉडकास्ट एप्प है और यह Android, iPhone और वेब पर काम करता है। उपकरणों में सदस्यता को सिंक करने के लिए साइनअप करें।

 

त्वरित संदर्भ मार्गदर्शिका

अन्वेषण करते समय इस शो को सुनें
प्ले