TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

People love us!

User reviews

"오프라인 기능 너무 좋아요."
"이것은 팟캐스트 구독을 관리 할 "좋은" 방법입니다. 새로운 팟캐스트를 발견하는 좋은 방법이기도 합니다."

Ensuring LLM Safety for Production Applications with Shreya Rajpal - #647

40:52
 
공유
 

Manage episode 377294493 series 2355587
TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

Today we’re joined by Shreya Rajpal, founder and CEO of Guardrails AI. In our conversation with Shreya, we discuss ensuring the safety and reliability of language models for production applications. We explore the risks and challenges associated with these models, including different types of hallucinations and other LLM failure modes. We also talk about the susceptibility of the popular retrieval augmented generation (RAG) technique to closed-domain hallucination, and how this challenge can be addressed. We also cover the need for robust evaluation metrics and tooling for building with large language models. Lastly, we explore Guardrails, an open-source project that provides a catalog of validators that run on top of language models to enforce correctness and reliability efficiently.

The complete show notes for this episode can be found at twimlai.com/go/647.

  continue reading

677 에피소드

icon공유
 
Manage episode 377294493 series 2355587
TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

Today we’re joined by Shreya Rajpal, founder and CEO of Guardrails AI. In our conversation with Shreya, we discuss ensuring the safety and reliability of language models for production applications. We explore the risks and challenges associated with these models, including different types of hallucinations and other LLM failure modes. We also talk about the susceptibility of the popular retrieval augmented generation (RAG) technique to closed-domain hallucination, and how this challenge can be addressed. We also cover the need for robust evaluation metrics and tooling for building with large language models. Lastly, we explore Guardrails, an open-source project that provides a catalog of validators that run on top of language models to enforce correctness and reliability efficiently.

The complete show notes for this episode can be found at twimlai.com/go/647.

  continue reading

677 에피소드

सभी एपिसोड

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

빠른 참조 가이드