Artwork

Vladimir에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Vladimir 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

BM126: RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?

58:49
 
공유
 

Manage episode 434141076 series 1407887
Vladimir에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Vladimir 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?
Problem: Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi.
Przyczyny:
-- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi.
- Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania.
- Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych.
Skutki:
- Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności.
- Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje.
- Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania.
🕒 Kluczowe momenty:
0:00 Wprowadzenie: RAG w LLM-ach
3:48 Generowanie trafnych odpowiedzi przez LLM-y
13:43 Odpowiedzialność za dane wejściowe
20:44 Problemy z mechanicznym podziałem tekstu
26:20 Osadzenie wektorowe i podobieństwo semantyczne
37:51 Alternatywne podejście do RAG
45:30 Ostrzeżenie przed nadmiernym komplikowaniem AI
53:00 Podsumowanie i alternatywne podejście
🧠 Dowiesz się:
- Dlaczego klasyczne podejście do RAG często zawodzi
- Jak LLM-y interpretują dostarczony kontekst
- Jakie są pułapki przy implementacji RAG
- Co to jest "mapa wiedzy" i jak może zrewolucjonizować AI
Rozwiązanie:
Należy odejść od mechanicznego podejścia do RAG i skupić się na:
Głębokim zrozumieniu problemu biznesowego: Zdefiniowanie, co chcemy osiągnąć i jakie informacje są potrzebne do rozwiązania danego problemu.
Manualnym zaprojektowaniu struktury danych: Ustalenie, w jaki sposób przechowywać dane, aby zachować ich sens i kontekst.
Użyciu embeddingu jako narzędzia pomocniczego: Embedding powinien wspierać, a nie zastępować klasyczne metody wyszukiwania.
Skoncentrowaniu się na jakości i aktualności danych: Zapewnienie, że dane są wiarygodne, aktualne i odpowiednio zabezpieczone.
Korzyści:
- Zwiększenie dokładności i spójności odpowiedzi.
- Poprawa transparentności i audytowalności.
- Obniżenie kosztów implementacji i utrzymania.
- Spełnienie wymogów prawnych (GDPR, EU AI Act).
Zamiast ślepo podążać za modnymi rozwiązaniami, należy skupić się na fundamentach - jakości danych, strukturze i zrozumieniu problemu biznesowego. Tylko takie podejście pozwoli wykorzystać pełen potencjał RAG i zbudować systemy oparte na LLM, które będą nie tylko efektowne, ale przede wszystkim efektywne.
Jeśli interesujesz się przyszłością AI i jej praktycznym zastosowaniem w biznesie, ten odcinek jest obowiązkowy!
👍 Polub ten odcinek i podziel się przynajmniej z jedną osobą (poleć, warto).
🔗 Linki:
https://biznesmysli.pl/rag-w-llm-dlaczego-popularne-rozwiazania-to-droga-donikad/
Obserwuj mi na LinkedIn (wysyłaj też śmiało zaproszenie):
https://www.linkedin.com/in/vladimiralekseichenko/
📢 Podziel się tym odcinkiem z kolegami i znajomymi zainteresowanymi AI i machine learning!
Przydatne publikacji:
- https://arxiv.org/pdf/2005.11401
- https://arxiv.org/pdf/2407.01219
- https://arxiv.org/pdf/2406.04369
- https://arxiv.org/pdf/2305.14283
- https://arxiv.org/pdf/2007.01282
Tagi:
#ai #machinelearning #datascience #nlp #rag #llm #search #bestpractice
  continue reading

226 에피소드

Artwork
icon공유
 
Manage episode 434141076 series 1407887
Vladimir에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Vladimir 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
RAG w LLM: Dlaczego popularne rozwiązania to droga donikąd?
Problem: Tradycyjne podejście do RAG (Retrieval-Augmented Generation) w dużych modelach językowych (LLM), choć obiecujące w teorii, często zawodzi w praktyce. Sztuczne dzielenie danych na fragmenty (chunki) prowadzi do utraty kontekstu i generowania niespójnych, a nawet błędnych odpowiedzi.
Przyczyny:
-- Mechaniczne dzielenie tekstu: Tradycyjne metody dzielą dane na chunki na podstawie liczby znaków, ignorując semantykę i kontekst. To prowadzi do utraty sensu i generowania chaotycznych odpowiedzi.
- Nadmierne poleganie na embeddingu: Choć embedding jest potężnym narzędziem, nie jest rozwiązaniem idealnym. Nadmierne poleganie na nim prowadzi do wybierania fragmentów tekstu podobnych semantycznie, ale niekoniecznie istotnych dla danego zapytania.
- Zaniedbanie jakości danych i struktury: Skupienie się na zaawansowanych algorytmach i bazach wektorowych odciąga uwagę od kluczowej kwestii - jakości i struktury danych.
Skutki:
- Niska dokładność i spójność odpowiedzi: Modele LLM generują różne odpowiedzi na to samo pytanie, a użytkownicy nie mają pewności co do ich poprawności.
- Brak transparentności i audytowalności: Trudno jest prześledzić proces generowania odpowiedzi i zweryfikować, skąd pochodzą konkretne informacje.
- Wysokie koszty implementacji i utrzymania: Zastosowanie złożonych architektur i modeli zwiększa koszty, a problemy z jakością danych prowadzą do ciągłych poprawek i reindeksowania.
🕒 Kluczowe momenty:
0:00 Wprowadzenie: RAG w LLM-ach
3:48 Generowanie trafnych odpowiedzi przez LLM-y
13:43 Odpowiedzialność za dane wejściowe
20:44 Problemy z mechanicznym podziałem tekstu
26:20 Osadzenie wektorowe i podobieństwo semantyczne
37:51 Alternatywne podejście do RAG
45:30 Ostrzeżenie przed nadmiernym komplikowaniem AI
53:00 Podsumowanie i alternatywne podejście
🧠 Dowiesz się:
- Dlaczego klasyczne podejście do RAG często zawodzi
- Jak LLM-y interpretują dostarczony kontekst
- Jakie są pułapki przy implementacji RAG
- Co to jest "mapa wiedzy" i jak może zrewolucjonizować AI
Rozwiązanie:
Należy odejść od mechanicznego podejścia do RAG i skupić się na:
Głębokim zrozumieniu problemu biznesowego: Zdefiniowanie, co chcemy osiągnąć i jakie informacje są potrzebne do rozwiązania danego problemu.
Manualnym zaprojektowaniu struktury danych: Ustalenie, w jaki sposób przechowywać dane, aby zachować ich sens i kontekst.
Użyciu embeddingu jako narzędzia pomocniczego: Embedding powinien wspierać, a nie zastępować klasyczne metody wyszukiwania.
Skoncentrowaniu się na jakości i aktualności danych: Zapewnienie, że dane są wiarygodne, aktualne i odpowiednio zabezpieczone.
Korzyści:
- Zwiększenie dokładności i spójności odpowiedzi.
- Poprawa transparentności i audytowalności.
- Obniżenie kosztów implementacji i utrzymania.
- Spełnienie wymogów prawnych (GDPR, EU AI Act).
Zamiast ślepo podążać za modnymi rozwiązaniami, należy skupić się na fundamentach - jakości danych, strukturze i zrozumieniu problemu biznesowego. Tylko takie podejście pozwoli wykorzystać pełen potencjał RAG i zbudować systemy oparte na LLM, które będą nie tylko efektowne, ale przede wszystkim efektywne.
Jeśli interesujesz się przyszłością AI i jej praktycznym zastosowaniem w biznesie, ten odcinek jest obowiązkowy!
👍 Polub ten odcinek i podziel się przynajmniej z jedną osobą (poleć, warto).
🔗 Linki:
https://biznesmysli.pl/rag-w-llm-dlaczego-popularne-rozwiazania-to-droga-donikad/
Obserwuj mi na LinkedIn (wysyłaj też śmiało zaproszenie):
https://www.linkedin.com/in/vladimiralekseichenko/
📢 Podziel się tym odcinkiem z kolegami i znajomymi zainteresowanymi AI i machine learning!
Przydatne publikacji:
- https://arxiv.org/pdf/2005.11401
- https://arxiv.org/pdf/2407.01219
- https://arxiv.org/pdf/2406.04369
- https://arxiv.org/pdf/2305.14283
- https://arxiv.org/pdf/2007.01282
Tagi:
#ai #machinelearning #datascience #nlp #rag #llm #search #bestpractice
  continue reading

226 에피소드

모든 에피소드

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드