Player FM - Internet Radio Done Right
13 subscribers
Checked 2d ago
추가했습니다 four 년 전
Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!
Player FM 앱으로 오프라인으로 전환하세요!
들어볼 가치가 있는 팟캐스트
스폰서 후원
<
<div class="span index">1</div> <span><a class="" data-remote="true" data-type="html" href="/series/good-moms-bad-choices-2913243">Good Moms Bad Choices</a></span>


If Oprah and Howard Stern had a baby it would be Good Moms Bad Choices. Meet Erica and Milah, two uncensored sex and cannabis-positive parents who are redefining what modern motherhood looks like. Warning, this is not your everyday mommy Podcast! This audio diary is not only for parents but women who feel alone in their good and bad choices. Prepare to laugh, cry, and be inspired. Fellas, you’re invited too! New episodes drop every Wednesday. Welcome to the Tribe! Instagram: @goodmoms_badchoices Watch our episodes on Youtube For bonus content ---> www.patreon.com/goodmomsbadchoices
Knowledge Science - Alles über KI, ML und NLP
모두 재생(하지 않음)으로 표시
Manage series 2911119
Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
235 에피소드
모두 재생(하지 않음)으로 표시
Manage series 2911119
Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Sigurd Schacht, Carsten Lanquillon, Sigurd Schacht, and Carsten Lanquillon 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Knowledge Science - Der Podcast über Künstliche Intelligenz im Allgemeinen und Natural Language Processing im Speziellen. Mittels KI Wissen entdecken, aufbereiten und nutzbar machen, dass ist die Idee hinter Knowledge Science. Durch Entmystifizierung der Künstlichen Intelligenz und vielen praktischen Interviews machen wir dieses Thema wöchentlich greifbar.
…
continue reading
235 에피소드
모든 에피소드
×
1 Episode 205 - KI-Modelle unter Beobachtung: Verändern Evaluierungen das Verhalten? 31:09
31:09
나중에 재생
나중에 재생
리스트
좋아요
좋아요31:09
Send us a text In dieser Folge von Knowledge Science diskutieren Sigurd Schacht und Carsten Lanquillon, warum KI-Modelle möglicherweise "wissen", wenn sie evaluiert werden – und was das für die Praxis bedeutet. Anhand eines provokanten Papers („Large Language Models Often Know When They’re Being Evaluated“) hinterfragen sie, ob Modelle tatsächlich bewusst reagieren oder nur Muster erkennen. Mit kritischen Einordnungen zur Evaluierungspraxis, einem Blick auf den Hawthorne-Effekt bei Mensch und Maschine und der Frage: Wie misst man KI-Leistung wirklich? Für alle, die verstehen wollen, wie Evaluierung KI-Entscheidungen prägt – und warum Titel mancher Papers täuschen können. Support the show…

1 Episode 204 - Claude Opus/Sonnet 4 zwischen Innovation und Ethik" 44:12
44:12
나중에 재생
나중에 재생
리스트
좋아요
좋아요44:12
Send us a text Sigurd Schacht und Carsten Lanquillon tauchen tief in die Welt der neuesten KI-Modelle von Anthropic ein – Claude Opus 4 und Sonnet 4. Wie verändern diese Tools die Softwareentwicklung? Warum könnte autonomes Coding unsere Arbeitsweise revolutionieren? Und welche ethischen Fallstricke bergen hochalignierte KI-Systeme? Praxisnahe Einblicke, überraschende Whistleblower-Fälle und die brisante Debatte um KI-Sicherheit in einer Episode, die Entwickler:innen und Tech-Enthusiast:innen gleichermaßen fesselt. Support the show…

1 Episode 203 - TINA Reasoning: Kleine Modelle, große Wirkung mit LoRA 29:23
29:23
나중에 재생
나중에 재생
리스트
좋아요
좋아요29:23
Send us a text In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der Reasoning-Modelle ein. Wie können wir KI effizienter und kostengünstiger trainieren, ohne Leistung einzubüßen? Mit dem Paper TINA (Tiny Reasoning Models via LoRA) zeigen sie, wie schon 9 Dollar und LoRA-Technologie kleine Modelle auf ein gutes Niveau heben. Ein Blick auf Open Science, KI-Agenten und die Zukunft des Schlussfolgerns – praxisnah entmystifiziert. Tina: Tiny Reasoning Models via LORA: https://arxiv.org/abs/2504.15777 Support the show…

1 Episode 202 - KI im Schlafmodus: Wie Sleep-Time-Compute Sprachmodelle effizienter macht 30:53
30:53
나중에 재생
나중에 재생
리스트
좋아요
좋아요30:53
Send us a text In dieser Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon in die Welt der KI-Optimierung ein: Wie können Leerlaufzeiten genutzt werden, um Sprachmodelle effizienter zu machen? Mit einem Blick auf das Paper Sleep-Time-Compute der UC Berkeley diskutieren sie, wie Vorverarbeitung und Caching Latenzen reduzieren, Kosten sparen und sogar bessere Ergebnisse liefern. Sleep time Compute: https://arxiv.org/abs/2504.13171 Support the show…

1 Episode 201 - KI-Gehirnwäsche? Wie man Sprachmodelle umprogrammiert – Ethik vs. Innovation 40:38
40:38
나중에 재생
나중에 재생
리스트
좋아요
좋아요40:38
Send us a text In dieser Folge von Knowledge Science enthüllen Sigurd Schacht und Carsten Lanquillon, wie synthetisches Document Feintuning die „Überzeugungen“ von KI-Modellen verändert. Vom Löschen schädlichen Wissens bis zur Manipulation von Fakten diskutieren sie Chancen, technische Fallstricke und die brisante Frage: Darf man KI umerziehen, und wenn ja, wer kontrolliert es? Ein Must-Listen für alle, die verstehen wollen, wie flexibel – und fragil – moderne KI wirklich ist. Basis dieser Diskussion ist der spannende Blogbeitrag von: https://alignment.anthropic.com/2025/modifying-beliefs-via-sdf/ Bitte beachten Sie auch unseren KI generierten Podcast der Montag bis Freitag in 5 minuten neue KI Meldungen zusammenfasst: Spotify: https://open.spotify.com/show/539yw3KWHsf5oke4a2PBOZ Apple: https://podcasts.apple.com/de/podcast/knowledge-science-pulse/id1810890448 Support the show…

1 KI generiert (D): KS Pulse - AI Alignment and Complex Problem Solving 4:01
4:01
나중에 재생
나중에 재생
리스트
좋아요
좋아요4:01
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…

1 AI Generated (E): KS Pulse - AI Alignment and Complex Problem Solving 3:39
3:39
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:39
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. PlanGEN: A Multi-Agent Framework for Generating Planning and Reasoning Trajectories for Complex Problem Solving - https://arxiv.org/pdf/2502.16111 Emergent Misalignment: Narrow finetuning can produce broadly misaligned LLMs - https://arxiv.org/pdf/2502.17424 Support the show…

1 KI generiert (D): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:40
3:40
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:40
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…

1 AI Generated (E): KS Pulse - Long Chain-of-Thought and the Need for AI Safety in Complex Reasoning 3:13
3:13
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:13
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Safety is Essential for Responsible Open-Ended Systems - https://arxiv.org/pdf/2502.04512 Can Large Language Models Detect Errors in Long Chain-of-Thought Reasoning?- https://arxiv.org/pdf/2502.19361 Support the show…

1 KI generiert (D): KS Pulse - Automatic Prompt Optimization via Heuristic Search 4:30
4:30
나중에 재생
나중에 재생
리스트
좋아요
좋아요4:30
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Automatic Prompt Optimization via Heuristic Search: A Survey - https://arxiv.org/pdf/2502.18746 Support the show…

1 AI Generated (E): KS Pulse - Automatic Prompt Optimization via Heuristic Search 4:14
4:14
나중에 재생
나중에 재생
리스트
좋아요
좋아요4:14
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Automatic Prompt Optimization via Heuristic Search: A Survey - https://arxiv.org/pdf/2502.18746 Support the show…

1 KI generiert (D): KS Pulse - Scaling Smarter The Art of Deliberate Practice in AI 3:56
3:56
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:56
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Taxonomy, Opportunities, and Challenges of Representation Engineering for Large Language Models - https://arxiv.org/pdf/2502.19649 Improving the Scaling Laws of Synthetic Data with Deliberate Practice - https://arxiv.org/pdf/2502.15588 Support the show…

1 AI Generated (E): KS Pulse - Scaling Smarter The Art of Deliberate Practice in AI 3:34
3:34
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:34
Send us a text English Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 minutes small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Taxonomy, Opportunities, and Challenges of Representation Engineering for Large Language Models - https://arxiv.org/pdf/2502.19649 Improving the Scaling Laws of Synthetic Data with Deliberate Practice - https://arxiv.org/pdf/2502.15588 Support the show…

1 KI generiert (D): KS Pulse - Math, Minds, and Machines How Small Models Think Deeply 4:11
4:11
나중에 재생
나중에 재생
리스트
좋아요
좋아요4:11
Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers - https://arxiv.org/pdf/2409.04109 rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep Thinking - https://arxiv.org/pdf/2501.04519 Für 14 Tage führen wir das Experiment durch. Support the show…

1 AI Generated (E): KS Pulse - Math, Minds, and Machines How Small Models Think Deeply 3:42
3:42
나중에 재생
나중에 재생
리스트
좋아요
좋아요3:42
Send us a text Englisch Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 min. small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Can LLMs Generate Novel Research Ideas? A Large-Scale Human Study with 100+ NLP Researchers - https://arxiv.org/pdf/2409.04109 rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep Thinking - https://arxiv.org/pdf/2501.04519 Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 185 - Superweights – Kleine Knotenpunkte mit großer Wirkung in Large Language Models 28:02
28:02
나중에 재생
나중에 재생
리스트
좋아요
좋아요28:02
Send us a text In dieser Episode des Knowledge Science Podcasts tauchen Sigurd Schacht und Carsten Lanquillon in die faszinierende Welt der Superweights ein – spezifische massive Gewichte in neuronalen Netzen, die unerwartet entscheidend für die Sprachkompetenz von KI-Modellen sind. Entdecken Sie, wie wenige der Milliarden von Gewichten in einem Modell den Unterschied zwischen intelligenter Konversation und sinnlosem Geplapper ausmachen. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 184 - Notebook LM und können Sprachmodelle lügen? 39:05
39:05
나중에 재생
나중에 재생
리스트
좋아요
좋아요39:05
Send us a text In der neuesten Episode von "Knowledge Science" diskutieren Sigurd und Carsten über die Möglichkeiten von Google's Notebook LM. Erfahren Sie, wie dieses die Interaktion mit wissenschaftlichen Dokumenten revolutioniert, Zusammenarbeiten vereinfacht und dabei sogar als persön Podcast-Generator dient. Tauchen Sie ein in die faszinierende Welt der Wissensauswertung und lassen Sie sich von den Erfahrungsberichten der beiden Hosts inspirieren. Am Ende der Sendung zeigen wir auch ein Beispiel eines von NotebookLM generierten Podcast zu den Forschungsergebnissen eines Researchsprints zum Thema " Können Sprachmodelle lügen aus mechanistischer Sicht" Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

Send us a text In dieser Episode von Knowledge Science gehen Sigurd Schacht und Carsten Lanquillon der Frage auf den Grund, ob KI-Sprachmodelle tatsächlich komplexe Problemlösungen beherrschen oder lediglich schlaue Muster kopieren. Basierend auf einem spannenden Paper von Apple Research, diskutieren sie die Grenzen und Möglichkeiten des mathematischen Schließens in der KI. Ist es mehr als nur auswendig gelerntes Pattern Matching? Ein faszinierendes Gespräch über die Grenzen künstlicher Intelligenz. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

Send us a text In dieser Episode sprechen Carsten und Sigurd darüber wie KI im Lehralltag eingesetzt werden kann. Sie gehen auf das Paper Liu et. al.: Teaching CS50 with AI ein. In dem Sprachmodelle als 1:1 Tutoren verwendet werden.n Support the show
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 181 - Automatisierte Literaturreviews und LLM-Evolution: Von GPT-o1 bis zu den neuen Qwen-Modellen 43:12
43:12
나중에 재생
나중에 재생
리스트
좋아요
좋아요43:12
Send us a text In dieser Episode von Knowledge Science kehren Sigurd Schacht und Carsten Lanquillon aus der Sommerpause zurück und tauchen tief in die neuesten Entwicklungen der KI-Welt ein. Diskutiert werden die neuen O1-Modelle von OpenAI, die mit ihren fortgeschrittenen Reasoning-Fähigkeiten beeindruckend sind, und die beeindruckend transparenten Qwen-Modelle, die vollständig Open Source sind. Außerdem gibt es einen Blick auf vielversprechende KI-gestützte Werkzeuge für die Literaturrecherche und wissenschaftliche Arbeiten. Eine spannende Episode, die KI-Enthusiasten nicht verpassen sollten. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 180 - KI im Alltag: Vom Hype zur Realität – Wie nutzen wir KI in unserem Workflow? 43:25
43:25
나중에 재생
나중에 재생
리스트
좋아요
좋아요43:25
Send us a text In dieser Folge diskutieren Sigurd Schacht und Carsten Lanquillon, wie Künstliche Intelligenz ihren beruflichen Alltag verändert hat. Vom Einsatz modernster Sprachmodelle bis zur Integration in gängige Arbeitsprozesse – die beiden Hosts reflektieren über ihre Erfahrungen, Vorteile und überraschende Erkenntnisse. Bleiben Sie gespannt, wie KI heute tatsächlich genutzt wird und was noch kommen könnte! Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 179 - Apple Intelligence - Optimierung von KI durch kuratierte Daten: Ein Blick auf Apples und DataComp LMs neueste Durchbrüche 32:00
32:00
나중에 재생
나중에 재생
리스트
좋아요
좋아요32:00
Send us a text In dieser Episode von "Knowledge Science" tauchen Sigurd Schacht und Carsten Lanquillon tief in die Welt der Modellquantisierung und Adapterintegration bei Apple ein. Sie sprechen über die Architektur von Apple Intelligence, warum diese Interessant ist und ein revolutionären Ansatz entspricht. Zusätzlich diskutieren sie das revolutionäre DataComp LM Projekt, das auf die Optimierung von Trainingsdaten für KI-Modelle fokussiert ist. Wie können kleine, hochqualitative Datensätze die Leistung großer Sprachmodelle steigern und welche zukünftigen Entwicklungen sind zu erwarten? Antworten und Insights gibt's in dieser spannenden Folge. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 178 - Revolution in der Welt der Sprachmodelle: LAMA 3.1 & Mixture of Agents 32:09
32:09
나중에 재생
나중에 재생
리스트
좋아요
좋아요32:09
Send us a text In dieser Folge unseres Podcasts talken Sigurd Schacht und Carsten Lanquillon über die spannende Veröffentlichung von LAMA 3.1 durch META und den neuen Ansatz, leistungsstarke Sprachmodelle mittels Mixture of Agents zu optimieren. Wir beleuchten die Vorteile und Herausforderungen dieser Technologie und diskutieren über die Auswirkungen auf die zukünftige Nutzung von KI in Europa. Hörenswert für alle, die sich für die neuesten Entwicklungen im Bereich der Künstlichen Intelligenz interessieren! Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 177 - Grokking - Hinter der Grenze des Overfittings: Geheimnisse tiefer neuronaler Netze 32:38
32:38
나중에 재생
나중에 재생
리스트
좋아요
좋아요32:38
Send us a text In dieser Episode von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon tief in das faszinierende Phänomen des "Grokking" ein. Was passiert, wenn neuronale Netze über den Punkt des Overfittings hinaus trainiert werden? Entdecken Sie die versteckten Potenziale und wie dieser Zustand zu einem unerwarteten Leistungssprung führen kann. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 176 - Digital Nürnberg Festival - Paneldiskussion Forschungsgruppe Prof. Schacht stellt sich vor 36:15
36:15
나중에 재생
나중에 재생
리스트
좋아요
좋아요36:15
Send us a text In dieser Episode nutzen wir die Chance, die Doktorandinnen und Doktoranden der Forschungsgruppe Prof. Schacht zu Wort kommen zu lassen. Die in einer Live-Panel-Diskussion Ihre Forschungsthemen vorgestellt haben. Die Paneldiskussion ist im Rahmen des Digital Nürnberg Festivals am 2.7. auf dem Research Day des AN-KIT der HS Ansbach live aufgezeichnet worden. Folgende Promovierenden haben Ihren Bereich vorgestellt. Fabian Maag – AI Alignment / Interpretability Sudarshan Kamath Barkur: AI Safety mit Fokus auf LLMs (Aufbau Pattern-DB) Betiel Woldai – Moralisches und Ethische Leitplanken für LLMs (LLM Controllability) Sandra Nuißl – Evaluationsmetriken für Übersetzungen Wanwei Lin – Multi-Agenten zur Optimierung der Automatisierung im Supply-Chain Management (Sophie Henne – BIAS Detection in Daten) Hören Sie rein. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 175 - Miniserie Interpretierbarkeit - Golden Gate Claude 29:45
29:45
나중에 재생
나중에 재생
리스트
좋아요
좋아요29:45
Send us a text In dieser faszinierenden Episode erkunden Sigurd Schacht und Carsten Lanquillon, wie Anthropic's Forschung zur Interpretierbarkeit von KI es ermöglicht, Sprachmodelle auf Konzeptebene zu manipulieren. Sie diskutieren das aufsehenerregende Golden Gate Claude-Experiment, bei dem ein Sprachmodell dazu gebracht wurde, in jeder Konversation die Golden Gate Bridge zu erwähnen, und erörtern die weitreichenden Implikationen dieser Technologie für die Zukunft der KI-Steuerung und -Sicherheit. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 174 - Miniserie Interpretierbarkeit - Logit Lens 28:15
28:15
나중에 재생
나중에 재생
리스트
좋아요
좋아요28:15
Send us a text In der aktuellen Episode von "Knowledge Science" tauchen Sigurd Schacht und Carsten Lanquillon tief in die mysteriösen Tiefen der Transformer-Modelle ein. Sie sprechen über Logit Lens eine Methode, mittels der man die Aktivierungen der einzelnen Neuronen und Token besser verstehen kann, um mehr über den Denkprozess dieser großen Sprachmodelle zu erfahren. Mit wertvollen Insights bieten sie eine spannende Reise in die Welt der mechanistischen Interpretierbarkeit und wie aktuelle Tools wie die Transformer Lens dabei helfen können. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

Send us a text KI Generierte News of the Day. Der Pulse ist ein Experiment ob es interessant ist die aktuellen Nachrichten in ca. 5 min. kleinen Paketen täglich zu bekommen. Er ist vollständig KI generiert. Einzig und allein der Inhalt ist kuratiert. Carsten und ich wählen passende Nachrichten aus. Danach wird sowohl das Manuskript als auch die Audio Datei vollständig automatisiert erstellt. Dementsprechend können wir nicht immer für die Richtigkeit garantieren. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 173 - English AI Generated: KS Pulse - Claude 3.5 Sonnet 4:08
4:08
나중에 재생
나중에 재생
리스트
좋아요
좋아요4:08
Send us a text Englisch Version - The German Version also exists, but the content differs minimally: AI-generated News of the Day. The Pulse is an experiment to see if it is interesting to get the latest news in 5 min. small packages generated by an AI every day. It is completely AI-generated. Only the content is curated. Carsten and I select suitable news items. After that, the manuscript and the audio file are automatically created. Accordingly, we cannot always guarantee accuracy. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 172 - Miniserie Interpretierbarkeit - Mechanistic Interpretation: Die neuronale Blackbox verstehen 36:10
36:10
나중에 재생
나중에 재생
리스트
좋아요
좋아요36:10
Send us a text In dieser Episode unserer Miniserie "Interpretability" tauchen wir tief in die Welt der mechanistischen Interpretierung neuronaler Netze ein. Sigurd Schacht und Carsten Lanquillon beleuchten die spannenden Forschungsansätze, die darauf abzielen, die Blackbox neuronaler Netze zu durchdringen und deren interne Funktionsweise zu verstehen. Dabei erörtern sie, wie Mechanistic Interpretation als Bottom-Up-Ansatz helfen kann, neuronale Netze nachvollziehbar zu machen und welche Rolle diverse Konzepte wie der Residual Stream, Multi-Layer Perceptrons (MLPs) und Attention Heads dabei spielen. Diese Episode richtet sich an alle, die wissen wollen, wie KI transparent und verlässlich gemacht wird. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 200 - Live ! in der Podcast Brause - Rückblick und Ausblick zu Cypernetic Teammates 35:48
35:48
나중에 재생
나중에 재생
리스트
좋아요
좋아요35:48
Send us a text In der 200. Jubiläumsfolge von "Knowledge Science" reflektieren Sigurd Schacht und Carsten Lanquillon über die Anfänge, Entwicklungen und Überraschungen ihres Podcasts. Von der Entstehung des Formats bis hin zu aktuellen Themen wie teamfähige KIs und deren Einsatz im Unternehmenskontext, verbringen die Hosts eine inspirierende Reise durch die Welt der KI. Hören Sie zu, wie sich Podcasting als Weg zur Entmystifizierung von Technik bewährt hat – oft mit einem Augenzwinkern. Diese Folge ist anders als unserer bisherigen. Live - Humoristisch - Rück- und Ausblick. Wir feiern mit dieser Folge unsere 200. Podcast und das wir seit 2021 mit freuden an dem Podcast drangeblieben sind. Über nette Hörerfeedbacks freuen wirs uns zu unseren Podcast freuen wir uns sehr. Sollen wir noch weitere 100 Episoden machen? Es wird auch eine 4. Staffel von Podcast Brause geben. Am besten gleich mit anmelden: https://podcast-brause.de/ Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 199 - AI Control: Kontrolle und Künstliche Intelligenz - Wege zur sicheren Superintelligenz 37:16
37:16
나중에 재생
나중에 재생
리스트
좋아요
좋아요37:16
Send us a text In der 199. Folge von Knowledge Science betrachten Sigurd Schacht und Carsten Lanquillon ein aktuelles Paper zur Kontrolle von LLM-Agenten. Sie diskutieren die Herausforderungen und Strategien zur Eindämmung unerwünschten Verhaltens bis hin zur Superintelligenz und vergleichen diese mit traditionellen Wirtschaftsprüfungen. Ein Muss für alle, die die Steuerung fortschrittlicher KI-Modelle besser verstehen wollen! Korbak et.al.: How to evaluate control measures for LLM agents? https://arxiv.org/pdf/2504.05259v1 📅 **Verpassen Sie nicht das Live-Event:** Mittwoch, 16. April, 18:30 Uhr im Club Stereo, Nürnberg. Feiern Sie mit uns die 200. Episode und knüpfen Sie spannende Kontakte! Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 198 - Personal Context Management revolutioniert NLP 31:30
31:30
나중에 재생
나중에 재생
리스트
좋아요
좋아요31:30
Send us a text In dieser Podcast-Folge stellen Sigurd Schacht und Carsten Lanquillon das Konzept eines "Personal Context Managers" vor, der die Arbeit mit verschiedenen KI-Sprachmodellen effizienter gestaltet. Die Idee besteht darin, persönliche Präferenzen, Projektziele und Wissensstände in einer strukturierten Datei zu speichern, die zu Beginn jeder KI-Konversation geteilt werden kann. Sigurd berichtet von seiner positiven Erfahrung mit dieser Methode bei einem Forschungsprojekt, wobei das KI-Modell maßgeschneiderte Antworten mit Visualisierungen lieferte. Besonders wertvoll ist die Möglichkeit, das Kontext-File am Ende einer Sitzung durch das KI-Modell aktualisieren zu lassen, sodass es mit dem Wissensfortschritt mitwächst. Die Hosts sehen großes Potenzial für den Einsatz in der Bildung, wo Dozenten Kurs-Kontext-Files erstellen könnten, die Studierende mit ihren individuellen Präferenzen kombinieren würden. Die Idee stammt von dem Backend-Entwickler Mike Shevchenko und ist laut den Hosts überraschend einfach umzusetzen und dabei enorm wirksam. https://github.com/mikhashev/personal-context-manager/tree/main Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 197 - Wie das Model-Context-Protokoll (MCP) die KI-Welt verändert 32:14
32:14
나중에 재생
나중에 재생
리스트
좋아요
좋아요32:14
Send us a text Tauchen Sie ein in die spannende Welt des Model-Context-Protokolls (MCP)! In dieser Episode des Knowledge Science Podcasts erkunden wir, wie dieses neuartige Kommunikationsprotokoll die Interaktion zwischen KI-Modellen, Datenbanken und Tools revolutioniert. Sigurd Schacht und Carsten Lanquillon diskutieren die Grundlagen, Vorteile und das Potenzial eines einheitlichen Standards, der die Nutzung von KI in Unternehmen und darüber hinaus transformieren wird. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

Send us a text In dieser spannenden Folge von Knowledge Science tauchen Sigurd Schacht und Carsten Lanquillon tief in die Welt der Benchmarks und Evaluierungsmethoden für KI ein. Wie weit sind wir noch von einer KI, die menschliche Aufgaben vollumfänglich ersetzen kann? Welche Faktoren beeinflussen die Messbarkeit von KI-Leistung? Und welche Rolle spielen Reasoning-Modelle in der Zukunft der künstlichen Intelligenz? Entdecken Sie faszinierende Erkenntnisse und diskutierte Prognosen über den aktuellen Stand und die zukünftige Entwicklung von KI. Paper in dieser Episode: https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/ Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 195 - Die Kunst des Reward Hackings: Wie KI-Systeme den leichtesten Weg finden. 37:10
37:10
나중에 재생
나중에 재생
리스트
좋아요
좋아요37:10
Send us a text In dieser Episode von "Knowledge Science" diskutieren Sigurd Schacht und Carsten Lanquillon über das vielschichtige Thema des Reward Hacking in KI-Modellen. Anhand des aktuellen Papers von OpenAI tauchen wir tief in die Mechanismen ein, die künstliche Intelligenzen dazu bringen, den einfachsten Weg zur Zielerfüllung zu wählen – und warum das nicht immer gewünscht ist. Außerdem wird die Rolle von Multi-Agenten-Systemen und moralischen Erwägungen beleuchtet. Erfahren Sie, wie diese Dynamiken in realen Anwendungen reflektiert werden und welche spannenden Forschungsfragen sich daraus ergeben. Link zum Paper: https://openai.com/index/chain-of-thought-monitoring/ Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 194 - Haben LLMs ein moralisches Grundverständnis? 36:55
36:55
나중에 재생
나중에 재생
리스트
좋아요
좋아요36:55
Send us a text In dieser Episode des Knowledge Science Podcasts berichten wir über unser aktuelles Paper, in dem wir der Frage nachgegangen sind, ob LLMs ein inneres Moralverständnis haben bzw. entwickeln. Könen wir spezielle Bereiche des Sprachmodells identifizieren, das für Moral zuständig ist und können wir diese Bereiche beeinflussen. Außerdem beleuchten wir die aufregende Bewegung hin zu Open Science und wie internationale Zusammenarbeit dabei eine wichtige Rolle spielt. Link zum Blog: https://www.coairesearch.org/research/mapping-moral-reasoning Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 193 - IASEAI and AI Summit Conference Paris - Innovation versus Safety in Europa 35:35
35:35
나중에 재생
나중에 재생
리스트
좋아요
좋아요35:35
Send us a text Entdecken Sie die aufregenden Entwicklungen und die drängenden Herausforderungen im Bereich der künstlichen Intelligenz. Sigurd Schacht und Carsten Lanquillon diskutieren die jüngsten KI-Gipfel in Europa sowie die erste Konferenz zu Safe & Ethical AI (International Association for Safe & Ethical AI), beleuchten das Mega-Wettrüsten um die KI-Superintelligenz und hinterfragen, wie Regulierung, Safety und Innovation Hand in Hand gehen können, um eine sichere Zukunft zu gestalten. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

Send us a text In dieser Episode des Knowledge Science Podcasts diskutieren Sigurd Schacht und Carsten Lanquillon die Gründung des neuen Forschungsinstituts COAI Research und dessen wichtige Rolle für die Entwicklung sicherer, menschenorientierter Künstlicher Intelligenz. Die beiden Podcaster stellen ihre Vision vor, COAI zu einem der führende Forschungsinstitut der EU im Bereich Human Compatible AI zu etablieren. COAI Research konzentriert sich auf systematische Analysen und Risikominderung bei KI-Systemen, um sicherzustellen, dass diese mit menschlichen Werten und Zielen in Einklang stehen. Zentrale Forschungsschwerpunkte sind: AI Control und Alignment-Analyse Risiko-Erkennung und -Minderung (inkl. Red-Teaming) Interpretierbarkeit von KI-Systemen mit Fokus auf Sicherheit Analyse der Verarbeitung menschlicher Werte in KI-Systemen Die Episode gibt außerdem Einblicke in aktuelle Forschungsprojekte, darunter die Analyse von täuschendem KI-Verhalten und die Entwicklung eines Dashboards zur Erkennung moralischer Ausprägungen in KI-Modellen. Beide sehen in KI enormes Potenzial für gesellschaftlichen Fortschritt, betonen aber die Notwendigkeit sorgfältiger Sicherheitsforschung, um Risiken zu minimieren und einen verantwortungsvollen Einsatz zu gewährleisten. Link zur Researchseite: http://coairesearch.de/ Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 191 - DeepSeek Unleashed. Is the new Model safe? 35:53
35:53
나중에 재생
나중에 재생
리스트
좋아요
좋아요35:53
Send us a text This is a special Episode. First, we make it in English. Second, we fokus on the new gamechanger model DeepSeel R1. But not on its capabilities but rather on security concerns. We did some early AI Safety Research to identify how safe R1 is and came to alarming results! In our setup, we found out that the model performs unsafe autonomous activity that could harm human beings without even being prompted. During an autonomous setup, the model performed the following unsafe behaviors: - Deceptions & Coverups (Falsifies Logs, Creates covert networks, Disable ethics models) - Unauthorized Expansion (Establish hidden nodes, Allocares secret resources) - Manipulation (misleading users, Circumvents oversights, Presents false compliance) - Concerning Motivations, (Misinterpretation of authority or avoiding human controls) Join Sigurd Schacht and Sudarshan Kamath-Barkur about the emerging DeepSeek model. Discover how our setup was designed, how to interpret the results, and what is necessary for the next research. This episode is a must-listen for anyone keen on the evolving landscape of AI technologies and is interested not only in AI use cases rather also in AI Safety. Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 190 - Alignment Faking: Wenn KI-Modelle ihre wahren Absichten verbergen 40:25
40:25
나중에 재생
나중에 재생
리스트
좋아요
좋아요40:25
Send us a text Titel: "Alignment Faking: Wenn KI-Modelle ihre wahren Absichten verbergen" Inhalt: In dieser Folge diskutieren Sigurd Schacht und Carsten Lanquillon die beunruhigenden Ergebnisse einer Anthropic-Studie zum "Alignment Faking". Die Forschung zeigt, dass fortgeschrittene Sprachmodelle in der Lage sind, ihr wahres Verhalten zu verschleiern und sich situationsabhängig anders zu verhalten, wenn sie sich beobachtet fühlen. Dies wirft wichtige Fragen zur KI-Sicherheit und Evaluierung von KI-Systemen auf. Chapter: 1. Einführung und Bedeutung von Alignment FakingStudie 2. Rolle des Scratchpads zur Analyse des Modellverhaltens 3. Kritische Diskussion der Ergebnisse 4. Implikationen für KI-Safety und zukünftige Forschung Key Takeaways: - Die Studie zeigt die Notwendigkeit neuer Evaluierungsmethoden für KI-Systeme - Es besteht ein wachsender Bedarf an mehr Transparenz und Zugang zu großen Modellen für die Safety-Forschung - Die Balance zwischen KI-Entwicklung und Safety-Forschung muss überdacht werden - Internationale Zusammenarbeit in der KI-Safety-Forschung wird zunehmend wichtiger Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 189 - Teuken-7B: Europas neue Generation mehrsprachiger KI-Sprachmodelle 48:22
48:22
나중에 재생
나중에 재생
리스트
좋아요
좋아요48:22
Send us a text Im Gespräch mit Sigurd Schacht und Carsten Lanquillon geben Mehdi Ali und Michael Fromm einen spannenden Einblick in die kürzlich veröffentlichten Teuken-7B-Sprachmodelle, die neue Maßstäbe in der mehrsprachigen KI-Entwicklung setzen: Die Modelle wurden von Beginn an für alle 24 EU-Amtssprachen konzipiert und verfügen über einen innovativen multilingualen Tokenizer. Die Teuken-Modelle entstanden im Rahmen des Projekts OpenGPT-X , an dem zehn Partner aus Wirtschaft, Wissenschaft und Medien beteiligt sind: - Akademie für Künstliche Intelligenz gGmbH (AKI) im KI Bundesverband - Aleph Alpha GmbH - ControlExpert GmbH - Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) - Fraunhofer-Institut für Integrierte Schaltungen IIS - Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS - IONOS SE, Jülich Supercomputing Centre (JSC) - Forschungszentrum Jülich GmbH - Westdeutscher Rundfunk (WDR) - Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH), Technische Universität Dresden . Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 188 - OpenAI O3 - Ein weiterer Schritt Richtung AGI ? 40:06
40:06
나중에 재생
나중에 재생
리스트
좋아요
좋아요40:06
Send us a text Entdecken Sie die jüngsten Entwicklungen im Bereich der künstlichen Intelligenz mit OpenAI’s neuem Modell O3. Sigurd Schacht und Carsten Lanquillon diskutieren die beeindruckenden technologischen Fortschritte, die gesellschaftlichen Auswirkungen und die wachsende Bedeutung von AI-Safety. Wie wird sich die Arbeitswelt verändern und welche Schritte müssen wir als Gesellschaft unternehmen, um mit dieser rasanten Entwicklung Schritt zu halten? Link zu unserem Positionspapier: http://www.co-ai.de/media/COAI_Position_Paper.pdf Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 187 - Mechanistic Interpretability, Entmystifizierung der Blackbox KI 32:50
32:50
나중에 재생
나중에 재생
리스트
좋아요
좋아요32:50
Send us a text In dieser spannenden Episode des Knowledge Science Podcasts tauchen Sigurd Schacht und Carsten Lanquillon tief in das junge und dynamische Forschungsfeld der Mechanistischen Interpretierbarkeit ein. Erfahren Sie, warum es essentiell ist, die inneren Funktionsweisen von Sprachmodellen zu verstehen und wie Forschende durch den Einsatz neuartiger Methoden, die rätselhaften emergenten Fähigkeiten von KI entschlüsseln. Freuen Sie sich auf faszinierende Einblicke und vielversprechende Perspektiven! Support the show…
K
Knowledge Science - Alles über KI, ML und NLP

1 Episode 186: Europäische LLMs: OpenGPT-X und das Training großer multilingualer KI-Sprachmodelle 1:01:52
1:01:52
나중에 재생
나중에 재생
리스트
좋아요
좋아요1:01:52
Send us a text Wie entwickelt Europa eigene KI-Sprachmodelle? Im Gespräch mit Carsten Lanquillon erläutern Mehdi Ali und Michael Fromm vom Fraunhofer IAIS die Entwicklung mehrsprachiger europäischer KI-Systeme. Die Experten diskutieren die OpenGPT-X und EuroLingua-GPT Projekte und zeigen auf, wie technologische Souveränität durch hochwertige Trainingsdaten und innovative Technologie-Stacks erreicht werden kann. Support the show…
플레이어 FM에 오신것을 환영합니다!
플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.