TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

People love us!

User reviews

"오프라인 기능 너무 좋아요."
"이것은 팟캐스트 구독을 관리 할 "좋은" 방법입니다. 새로운 팟캐스트를 발견하는 좋은 방법이기도 합니다."

Privacy and Security for Stable Diffusion and LLMs with Nicholas Carlini - #618

43:11
 
공유
 

Manage episode 356507724 series 2355587
TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

Today we’re joined by Nicholas Carlini, a research scientist at Google Brain. Nicholas works at the intersection of machine learning and computer security, and his recent paper “Extracting Training Data from LLMs” has generated quite a buzz within the ML community. In our conversation, we discuss the current state of adversarial machine learning research, the dynamic of dealing with privacy issues in black box vs accessible models, what privacy attacks in vision models like diffusion models look like, and the scale of “memorization” within these models. We also explore Nicholas’ work on data poisoning, which looks to understand what happens if a bad actor can take control of a small fraction of the data that an ML model is trained on.

The complete show notes for this episode can be found at twimlai.com/go/618.

  continue reading

677 에피소드

icon공유
 
Manage episode 356507724 series 2355587
TWIML and Sam Charrington에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 TWIML and Sam Charrington 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 저작물을 귀하의 허가 없이 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르십시오 https://ko.player.fm/legal.

Today we’re joined by Nicholas Carlini, a research scientist at Google Brain. Nicholas works at the intersection of machine learning and computer security, and his recent paper “Extracting Training Data from LLMs” has generated quite a buzz within the ML community. In our conversation, we discuss the current state of adversarial machine learning research, the dynamic of dealing with privacy issues in black box vs accessible models, what privacy attacks in vision models like diffusion models look like, and the scale of “memorization” within these models. We also explore Nicholas’ work on data poisoning, which looks to understand what happens if a bad actor can take control of a small fraction of the data that an ML model is trained on.

The complete show notes for this episode can be found at twimlai.com/go/618.

  continue reading

677 에피소드

모든 에피소드

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

빠른 참조 가이드