Artwork

Mozilla에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Mozilla 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

Algorisky

29:37
 
공유
 

Manage episode 199459520 series 1460097
Mozilla에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Mozilla 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

From Google search to Facebook news, algorithms shape our online experience. But like us, algorithms are flawed. Programmers write cultural biases into code, whether they realize it or not. Author Luke Dormehl explores the impact of algorithms, on and offline. Staci Burns and James Bridle investigate the human cost when YouTube recommendations are abused. Anthropologist Nick Seaver talks about the danger of automating the status quo. Safiya Noble looks at preventing racial bias from seeping into code. And Allegheny County’s Department of Children and Family Services shows us how a well-built algorithm can help save lives.

Algorithms aren’t neutral. They’re really just recipes; expressions of human intent. That means it’s up to us to build the algorithms we want. Read more on how we can make algorithms more accountable.

IRL is an original podcast from Mozilla. For more on the series go to irlpodcast.org.

Leave a rating or review in Apple Podcasts so we know what you think.

  continue reading

56 에피소드

Artwork

Algorisky

IRL: Online Life is Real Life

1,642 subscribers

published

icon공유
 
Manage episode 199459520 series 1460097
Mozilla에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Mozilla 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

From Google search to Facebook news, algorithms shape our online experience. But like us, algorithms are flawed. Programmers write cultural biases into code, whether they realize it or not. Author Luke Dormehl explores the impact of algorithms, on and offline. Staci Burns and James Bridle investigate the human cost when YouTube recommendations are abused. Anthropologist Nick Seaver talks about the danger of automating the status quo. Safiya Noble looks at preventing racial bias from seeping into code. And Allegheny County’s Department of Children and Family Services shows us how a well-built algorithm can help save lives.

Algorithms aren’t neutral. They’re really just recipes; expressions of human intent. That means it’s up to us to build the algorithms we want. Read more on how we can make algorithms more accountable.

IRL is an original podcast from Mozilla. For more on the series go to irlpodcast.org.

Leave a rating or review in Apple Podcasts so we know what you think.

  continue reading

56 에피소드

모든 에피소드

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드