Artwork

Acast France에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Acast France 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

Choses à Savoir TECH - Pourquoi le nom David Mayer fait planter ChatGPT ?

2:03
 
공유
 

Manage episode 457000478 series 3602453
Acast France에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Acast France 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

Bug ou censure ? ChatGPT, le célèbre chatbot d’OpenAI, suscite la curiosité ce week-end après une découverte surprenante. Plusieurs utilisateurs ont constaté que mentionner le nom « David Mayer » dans une conversation provoque un blocage immédiat ou un message d’erreur. Fait intrigant, ce phénomène se produit même si le nom est intégré dans un contexte ou inversé.


Ce dysfonctionnement alimente déjà les théories du complot. Selon certains, David Mayer serait une figure censurée par l’IA, notamment en raison d’un lien supposé avec les banquiers Rothschild, souvent pris pour cible dans des récits antisémites. Mais ce n’est pas un cas isolé. Le site 404media rapporte que d’autres noms, comme « Jonathan Zittrain » ou « Jonathan Turley », déclenchent également des messages d’erreur. Ces noms appartiendraient à des professeurs de droit américains ayant critiqué ChatGPT et les intelligences artificielles dans leurs travaux.


Comment expliquer ce phénomène ? Une hypothèse avancée par Justine Moore, chercheuse en IA, évoque le droit à l’oubli, inscrit dans le RGPD européen. Des personnalités ayant demandé la suppression de leurs données pourraient ainsi figurer dans une liste noire, générant ces blocages. Une autre théorie suggère que certains noms, comme Jonathan Zittrain, pourraient correspondre à des pseudonymes de figures dangereuses, membres d’organisations terroristes. Ces spéculations rappellent que ChatGPT, bien qu’impressionnant, reste sujet à des « hallucinations », ces réponses erronées dues à des biais dans l’entraînement de l’IA. Pour l’heure, OpenAI n’a pas fourni d’explication officielle, laissant les interrogations ouvertes. En attendant des réponses claires, ces incidents mettent en lumière les défis techniques et éthiques liés à l’utilisation de l’IA, où la transparence est plus cruciale que jamais.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

156 에피소드

Artwork
icon공유
 
Manage episode 457000478 series 3602453
Acast France에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Acast France 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

Bug ou censure ? ChatGPT, le célèbre chatbot d’OpenAI, suscite la curiosité ce week-end après une découverte surprenante. Plusieurs utilisateurs ont constaté que mentionner le nom « David Mayer » dans une conversation provoque un blocage immédiat ou un message d’erreur. Fait intrigant, ce phénomène se produit même si le nom est intégré dans un contexte ou inversé.


Ce dysfonctionnement alimente déjà les théories du complot. Selon certains, David Mayer serait une figure censurée par l’IA, notamment en raison d’un lien supposé avec les banquiers Rothschild, souvent pris pour cible dans des récits antisémites. Mais ce n’est pas un cas isolé. Le site 404media rapporte que d’autres noms, comme « Jonathan Zittrain » ou « Jonathan Turley », déclenchent également des messages d’erreur. Ces noms appartiendraient à des professeurs de droit américains ayant critiqué ChatGPT et les intelligences artificielles dans leurs travaux.


Comment expliquer ce phénomène ? Une hypothèse avancée par Justine Moore, chercheuse en IA, évoque le droit à l’oubli, inscrit dans le RGPD européen. Des personnalités ayant demandé la suppression de leurs données pourraient ainsi figurer dans une liste noire, générant ces blocages. Une autre théorie suggère que certains noms, comme Jonathan Zittrain, pourraient correspondre à des pseudonymes de figures dangereuses, membres d’organisations terroristes. Ces spéculations rappellent que ChatGPT, bien qu’impressionnant, reste sujet à des « hallucinations », ces réponses erronées dues à des biais dans l’entraînement de l’IA. Pour l’heure, OpenAI n’a pas fourni d’explication officielle, laissant les interrogations ouvertes. En attendant des réponses claires, ces incidents mettent en lumière les défis techniques et éthiques liés à l’utilisation de l’IA, où la transparence est plus cruciale que jamais.



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

  continue reading

156 에피소드

Усі епізоди

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드