Artwork

Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.
Player FM -팟 캐스트 앱
Player FM 앱으로 오프라인으로 전환하세요!

Pourquoi l'alignement de l'IA devient un sujet crucial ?

3:22
 
공유
 

Manage episode 501025292 series 3383386
Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.

L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.

Pourquoi l'alignement est crucial

Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.

Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.

Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.

Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.

Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.

Robustesse, Interopérabilité, Contrôlabilité et Éthique

Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.

  • La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.

  • L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.

  • Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.

  • Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.

Comment faire de l'alignement ?

Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.

Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.

Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.

Bref, le fameux “problème de l’alignement” reste ouvert.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

424 에피소드

Artwork
icon공유
 
Manage episode 501025292 series 3383386
Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes에서 제공하는 콘텐츠입니다. 에피소드, 그래픽, 팟캐스트 설명을 포함한 모든 팟캐스트 콘텐츠는 Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes 또는 해당 팟캐스트 플랫폼 파트너가 직접 업로드하고 제공합니다. 누군가가 귀하의 허락 없이 귀하의 저작물을 사용하고 있다고 생각되는 경우 여기에 설명된 절차를 따르실 수 있습니다 https://ko.player.fm/legal.

C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.

L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.

Pourquoi l'alignement est crucial

Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.

Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.

Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.

Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.

Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.

Robustesse, Interopérabilité, Contrôlabilité et Éthique

Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.

  • La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.

  • L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.

  • Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.

  • Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.

Comment faire de l'alignement ?

Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.

Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.

Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.

Bref, le fameux “problème de l’alignement” reste ouvert.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

424 에피소드

Tutti gli episodi

×
 
Loading …

플레이어 FM에 오신것을 환영합니다!

플레이어 FM은 웹에서 고품질 팟캐스트를 검색하여 지금 바로 즐길 수 있도록 합니다. 최고의 팟캐스트 앱이며 Android, iPhone 및 웹에서도 작동합니다. 장치 간 구독 동기화를 위해 가입하세요.

 

빠른 참조 가이드

탐색하는 동안 이 프로그램을 들어보세요.
재생