Parce que… c’est l’épisode 0x576!

Shameless plug

Description

Le podcast présente une table ronde animée par le présentateur avec quatre intervenants lors de la deuxième journée Humaco: Ingrid Dumont, Audrey Vermeulen, Grégory Alexander et Jérôme de Cooman. Cette rencontre transdisciplinaire a permis de partager réflexions et expériences autour de l’intelligence artificielle, de l’éthique, de la législation et de la science-fiction.

Présentations des intervenants

Audrey Vermeulen a présenté sur l’éthique by design de l’intelligence artificielle, explorant comment l’intelligence collective et l’imagination morale peuvent servir la conception éthique des systèmes d’IA. Grégory Alexander a exposé le concept de “Science Fiction Prototyping”, analysant comment les films de science-fiction peuvent être utilisés comme outils d’anticipation des évolutions technologiques et de leurs impacts sociétaux. Jérôme de Cooman a abordé les concepts de responsabilité et de redevabilité algorithmique, tentant de déterminer qui est responsable de quoi et qui doit rendre des comptes à qui dans l’écosystème de l’IA.

Thèmes principaux abordés

L’humain comme maillon fort face à l’IA

Un consensus s’est dégagé autour de l’idée que l’humain n’est pas le maillon faible mais bien le maillon fort du système. Les participants ont souligné l’importance de l’esprit critique et de l’intelligence collective pour maîtriser l’IA.

Audrey Vermeulen a insisté sur l’importance de cette intelligence collective pour faire émerger et orienter l’IA, tout en maintenant un contrôle éthique. L’humain reste fondamentalement celui qui “fait émerger l’intelligence artificielle” et qui doit conserver la maîtrise.

Éthique by design et responsabilité

Le concept d’“éthique by design” a été largement discuté. Audrey Vermeulen a expliqué que cette approche peut intervenir à plusieurs niveaux:

  • Dans l’intention de départ et la raison d’être d’un service d’IA
  • Dans la nature intrinsèque de ce que va produire l’artefact
  • Dans le processus même de conception et de fabrication
  • Dans le choix et le traitement des données utilisées

Jérôme de Cooman a noté que les choix réglementaires reflètent des choix éthiques, citant les travaux du groupe d’experts de haut niveau indépendants nommés par la Commission européenne. Bien que le législateur européen ait préféré une logique de sécurité du produit plutôt qu’une éthique dès la conception, il existe une “congruence ontologique” entre les développements éthiques et la réglementation adoptée.

Science-fiction comme outil d’anticipation

Grégory Alexander a démontré comment la science-fiction a souvent anticipé les enjeux technologiques actuels. Il a évoqué des œuvres comme Robby le Robot et Ex Machina pour illustrer comment ces fictions explorent l’éthique et la place de l’humain face aux avancées technologiques.

Les participants ont souligné que la science-fiction permet de:

  • Partager en masse des réflexions éthiques complexes
  • Désacraliser certains sujets pour permettre le débat sociétal
  • Tester et explorer les dilemmes éthiques (comme le fameux “trolley problem” appliqué aux voitures autonomes)
  • Développer l’imagination morale, essentielle pour affronter les défis éthiques

Responsabilité et cadre réglementaire

Jérôme de Cooman a expliqué le cadre réglementaire européen sur l’IA, notamment le règlement européen récemment adopté. Il a souligné que contrairement à d’autres technologies, l’IA impose une responsabilité partagée entre tous les acteurs de la chaîne de valeur.

Les intervenants ont discuté des défis de la responsabilité dans des cas concrets comme celui des voitures autonomes, soulevant des questions comme:

  • Qui est responsable en cas d’accident?
  • Comment déterminer si c’est une défaillance du système, du capteur, ou une situation imprévue?
  • Quel rôle jouent les assurances dans ce nouveau paradigme?

Données, vie privée et différences culturelles

Les participants ont évoqué les différentes approches culturelles concernant les données personnelles:

  • L’Europe avec une forte protection des données personnelles
  • L’Amérique avec une approche plus commerciale des données
  • L’Asie, notamment la Chine, avec une transparence totale envers l’État

La criticité des données a été abordée sous deux angles:

  1. Les données sensibles par nature (données personnelles ou stratégiques)
  2. Les données qui deviennent sensibles par croisement ou par leur utilisation

Le temps, la réflexion et l’éducation

Face à l’accélération technologique, les intervenants ont plaidé pour:

  • Prendre le temps de la réflexion, particulièrement dans la recherche
  • Valoriser les travaux anciens qui ont souvent bénéficié d’une réflexion approfondie
  • Éduquer les jeunes aux enjeux de l’IA de manière non alarmiste mais responsable
  • Développer l’esprit critique et l’imagination morale, notamment par la fiction

Notes

Collaborateurs

Crédits

Télécharger .m4a (83.3M) Télécharger .mp3 (68.8M)

Tags: education, ethique, ia, loi, privacy, rgpd, slow


Tweet