Notre confiance envers les algorithmes est-elle trop importante ? Ces derniers aident à la décision dans de nombreux domaines : justice, santé, entretiens d’embauches, examens, etc. Pourtant certains dangers sont notables. La reconnaissance faciale, les bulles filtrantes, les biais variés ne sont-ils pas un danger pour le bien-vivre ensemble et pour que tout le monde ait sa chance ?
Lorsque l’Intelligence Artificielle créé des algorithmes, le résultat n’est ni neutre ni loyal. Tout d’abord, ces algorithmes rangent les personnes dans des bulles filtrantes, où le public est catégorisé selon son âge, son genre, son origine géographique ou sociale, etc. Ce qui le prive inévitablement de certaines offres ou services et ne prends pas en compte que l’homme peut avoir, à tout moment, envie de nouvelles choses.
L’utilisation de la reconnaissance faciale peut également être dangereuse. Dès qu’une personne sort des normes de l’algorithme, elle n’est pas reconnue. C’est pourquoi, elle devrait être plus inclusive pour plus de justice afin que toute la diversité humaine soit reconnue.
Il est nécessaire de contrôler en amont le but de l’Intelligence Artificielle afin d’éviter ces biais. Des biais qui peuvent être créés par l’équipe de développement où causés par les données enregistrées et des algorithmes.
Pour plus de clarté et d’équité, il est nécessaire que les algorithmes utilisés soient soumis à autorisation et expliqués au public afin qu’il puisse savoir pourquoi ils sont utilisés et sur quels fondements ils reposent. Afin de laisser le choix final à l’homme.
Que pensent les patrons de l’intelligence artificielle générative ?
Le buzz de ChatgGPT et d’autres intelligences artificielles génératives Tout le monde ou presque a vécu le buzz qu’a fait l’intelligence artificielle génératrice ces derniers