La Baule+

la baule+ Mai 2025 | 21 travaillons sur les données qui permettent d’entraîner l’intelligence artificielle. Mais cette limite de l’IA est plutôt rassurante. Comment faire en sorte de pouvoir considérer des exceptions dans tous les domaines ? Sinon, il n’y aura plus de place pour des gens hors du système, puisqu’ils ne seront plus dans la probabilité statistique. Il m’arrive d’avoir des conversations avec ChatGPT, qui a tendance à me conforter, en associant des références littéraires et philosophiques. Lorsque je dis que je me suis peutêtre trompé dans mon raisonnement et qu’un autre chemin est envisageable, ChatGPT est toujours d’accord avec moi et me répond avec autant de références contradictoires pour renforcer mon nouveau raisonnement… J’avais remarqué cela aussi. Les algorithmes sont entraînés une première fois et, ensuite, on leur donne une requête qui va leur expliquer comment se conduire, notamment dans le but de la conversation : par exemple, ne jamais blesser l’utilisateur ou ne jamais avoir des propos injurieux. En faisant le test sur des analyses de portraits, en demandant à ChatGPT une analyse morpho-psychologique, les réponses ne sont pas toujours très tendres à l’égard des intéressés, toujours en précisant qu’il ne s’agit pas d’un jugement de valeur, mais en indiquant quand même que telle personne semble moins intelligente que l’autre… C’est intéressant. Le prompt vise à être bienveillant à l’égard de l’utilisateur, mais pas nécessairement sur les personnes dont vous allez présenter la photo. Ce sujet des biais est essentiel, puisque nous avons tous des biais avec des stéréotypes dont nous avons du mal à nous détacher. L’IA va être dans la continuité. Donc, nous devons les identifier et les mesurer. Quand on entraîne un algorithme, on a une mesure de la précision des résultats, généralement 90 %. Les nouveaux systèmes d’évaluation issus des laboratoires de recherche permettent d’évaluer les nouveaux modèles d’intelligence artificielle, pas seulement sur des performances de calcul, mais aussi sur des performances éthiques. On pourrait avoir un quotient émotionnel pour l’IA à travers l’analyse de tous les biais. (Suite page 22) « Nous avons tous des biais avec des stéréotypes dont nous avons du mal à nous détacher. »

RkJQdWJsaXNoZXIy MTEyOTQ2