L'IA générative est un écosystème en évolution rapide qui suscite beaucoup d'attention. Dans cet épisode, Dormain Drewitz interroge Sriram Subramanian sur les principaux défis à relever pour mettre en œuvre l'IA générative de manière responsable, notamment en ce qui concerne les contenus nuisibles, inexacts ou contraires aux normes de confidentialité ou de sécurité. Sriram discute des six principes de Microsoft pour une IA générative responsable, ainsi que de la notion de responsabilité partagée entre les fournisseurs de plateformes et les LLM fondamentaux et les développeurs et ingénieurs de données qui s'appuient sur eux. Sriram répond également aux questions sur la manière de démarrer en toute sécurité avec l'IA générative et partage son cadre pour identifier les opportunités d'ajout de valeur.
Ressources mentionnées :
Article de Marc Andreesen
Résumé créé avec l'aide de chatGPT
Dans cet épisode de l'émission Unplanned Show, l'animateur s'entretient avec Sriram Subramanian de Microsoft sur l'IA générative responsable, en explorant à la fois les considérations éthiques et pratiques. Sriram, responsable principal de programme chez Microsoft, souligne les inquiétudes accrues concernant la puissance des capacités de l'IA générative, en abordant notamment les problèmes liés aux contenus préjudiciables, aux inexactitudes et aux problèmes de sécurité/confidentialité. Il souligne le risque de génération de contenu biaisé et inapproprié, exhortant les développeurs et les organisations à être vigilants. Les organisations peuvent être confrontées à des défis lors de l'intégration de l'IA générative dans leurs flux de travail. Parmi les citations mémorables, citons l'analogie de Sriram selon laquelle de grands modèles de langage se comportent comme des adolescents confiants lorsqu'ils génèrent du contenu sans en avoir pleinement connaissance.
« Les LLM sont comme des adolescents au lycée qui, s'ils ne connaissent pas le contenu, ont l'audace et le courage d'écrire quelque chose avec la plus grande assurance, comme s'il s'agissait de faits. C'est tout à fait possible avec l'IA générative. »
Ensuite, l'animateur et Sriram se penchent sur la question de savoir si les défis liés au contenu préjudiciable, aux inexactitudes et à la sécurité/confidentialité dans l'IA générative peuvent être résolus au sein des grands modèles linguistiques (LLM) eux-mêmes ou nécessitent des contrôles et des contrepoids externes. Sriram met l'accent sur les principes fondamentaux de responsabilité de Microsoft, centrés sur l'équité, la transparence, la responsabilité, l'inclusion, la confidentialité, la fiabilité et la sécurité. Il décrit l'approche recommandée par l'industrie impliquant la gouvernance, les règles, la formation et les outils pour faire respecter les pratiques responsables de l'IA. Sriram voit des développements parallèles dans l'industrie, les LLM améliorant intrinsèquement les pratiques responsables de l'IA tandis que les entreprises s'efforcent de rendre ces capacités plus invisibles pour les utilisateurs finaux. Il souligne l'importance de la responsabilité partagée, où les fournisseurs et les développeurs/consommateurs d'applications jouent un rôle pour garantir la sécurité, la fiabilité et la nature impartiale des applications d'IA générative.
« Il s'agira en fin de compte d'une responsabilité partagée. Un développeur d'applications, un consommateur final, doit également faire sa part pour garantir la sécurité et la confidentialité. Assurez-vous que tout ce que vous envisagez d'utiliser pour les applications respecte les meilleures pratiques si vous développez des applications. »
Ensuite, l’accent est mis sur le concept de rendre la bonne chose facile et sur la responsabilité partagée pour relever les défis de l’IA générative. La discussion tourne autour des couches impliquées dans la garantie d’une IA responsable, avec le modèle fondamental au cœur, suivi des systèmes de sécurité, du développement d’applications et de l’expérience utilisateur. L’animateur note le parallèle avec les questions d’ingénierie de plateforme dans DevOps et l’importance de rendre le processus durable pour créer un code fiable, sûr et sécurisé. Sriram complète la discussion en décrivant les quatre couches et en soulignant que si les systèmes de sécurité du modèle fondamental sont principalement de la responsabilité des fournisseurs et des plateformes, les développeurs d’applications jouent également un rôle dans l’ajout de mécanismes de sécurité. La nature continue et itérative du processus est parallèle aux pratiques DevOps. Il est également nécessaire d’être préparé à des perturbations occasionnelles dans l’architecture complexe de l’IA générative.
« Il s’agit plutôt d’identifier, de mesurer, d’atténuer et d’exploiter. Une fois que vous avez identifié le problème, vous mettez en place des systèmes, vous voulez mesurer cela, puis vous continuez ainsi. Il ne s’agira jamais d’un effort ponctuel, mais d’un processus continu. »
La discussion porte sur des recommandations pratiques pour les particuliers ou les entreprises qui se lancent dans l'IA générative. Sriram met l'accent sur une approche progressive, en commençant par des gains faciles qui n'impliquent pas l'introduction de données sensibles, comme l'utilisation de modèles fondamentaux pour générer des documents utilisateur ou des réponses de chat. Il décrit trois niveaux de mise en œuvre : le premier impliquant des cas d'utilisation simples, le deuxième incorporant l'IA comme copilote de code, et le troisième niveau introduisant des données personnalisées pour des résultats plus précis et pertinents. La conversation aborde également l'importance des pratiques responsables, notamment l'affinage des invites pour de meilleurs résultats, l'exploitation de l'apprentissage à contexte zéro, zéro-un ou multi-contexte, et la mise en œuvre de la modération du contenu et de la limitation du débit pour garantir une utilisation éthique. Sriram souligne la nécessité d'un état d'esprit responsable, recommandant aux utilisateurs de ne pas prendre le contenu généré tel quel et d'appliquer toujours des filtres ou une modération du contenu.
« À l’heure actuelle, la compréhension ou le processus de réflexion autour de l’apprentissage contextuel est plus bénéfique, plus précis, ou du moins, c’est un moyen beaucoup plus simple d’atteindre le niveau de précision requis que d’essayer de recycler le modèle en utilisant un réglage fin. »
En conclusion de l’entretien, Sriram souligne trois dimensions clés – fondement, forme et adéquation – à prendre en compte lors de l’examen des opportunités dans le domaine de l’IA générative. Il suggère que la différenciation peut se produire en innovant au niveau algorithmique (fondement), en introduisant de nouvelles expériences utilisateur (forme) ou en se spécialisant dans des domaines ou des langages spécifiques (adéquation). La discussion souligne l’importance de comprendre ces axes pour les startups ou les entreprises qui cherchent à exploiter efficacement l’IA générative.
« Si vous essayez de créer une startup ou si quelqu'un essaie de [décider] « comment puis-je me différencier, que construisons-nous » en utilisant l'IA générative, j'aime utiliser un modèle de fondation, de forme et d'ajustement. »
Regardez l'interview
« Le PagerDuty Operations Cloud est essentiel pour TUI. C'est ce qui va réellement nous aider à nous développer en tant qu'entreprise pour garantir que nous fournissons des services de qualité à nos clients. »
- Yasin Quareshy, responsable de la technologie chez TUI