Le 26 octobre 2023, OpenAI a annoncé la création d’une nouvelle unité chargée de surveiller ses modèles d’intelligence artificielle. Baptisée Preparedness, cette équipe aura pour mission d’anticiper les risques catastrophiques que pourrait engendrer l’utilisation malveillante des IA. En contrôlant la sécurité et la robustesse des applications d’intelligence artificielle générative, OpenAI espère ainsi limiter les dérives potentielles de ses outils.
Rumeurs sur le développement du GPT-5 : vers une intelligence artificielle générale ?
Malgré l’attention portée actuellement sur le modèle GPT-4, un leak Twitter suggère qu’OpenAI serait en train de développer secrètement le GPT-5. Prévu pour être achevé en décembre de cette année, ce nouveau modèle ambitionnerait d’atteindre l’Intelligence Artificielle Générale (AGI), capable de rivaliser avec le cerveau humain dans toutes les tâches cognitives. Cette rumeur relance le débat sur l’éthique et les enjeux autour des futurs développements de l’IA.
Anthropic et Google : les concurrents qui ne se laissent pas distancer
En parallèle, la méga-startup américaine Anthropic poursuit ses efforts pour rattraper son retard face à OpenAI et sa technologie générative ChatGPT. La jeune entreprise a récemment réussi à doubler son financement grâce au soutien de Google, qui s’est engagé à investir 2 milliards de dollars dans le projet. L’opération se déroule en deux temps : 500 millions de dollars d’investissement immédiat, puis 1,5 milliard dans les prochains mois sous forme d’obligations convertibles en actions. Cette manœuvre vise à renforcer les capacités concurrentielles d’Anthropic et contrer l’avance d’OpenAI.
Détecter la fraude : un outil pour reconnaître les textes générés par ChatGPT
Aux prises avec les défis éthiques et techniques liés à ses modèles, OpenAI souhaite également développer des solutions pour détecter la fraude potentielle liée à l’usage de ChatGPT, notamment dans le domaine de l’éducation. En effet, la vérification de travaux produits à partir de générateurs de texte devient extrêmement complexe lorsque l’on ne peut identifier si une IA est à l’origine du contenu.
Pour résoudre ce problème, OpenAI a présenté un nouvel outil destiné à déceler les textes écrits par ChatGPT. De cette manière, les risques de fraude et autres usages malveillants peuvent être limités et anticipés. Néanmoins, ces initiatives soulignent l’importance de réfléchir en amont aux conséquences éthiques et sociales du développement des technologies d’intelligence artificielle.
Les défis de l’OpenAI : entre innovation technologique et responsabilité sociétale
Au-delà des prouesses techniques qu’offrent les modèles développés par OpenAI, il convient de considérer avec attention les enjeux éthiques qui accompagnent ce progrès. La recherche autour de l’intelligence artificielle génère des questions cruciales sur la protection des données, les biais algorithmiques, l’autonomie décisionnelle, ou encore la surveillance et le contrôle des applications de l’IA.
Dans cette perspective, les initiatives telles que la création de l’équipe Preparedness ou le développement de dispositifs anti-fraude permettent d’encadrer plus efficacement les développements technologiques et leur mise en application. Pour autant, la collaboration entre acteurs publics, privés et de la société civile se doit d’être renforcée afin d’établir un cadre régulateur harmonisé au niveau international pour relever les défis du futur de l’intelligence artificielle.