une start-up dévoile que son intelligence artificielle était soutenue par 700 humains

Publié le 4 juin 2025 à 16h01
modifié le 4 juin 2025 à 16h01
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Une façade d’intelligence artificielle dissimulait l’effort humain. La révélation d’une start-up, prétendant offrir une solution innovante par le biais d’une intelligence artificielle, soulève des questions éthiques et légales. La manipulation des investisseurs et la valorisation démesurée d’une entreprise, soutenue par des travailleurs humains plutôt que par un code autonome, révèlent les enjeux majeurs de l’intégrité dans le secteur technologique. Une arnaque à grande échelle exposée. Ce scandale démontre que les fondations de la confiance en la technologie peuvent être fragiles.

La révélation choquante d’une start-up technologique

Builder.ai, une start-up londonienne, a récemment été au cœur d’un scandale révélant que son intelligence artificielle, nommée Natasha, reposait en réalité sur le travail de 700 humains. Ces individus, principalement des travailleurs indiens, ont été engagés pour coder manuellement chaque ligne, en recevant une rémunération comprise entre 8 et 15 dollars de l’heure. Ainsi, le fonctionnement de cette prétendue IA réclamait un véritable effort humain, opposé à l’idée d’une machine autonome capable de programmer.

Une illusion complexe d’intelligence artificielle

La promesse de Builder.ai était séduisante : rendre le développement d’applications aussi simple que commander une pizza. Cela a attiré des investissements considérables de grandes entreprises, y compris Microsoft et des investisseurs du Qatar. La start-up a connu une valorisation fulgurante, atteignant 1,5 milliard de dollars, la qualifiant de « licorne » dans le milieu des start-ups.

Un modèle économique trompeur

Les problèmes se sont intensifiés en 2025 lorsque Builder.ai a été contraint de reconnaître que ses projections de ventes étaient largement surréalistes. Un de ses principaux créanciers a pris la décision de bloquer 37 millions de dollars d’actifs, provoquant un enchaînement menant à la banqueroute de l’entreprise. L’apparente solidité de son modèle économique s’est révélée être un puissant mirage.

L’infiltration des travailleurs humains

La grande révélation est survenue le 31 mai, lorsque des enquêtes ont exposé que Natasha, l’intelligence artificielle présentée comme innovante, ne fonctionnait qu’avec le support humain intensif. Les ingénieurs ont utilisé leur expertise pour produire du code, tandis que la start-up vantait une technologie capable de générer ces codes automatiquement. Une supercherie qui jette une ombre sur le progrès supposé de l’intelligence artificielle.

Conséquences sur la perception de l’IA

Cette situation soulève des interrogations sur la confiance accordée aux systèmes d’intelligence artificielle. Les utilisateurs et les investisseurs sont désormais forcés de s’interroger sur les véritables capacités et limites des technologies émergentes. Les promesses sont-elles réellement tenues, ou cachent-elles un recours abusif à la main-d’œuvre humaine au détriment des avancées technologiques ?

Des effets sur l’écosystème technologique

La chute de Builder.ai pourrait engendrer des répercussions au sein de l’écosystème des start-ups. Les investisseurs pourraient devenir plus méfiants envers des entreprises qui avancent des promesses d’automatisation non vérifiées. Ce scandale marque une étape macabre, appelant chaque acteur à revoir son approche du développement technologique et à questionner les fondements même de l’innovation.

Le rôle des grandes entreprises

Microsoft, un des principaux investisseurs, et le Qatar, dont le soutien financier a été crucial, se retrouvent également embarrassés par cette situation. Ces entités doivent maintenant évaluer la rigueur de leurs processus de vérification lors des investissements dans le domaine technologique. Les conséquences de cette affaire pourraient bien les amener à réviser leurs stratégies d’évaluation des start-ups.

Foire aux questions courantes

Qu’est-ce que Builder.ai et quel était son objectif initial ?
Builder.ai était une start-up londonienne fondée en 2016, promettant de simplifier le développement d’applications en utilisant une intelligence artificielle nommée Natasha, censée coder automatiquement.

Comment Builder.ai a-t-elle réussi à attirer des investisseurs comme Microsoft et le Qatar ?
La promesse d’une solution innovante et accessible a convaincu de nombreux investisseurs, en présentant un modèle d’affaires séduisant basé sur des projections de croissance élevées.

Pourquoi la société a-t-elle fait faillite en 2025 ?
Builder.ai a été surévaluée en raison de projections de ventes irréalistes et d’un chiffre d’affaires artificiellement gonflé, ce qui a conduit un créancier à bloquer 37 millions de dollars d’actifs et provoquer la banqueroute de l’entreprise.

Comment l’intelligence artificielle de Builder.ai a-t-elle été réellement alimentée en main-d’œuvre humaine ?
Derrière l’IA Natasha, 700 travailleurs indiens rédigeaient le code à la main, alors que leurs contributions étaient présentées comme issues d’une génération automatisée par l’intelligence artificielle.

Quel était le salaire des travailleurs impliqués dans la génération du code pour Builder.ai ?
Les travailleurs indiens étaient rémunérés entre 8 et 15 dollars de l’heure pour leur contribution à la rédaction du code, loin des tarifs habituellement associés à l’IA.

Quel impact cette révélation a-t-elle eu sur la crédibilité des start-ups technologiques ?
Cette situation a mis en lumière les risques de surévaluation et de désinformation dans le secteur des start-ups, impactant potentiellement la confiance des investisseurs envers les technologies prétendument innovantes.

La situation de Builder.ai est-elle unique ou un reflet de pratiques courantes dans l’industrie ?
Bien que chaque cas soit unique, ce genre de pratiques de manipulation d’information et de surévaluation n’est pas rare dans le secteur des start-ups, soulevant des questions éthiques et pratiques sur la transparence.

Quels sont les enseignements à tirer de l’affaire de Builder.ai concernant l’intelligence artificielle ?
Cette affaire souligne l’importance de la transparence dans les allégations technologiques et la nécessité d’une diligence raisonnable de la part des investisseurs pour éviter les arnaques et les faux-semblants dans le domaine de l’IA.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsune start-up dévoile que son intelligence artificielle était soutenue par 700 humains

le navigateur d’IA Comet de Perplexity arrive bientôt sur Windows, selon le PDG

découvrez l'arrivée imminente du navigateur d'ia comet de perplexity sur windows, une innovation prometteuse selon le pdg. restez à l'écoute pour explorer comment cette technologie révolutionnaire va transformer votre expérience de navigation.
découvrez les étapes clés et les astuces pratiques qui m'ont permis de développer une application de transport en seulement deux heures, en utilisant la méthode innovante du vibe-coding. plongez dans l'univers du codage rapide et efficace !
découvrez comment canva intègre l'intelligence artificielle et la technologie de google pour transformer la création vidéo. apprenez à tirer parti de ces innovations pour réaliser des vidéos captivantes et adaptées à vos besoins.
découvrez comment meta investit 14 milliards de dollars dans scale ai pour solidifier sa place de leader dans le secteur de l'intelligence artificielle. cette décision stratégique vise à propulser l'innovation et à transformer l'avenir de la technologie ai.
découvrez comment l'interdiction de trump sur la régulation de l'intelligence artificielle par les états américains pourrait entraver les progrès technologiques. le directeur scientifique de microsoft partage son point de vue sur les conséquences de cette décision sur l'innovation et le développement de l'ia.

des réseaux neuronaux topographiques qui imitent de près le système visuel humain

découvrez comment les réseaux neuronaux topographiques reproduisent avec précision le fonctionnement du système visuel humain, offrant ainsi une nouvelle perspective sur l'intelligence artificielle et la perception visuelle. plongez dans l'innovation à la croisée des neurosciences et de l'apprentissage automatique.