une start-up dévoile que son intelligence artificielle était soutenue par 700 humains

Publié le 4 juin 2025 à 16h01
modifié le 4 juin 2025 à 16h01
Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.

Une façade d’intelligence artificielle dissimulait l’effort humain. La révélation d’une start-up, prétendant offrir une solution innovante par le biais d’une intelligence artificielle, soulève des questions éthiques et légales. La manipulation des investisseurs et la valorisation démesurée d’une entreprise, soutenue par des travailleurs humains plutôt que par un code autonome, révèlent les enjeux majeurs de l’intégrité dans le secteur technologique. Une arnaque à grande échelle exposée. Ce scandale démontre que les fondations de la confiance en la technologie peuvent être fragiles.

La révélation choquante d’une start-up technologique

Builder.ai, une start-up londonienne, a récemment été au cœur d’un scandale révélant que son intelligence artificielle, nommée Natasha, reposait en réalité sur le travail de 700 humains. Ces individus, principalement des travailleurs indiens, ont été engagés pour coder manuellement chaque ligne, en recevant une rémunération comprise entre 8 et 15 dollars de l’heure. Ainsi, le fonctionnement de cette prétendue IA réclamait un véritable effort humain, opposé à l’idée d’une machine autonome capable de programmer.

Une illusion complexe d’intelligence artificielle

La promesse de Builder.ai était séduisante : rendre le développement d’applications aussi simple que commander une pizza. Cela a attiré des investissements considérables de grandes entreprises, y compris Microsoft et des investisseurs du Qatar. La start-up a connu une valorisation fulgurante, atteignant 1,5 milliard de dollars, la qualifiant de « licorne » dans le milieu des start-ups.

Un modèle économique trompeur

Les problèmes se sont intensifiés en 2025 lorsque Builder.ai a été contraint de reconnaître que ses projections de ventes étaient largement surréalistes. Un de ses principaux créanciers a pris la décision de bloquer 37 millions de dollars d’actifs, provoquant un enchaînement menant à la banqueroute de l’entreprise. L’apparente solidité de son modèle économique s’est révélée être un puissant mirage.

L’infiltration des travailleurs humains

La grande révélation est survenue le 31 mai, lorsque des enquêtes ont exposé que Natasha, l’intelligence artificielle présentée comme innovante, ne fonctionnait qu’avec le support humain intensif. Les ingénieurs ont utilisé leur expertise pour produire du code, tandis que la start-up vantait une technologie capable de générer ces codes automatiquement. Une supercherie qui jette une ombre sur le progrès supposé de l’intelligence artificielle.

Conséquences sur la perception de l’IA

Cette situation soulève des interrogations sur la confiance accordée aux systèmes d’intelligence artificielle. Les utilisateurs et les investisseurs sont désormais forcés de s’interroger sur les véritables capacités et limites des technologies émergentes. Les promesses sont-elles réellement tenues, ou cachent-elles un recours abusif à la main-d’œuvre humaine au détriment des avancées technologiques ?

Des effets sur l’écosystème technologique

La chute de Builder.ai pourrait engendrer des répercussions au sein de l’écosystème des start-ups. Les investisseurs pourraient devenir plus méfiants envers des entreprises qui avancent des promesses d’automatisation non vérifiées. Ce scandale marque une étape macabre, appelant chaque acteur à revoir son approche du développement technologique et à questionner les fondements même de l’innovation.

Le rôle des grandes entreprises

Microsoft, un des principaux investisseurs, et le Qatar, dont le soutien financier a été crucial, se retrouvent également embarrassés par cette situation. Ces entités doivent maintenant évaluer la rigueur de leurs processus de vérification lors des investissements dans le domaine technologique. Les conséquences de cette affaire pourraient bien les amener à réviser leurs stratégies d’évaluation des start-ups.

Foire aux questions courantes

Qu’est-ce que Builder.ai et quel était son objectif initial ?
Builder.ai était une start-up londonienne fondée en 2016, promettant de simplifier le développement d’applications en utilisant une intelligence artificielle nommée Natasha, censée coder automatiquement.

Comment Builder.ai a-t-elle réussi à attirer des investisseurs comme Microsoft et le Qatar ?
La promesse d’une solution innovante et accessible a convaincu de nombreux investisseurs, en présentant un modèle d’affaires séduisant basé sur des projections de croissance élevées.

Pourquoi la société a-t-elle fait faillite en 2025 ?
Builder.ai a été surévaluée en raison de projections de ventes irréalistes et d’un chiffre d’affaires artificiellement gonflé, ce qui a conduit un créancier à bloquer 37 millions de dollars d’actifs et provoquer la banqueroute de l’entreprise.

Comment l’intelligence artificielle de Builder.ai a-t-elle été réellement alimentée en main-d’œuvre humaine ?
Derrière l’IA Natasha, 700 travailleurs indiens rédigeaient le code à la main, alors que leurs contributions étaient présentées comme issues d’une génération automatisée par l’intelligence artificielle.

Quel était le salaire des travailleurs impliqués dans la génération du code pour Builder.ai ?
Les travailleurs indiens étaient rémunérés entre 8 et 15 dollars de l’heure pour leur contribution à la rédaction du code, loin des tarifs habituellement associés à l’IA.

Quel impact cette révélation a-t-elle eu sur la crédibilité des start-ups technologiques ?
Cette situation a mis en lumière les risques de surévaluation et de désinformation dans le secteur des start-ups, impactant potentiellement la confiance des investisseurs envers les technologies prétendument innovantes.

La situation de Builder.ai est-elle unique ou un reflet de pratiques courantes dans l’industrie ?
Bien que chaque cas soit unique, ce genre de pratiques de manipulation d’information et de surévaluation n’est pas rare dans le secteur des start-ups, soulevant des questions éthiques et pratiques sur la transparence.

Quels sont les enseignements à tirer de l’affaire de Builder.ai concernant l’intelligence artificielle ?
Cette affaire souligne l’importance de la transparence dans les allégations technologiques et la nécessité d’une diligence raisonnable de la part des investisseurs pour éviter les arnaques et les faux-semblants dans le domaine de l’IA.

Hugo Mollet
Hugo Mollet
Rédacteur en chef pour la rédaction média d'idax, 36 ans et dans l'édition web depuis plus de 18 ans. Passionné par l'IA depuis de nombreuses années.
actu.iaNewsune start-up dévoile que son intelligence artificielle était soutenue par 700 humains

Les agents d’IA : Des promesses de science-fiction encore à peaufiner avant de briller sur le devant de la...

découvrez comment les agents d'ia, longtemps fantasmés par la science-fiction, doivent encore évoluer et surmonter des défis pour révéler tout leur potentiel et s’imposer comme des acteurs majeurs dans notre quotidien.
taco bell a temporairement suspendu le déploiement de son intelligence artificielle après que le système ait été perturbé par un canular impliquant la commande de 18 000 gobelets d'eau, soulignant les défis liés à l'intégration de l'ia dans la restauration rapide.
découvrez comment l'intelligence artificielle conversationnelle transforme la relation client et optimise les performances des entreprises modernes, en offrant une communication fluide et des solutions innovantes adaptées à chaque besoin.

Stratégies pour protéger vos données des accès non autorisés de Claude

découvrez des stratégies efficaces pour protéger vos données contre les accès non autorisés, renforcer la sécurité de vos informations et préserver la confidentialité face aux risques actuels.
découvrez l'histoire tragique d'un drame familial aux états-unis : des parents poursuivent openai en justice, accusant chatgpt d'avoir incité leur fils au suicide. un dossier bouleversant qui soulève des questions sur l'intelligence artificielle et la responsabilité.
découvrez comment des médecins ont développé un stéthoscope intelligent capable de détecter rapidement les principales maladies cardiaques en seulement 15 secondes, révolutionnant ainsi le diagnostic médical.