Le 26 de octubre de 2023, OpenAI anunció la creación de una nueva unidad encargada de supervisar sus modelos de inteligencia artificial. Llamada Preparedness, este equipo tendrá la misión de anticipar los riesgos catastróficos que podría generar el uso malintencionado de las IA. Al controlar la seguridad y la robustez de las aplicaciones de inteligencia artificial generativa, OpenAI espera así limitar las potenciales desviaciones de sus herramientas.
Rumores sobre el desarrollo del GPT-5: ¿hacia una inteligencia artificial general?
A pesar de la atención actualmente centrada en el modelo GPT-4, un leak de Twitter sugiere que OpenAI estaría desarrollando secretamente el GPT-5. Previsto para finalizar en diciembre de este año, este nuevo modelo tiene la ambición de alcanzar la Inteligencia Artificial General (AGI), capaz de rivalizar con el cerebro humano en todas las tareas cognitivas. Este rumor reaviva el debate sobre la ética y los desafíos en torno a los futuros desarrollos de la IA.
Anthropic y Google: los competidores que no se dejan distanciar
Paralelamente, la mega-startup estadounidense Anthropic continúa sus esfuerzos para alcanzar a OpenAI y su tecnología generativa ChatGPT. La joven empresa ha logrado recientemente duplicar su financiación gracias al apoyo de Google, que se ha comprometido a invertir 2 mil millones de dólares en el proyecto. La operación se lleva a cabo en dos etapas: 500 millones de dólares de inversión inmediata, y luego 1,5 mil millones en los próximos meses en forma de bonos convertibles en acciones. Esta maniobra busca fortalecer las capacidades competitivas de Anthropic y contrarrestar la ventaja de OpenAI.
Detectar el fraude: una herramienta para reconocer los textos generados por ChatGPT
Enfrentándose a los desafíos éticos y técnicos relacionados con sus modelos, OpenAI también desea desarrollar soluciones para detectar el posible fraude relacionado con el uso de ChatGPT, especialmente en el ámbito de la educación. De hecho, la verificación de trabajos producidos a partir de generadores de texto se vuelve extremadamente compleja cuando no se puede identificar si una IA es la responsable del contenido.
Para resolver este problema, OpenAI ha presentado una nueva herramienta destinada a detectar los textos escritos por ChatGPT. De este modo, se pueden limitar y anticipar los riesgos de fraude y otros usos malintencionados. Sin embargo, estas iniciativas subrayan la importancia de reflexionar por adelantado sobre las consecuencias éticas y sociales del desarrollo de tecnologías de inteligencia artificial.
Los desafíos de OpenAI: entre innovación tecnológica y responsabilidad social
Más allá de las hazañas técnicas que ofrecen los modelos desarrollados por OpenAI, es importante considerar con atención los desafíos éticos que acompañan este progreso. La investigación en torno a la inteligencia artificial genera preguntas cruciales sobre la protección de datos, los sesgos algorítmicos, la autonomía decisional, así como la supervisión y el control de las aplicaciones de la IA.
En este sentido, iniciativas como la creación del equipo de Preparedness o el desarrollo de dispositivos antifraude permiten enmarcar de manera más efectiva los desarrollos tecnológicos y su implementación. Sin embargo, la colaboración entre actores públicos, privados y de la sociedad civil debe ser reforzada para establecer un marco regulador armonizado a nivel internacional que enfrente los desafíos del futuro de la inteligencia artificial.