Frobes / 2023 fue el año de la IA. Tras el lanzamiento de ChatGPT en noviembre de 2022, se convirtió en una de las aplicaciones de más rápido crecimiento, con 100 millones de usuarios mensuales en dos meses. Con la IA convirtiéndose en el tema más candente del año (tal y como Bill Gates predijo en enero), una serie de startups irrumpieron en el mercado con herramientas de IA capaces de generar desde voz sintética hasta videos. Evidentemente, la IA avanzó mucho desde principios de año, cuando la gente se preguntaba si ChatGPT sustituiría a la búsqueda de Google.

“Me interesa mucho más pensar en lo que viene más allá de la búsqueda… ¿Qué hacemos que sea totalmente diferente y mucho más genial?”, declaró Sam Altman, CEO de OpenAI, a Forbes en enero.

Los rápidos avances tecnológicos atrajeron la atención de los inversores de capital riesgo, que invirtieron miles de millones de dólares en el sector. A la cabeza se situó la inversión de 10.000 millones de dólares de Microsoft en OpenAI, la MVP de la IA, que ahora se valora en 80.000 millones de dólares. En junio, Inflection, una empresa emergente de IA, publicó su chatbot Pi y recaudó 1.300 millones de dólares con una valoración de 4.000 millones.

Un mes después, Hugging Face, que alberga miles de modelos de IA de código abierto, alcanzó una valoración de 4.000 millones de dólares. En septiembre, Amazon anunció que planea invertir 4.000 millones de dólares en Anthropic, la competencia de OpenAI, que lanzó su propio chatbot conversacional Claude 2.0 en julio y está valorado hoy en 25.000 millones de dólares.

Pero no todos los fundadores de IA tuvieron un camino directo hacia la recaudación de fondos. Stability AI consiguió financiación con una valoración de 1.000 millones de dólares en septiembre de 2022 para su popular modelo de IA de texto a imagen Stable Diffusion, pero desde entonces tuvo problemas para recaudar fondos. Su CEO, Emad Mostaque, hizo afirmaciones engañosas sobre sus propias credenciales y las asociaciones estratégicas de la empresa a los inversores, según descubrió una investigación de Forbes en junio.

En diciembre, un estudio de Stanford descubrió que el conjunto de datos utilizado para entrenar a Stable Diffusion contenía material ilegal de abusos sexuales a menores.

La fiebre del oro de la IA dio lugar a otros unicornios, como Adept, que crea asistentes de IA que pueden navegar por Internet y ejecutar programas de software por ti, y Character AI, que utilizan 20 millones de personas para crear y chatear con personajes de chatbot de IA como Taylor Swift y Elon Musk. Las startups de IA generativa centradas en la empresa, como Typeface, Writer y Jasper, que ayudan a las empresas a automatizar tareas como la redacción de correos electrónicos y el resumen de documentos extensos, también recibieron una gran afluencia de financiación.

Pero en medio de la carrera por crear y lanzar herramientas de IA, Google se encontró con que no puede hacer nada y está tratando de ponerse al día. El gigante tecnológico lanzó su chatbot de IA conversacional Bard y su propio modelo de IA Gemini a finales de año.

La penetración de la IA en la vida diaria
En el último año, la IA penetró prácticamente en todas las facetas de la vida. A los profesores les preocupaba que los alumnos utilizaran ChatGPT para hacer trampas en las tareas, y la herramienta se prohibió en los distritos escolares más populares de EE.UU. Los médicos y hospitales empezaron a utilizar herramientas de IA generativa no sólo para tomar apuntes y hacer trabajo sucio, sino también para diagnosticar a los pacientes. Mientras algunos candidatos políticos empezaron a desplegar la IA en sus campañas para interactuar con posibles votantes, otros utilizaron herramientas de IA generativa para crear falsificaciones profundas de adversarios políticos.

Los contenidos generados por IA inundaron Internet, despertando la preocupación por la explotación de herramientas de IA ampliamente disponibles para crear contenidos tóxicos. Por ejemplo, las noticias falsas producidas con programas de IA generativa se hicieron virales en TikTok y YouTube, y el porno no consentido generado con IA se difundió en Reddit y Etsy. A medida que los contenidos de baja calidad generados por IA poblaban la web, ChatGPT causaba estragos en el mundo de los freelance, ya que muchos temían perder sus trabajos a manos del nuevo software de IA que puede generar contenidos más rápido y más barato que los humanos.

Las empresas también utilizaron chatbots de IA para seleccionar, entrevistar y contratar empleados, lo que hizo saltar las alarmas sobre los prejuicios y los riesgos incorporados a la tecnología. Los ciberdelincuentes encontraron útil ChatGPT para escribir código de malware y otros lo utilizaron como herramienta de vigilancia en las redes sociales. Para combatir algunos de estos problemas, gigantes tecnológicos como Microsoft y Google contrataron equipos rojos para hacer jailbreak a sus propios modelos de IA y hacerlos más seguros.

“Aún quedan muchas cuestiones por resolver”, afirma Regina Barzila, profesora de Ingeniería Eléctrica e Informática del MIT CSAIL. “Necesitamos tener herramientas que puedan descubrir qué tipo de problemas y sesgos hay en estos conjuntos de datos y tener meta tecnologías de IA que puedan regular la IA y ayudarnos a estar en una posición mucho más segura que donde estamos hoy con la IA”.

Escándalos por derechos de autor
En 2023, startups líderes en IA como OpenAI, Stability AI y Anthropic se vieron afectadas por una oleada de demandas por infracción de derechos de autor por parte de artistas, escritores y programadores, que alegaban que estas herramientas estaban construidas sobre vastos conjuntos de datos que utilizaban sus contenidos protegidos por derechos de autor sin consentimiento ni remuneración. El experto legal Edward Klaris predice que estas demandas colectivas crearán espacio para nuevas normas matizadas en torno al uso justo de la IA por parte de la Oficina de Derechos de Autor de EE.UU. en 2024.

“En el mundo legal hay un gran número de transacciones de IA que están sucediendo. Algunas personas están molestas porque su trabajo fue desechado para crear datos de entrenamiento y quieren poder licenciar su contenido a las empresas de IA y que se les pague por el uso de su material”, dijo Klaris, CEO y socio gerente del bufete de abogados de derechos de propiedad intelectual KlarisIP.

La lucha por el poder
En 2023 también se produjo una fractura entre los líderes de la IA, que están divididos sobre si la tecnología de la IA debe desarrollarse abiertamente o por empresas poderosas a puerta cerrada, como Google, OpenAI y Anthropic. Algunos se refirieron a los problemas de seguridad asociados a los modelos de IA de código abierto, ya que cualquiera podría hacer un mal uso de ellos. Otros, como el científico jefe de Meta AI, Yann LeCun, que supervisó el desarrollo del modelo de código abierto Llama 2 de Meta, son partidarios de realizar pruebas de estrés de la IA de código abierto de forma abierta y transparente.

“Los grandes modelos lingüísticos de código abierto alcanzarán el nivel de los grandes modelos lingüísticos de código cerrado en 2024”, declaró Clement Delangue en una rueda de prensa.

A finales de noviembre se hizo pública una división interna cuando el CEO de OpenAI, Sam Altman, fue expulsado de la empresa por su consejo de administración, que citó que no había sido “sincero” con sus declaraciones ante el consejo. Pocos días después, fue restituido en su anterior cargo de CEO, después de que los empleados amenazaran con abandonar la empresa si Altman no regresaba. La empresa también incorporó nuevos directores a su consejo, entre ellos Bret Taylor y Larry Summers.

Según Delangue, las preguntas clave que quedan por responder en 2024 giran en torno a la economía de la IA, concretamente sobre cómo conseguirán estas nuevas empresas de IA obtener márgenes de beneficio y hacer ganar dinero a sus inversores. La mayoría de los modelos de IA, que dependen de las GPU de gigantes de los semiconductores como Nvidia y AMD, son cada vez más costosos y tienen una gran huella de carbono, ya que necesitan ser entrenados con grandes cantidades de datos.

“En 2024, la mayoría de las empresas se darán cuenta de que los modelos más pequeños, baratos y especializados tienen más sentido para el 99% de los casos de uso de la IA”, afirma Delangue.

Shares: