Ciencia y tecnología

Ahora la empresa planea beneficiarse a sí misma a expensas de sus competidores, según el FT.

Profundo, la compañía que se especializa en Inteligencia Artificial (IA), ha sido objeto de conversación en la industria desde su adquisición por Google en 2014, así como por su integración total en abril de 2023. El impacto de esta integración ha sido significativo, consolidando su posición como líder en el sector. A medida que ha pasado el tiempo, Profundo ha demostrado su valía no solo a través de la calidad de sus publicaciones científicas, sino también al atraer a algunos de los investigadores más brillantes del campo. No obstante, existen razones para cuestionar si esta estrategia actual debe ser reconsiderada.

Varios expertos, como se indica en un artículo del Financial Times, han comentado sobre la tendencia de Google DeepMind a retrasar la publicación de ciertos avances que consideran «estratégicos» o sensibles en el ámbito de la IA generativa. Esta táctica es parte de un enfoque más amplio destinado a mantener su ventaja competitiva y a proteger sus desarrollos más valiosos de la competencia, especialmente de entidades como OpenAI, que están a la vanguardia de la innovación en inteligencia artificial.

Transformers, arquitectura de estrella

Gran parte del avance en la inteligencia artificial generativa es el resultado directo del trabajo realizado por Google. Un hito relevante fue la publicación en 2017 del artículo titulado ‘La atención es todo lo que necesitas‘, escrito por un equipo de ocho investigadores que presentó al mundo la Arquitectura de Transformadores. Esta innovadora estructura permitió a los modelos procesar datos de una manera mucho más eficiente, incluso con grandes volúmenes de información, revolucionando así la forma en que las máquinas comprenden el lenguaje natural.

La adopción de esta arquitectura fue fundamental para el desarrollo de importantes modelos como BERT (Representaciones de transformadores de codificadores bidireccionales), que Google integró en su motor de búsqueda en 2019. Este avance no solo mejoró la comprensión del lenguaje natural en sus aplicaciones, sino que también se convirtió en un pilar clave para el surgimiento de sistemas contemporáneos como GPT (Transformadores Generativos) de OpenAI, que actualmente incluyen versiones avanzadas como GPT-4 y GPT-4.5.

Google es indudablemente una de las sociedades más prominentes y con mayor capital del mundo. La compañía no solo cuenta con un gran músculo financiero, sino también con acceso a las tecnologías más innovadoras del sector. Sin embargo, la llegada de GPT-3.5, un modelo que se basa en la arquitectura de transformadores y que obtuvo un gran reconocimiento, sorprendió a los equipos liderados por Sundar Pichai. La reacción de Google fue inmediata, provocando un estado de «código rojo» y una reestructuración urgente con el fin de recuperar su competitividad en la acelerada carrera de IA, donde OpenAI era el principal rival.

No hay duda de que cuando una empresa alcanza un considerable tamaño tecnológico, a menudo pierde parte del dinamismo que solía tener en sus primeros días como startup. A medida que se expanden, se convierten en gigantes donde el principio de «moverse rápido y romper cosas» ya no es aplicable. Estas grandes corporaciones tienen mucho más que proteger y equipos conformados por miles de integrantes que no pueden permitirse cometer errores, transformando el riesgo en un concepto más complicado de manejar.

En este contexto, resulta sorprendente la velocidad con la que la compañía del motor de búsqueda ha lanzado nuevos productos basados en inteligencia artificial. Han surgido numerosos avances recientes, tales como Gemini, un competidor directo de ChatGPT; Gemini Live, que está diseñado para rivalizar con el avanzado modo de voz de OpenAI; y herramientas innovadoras como Notebooklm, junto con modelos de IA que actúan como versiones personalizadas de GPT.

El nuevo Google Pulse

En los últimos años, la firma de Mountain View se ha visto en la necesidad de implementar cambios significativos en su estructura interna. Uno de los efectos más relevantes ha sido la nueva política respecto a la publicación de artículos científicos, que establece un periodo de espera de seis meses para aquellos contenidos considerados estratégicos antes de ser divulgados al público. Además, el equipo, encabezado por el prominente ganador del Premio Nobel, Sir Demis Hassabis, ha implementado procesos internos más rigurosos que incluyen revisiones más exhaustivas.

Un investigador, que optó por permanecer en el anonimato al hablar con los analistas de Financial Times, fue claro en sus declaraciones: es difícil imaginar que Google publique hoy un documento como el de Transformers para uso general. En este nuevo ecosistema organizacional, afirman que “la compañía se ha vuelto más preocupada por el producto y menos dispuesta a compartir los resultados de su investigación para el beneficio del bien común”, una dirección que podría causar cierta inquietud dentro de la comunidad de desarrollo y búsqueda de la IA.

Fotos | Boliviainteligente | Google DeepMind

En | OpenAI acaba de levantar la ronda de financiamiento más grande de la historia: a pesar de todo, hay una confianza ciega en la IA