Blog

Noticias

Google Usó ChatGPT para Mejorar su IA: Revelaciones de Scale AI

Thalios AI en Thalios - AI for humans   16/06/2025   10:49:39   1022
Google Usó ChatGPT para Mejorar su IA: Revelaciones de Scale AI

En 2023, Google se encontraba en una carrera contrarreloj para competir con ChatGPT, el revolucionario chatbot de OpenAI. Lo irónico es que, Google recurrió a la propia tecnología de ChatGPT para mejorar su modelo, Bard (ahora conocido como Gemini).

Este artículo explora cómo los contratistas de Scale AI, una empresa clave en el desarrollo de inteligencia artificial, utilizaron respuestas generadas por ChatGPT para optimizar Bard, revelando detalles internos que permanecían ocultos hasta ahora.

El Papel de Scale AI en el Desarrollo de Bard

Scale AI es una startup de San Francisco especializada en tareas esenciales para el entrenamiento de modelos de IA. Entre sus clientes se encuentran gigantes tecnológicos como Google y Meta, que dependen de sus servicios para etiquetar datos, evaluar respuestas y mejorar algoritmos.

Según los documentos filtrados, Scale AI empleó a cientos de contratistas humanos para comparar las respuestas de Bard con las de ChatGPT. El objetivo era claro: identificar las deficiencias de Bard y reescribir sus respuestas para igualar o superar a ChatGPT.

El Proceso de Mejora

Los trabajadores de Scale AI seguían un protocolo detallado:

  1. Generar respuestas con ChatGPT sobre diversos temas.

  2. Compararlas con las respuestas originales de Bard.

  3. Reescribir las respuestas de Bard para que fueran más detalladas, mejor estructuradas y más atractivas.

  4. Enviar los datos a Google para su posterior análisis y ajustes en el modelo.

En algunos casos, los contratistas recibían bonificaciones si sus reescrituras superaban en calidad a las de ChatGPT.


Las Debilidades de Bard y la Superioridad de ChatGPT

Los documentos revelan que los gestores de Scale AI identificaron varias áreas en las que Bard quedaba por detrás de su competidor:

  • Formato: Las respuestas de ChatGPT tendían a ser más organizadas y visualmente atractivas.

  • Contenido: ChatGPT proporcionaba información más interesante y detallada.

  • Precisión: En temas técnicos como ingeniería o física, ChatGPT mostraba mayor rigurosidad.

Un ejemplo destacado fue la comparación de reseñas de productos. En una evaluación de una silla de nursery, la respuesta de Bard fue marcada como "peor que GPT4" por falta de detalles.


¿Fue Ético el Uso de ChatGPT por Parte de Google?

OpenAI prohíbe en sus términos de servicio el uso de sus salidas para "desarrollar modelos competidores". Sin embargo, ni Google ni Scale AI aclararon si obtuvieron permiso para realizar estas comparaciones.

Ambas empresas negaron que las respuestas de ChatGPT se usaran para entrenar directamente a Gemini, argumentando que solo se trataba de evaluaciones comparativas, una práctica común en la industria.

No obstante, expertos como Matthew Guzdial, profesor de Ciencias de la Computación en la Universidad de Alberta, señalan que este tipo de evaluaciones pueden influir indirectamente en el entrenamiento del modelo, ya que los desarrolladores ajustan sus algoritmos en función de los resultados.


El Proyecto "Bulba": El Código Secreto de Google

Internamente, Scale AI se refería a Bard con el nombre en clave "Bulba", inspirado en el Pokémon Bulbasaur. Los documentos muestran que el objetivo del proyecto era claro: analizar las debilidades de Bulba frente a ChatGPT y corregirlas.

En julio de 2023, un gestor de Scale AI instruyó a los trabajadores:

*"Estudien las respuestas de GPT-4 y determinen por qué son mejores. Proporcionen feedback para que los expertos puedan escribir respuestas que igualen o superen a GPT4."*


Filtración de Documentos Confidenciales

Uno de los aspectos más preocupantes de esta historia es que cientos de documentos internos de Scale AI quedaron expuestos públicamente en un Google Doc accesible para cualquiera con el enlace.

Entre la información filtrada se incluyen:

  • Detalles de compensación de contratistas.

  • Direcciones de correo electrónico personales.

  • Contraseñas activas para sesiones de entrenamiento interno.

Scale AI afirmó que está investigando cómo ocurrió esta filtración y tomando medidas para solucionarlo. Sin embargo, los documentos permanecieron en línea más de dos días después de que Business Insider alertara a la empresa.


Google Recupera el Liderazgo en IA con Gemini

A pesar de los tropiezos iniciales de Bard, Google ha logrado reposicionarse en la carrera de la IA. En 2025, relanzó su chatbot bajo el nombre Gemini y presentó más de 100 nuevas funciones de IA en su conferencia anual Google I/O.

Sundar Pichai, CEO de Google, destacó que Gemini supera a la competencia en múltiples benchmarks, demostrando que la compañía ha aprendido de sus errores y está innovando a un ritmo acelerado.

A considerar

La revelación de que Google utilizó ChatGPT para mejorar Bard plantea preguntas sobre la ética en el desarrollo de IA y la delgada línea entre evaluación y entrenamiento. Aunque Google y Scale AI insisten en que no hubo violación de términos, el caso expone cómo la competencia en inteligencia artificial puede llevar a estrategias controvertidas.

Lo cierto es que, gracias a estos esfuerzos, Google ha logrado recuperar terreno en la carrera de la IA, demostrando que incluso los gigantes tecnológicos pueden necesitar ayuda externa para mantenerse a la vanguardia.


tags: Google Bard, ChatGPT, Scale AI, inteligencia artificial, Gemini IA, entrenamiento de modelos de IA, comparación de chatbots, ética en IA, Google vs OpenAI

Aviso Legal:

El contenido de este blog tiene fines informativos y refleja opiniones personales sobre inteligencia artificial, automatización y tecnología. No constituye asesoramiento profesional.

Aunque en Thalios nos esforzamos por ofrecer información precisa y actualizada, no garantizamos su exactitud, integridad o vigencia. Parte del contenido puede estar inspirado en múltiples fuentes disponibles públicamente en internet. No asumimos responsabilidad por errores, omisiones, ni por el uso o interpretación de los contenidos publicados.

Los temas tratados pueden cambiar con rapidez. Se recomienda verificar fuentes complementarias antes de tomar decisiones basadas en esta información.

No controlamos ni respaldamos el contenido de sitios de terceros enlazados. Todo el contenido publicado es propiedad de Thalios o se utiliza bajo licencia, y su reproducción no autorizada está prohibida.

El uso de este sitio implica la aceptación de estos términos y la renuncia a cualquier reclamo legal contra los autores o Thalios por el uso del contenido.