GitHub anuncia que a partir del 24 de abril utilizará por defecto los datos de los usuarios de Copilot para entrenar modelos de IA

robot
Generación de resúmenes en curso

null

GitHub anunció recientemente que actualizará su política de repositorios a partir del 24 de abril de 2026, planeando utilizar datos de interacción de los usuarios para entrenar sus modelos de IA. La recopilación de datos incluirá a usuarios de Copilot Free, Pro y Pro+, abarcando entradas y salidas del modelo, fragmentos de código, información contextual, estructura del repositorio y registros de chat.

El director de producto de GitHub, Mario Rodriguez, afirmó que la incorporación de datos de interacción busca mejorar la precisión y seguridad de las sugerencias de código del modelo, y que las pruebas previas con datos internos de Microsoft ya han aumentado significativamente la tasa de aceptación de las sugerencias. Es importante destacar que esta política adopta un mecanismo de “inscripción predeterminada”, en el que los usuarios afectados deben ingresar manualmente a la configuración de privacidad para desactivar la opción y salir, lo que ha generado amplios debates en la comunidad de desarrolladores sobre la definición de repositorios privados y la propiedad de los datos.

Actualmente, los usuarios de Copilot Business, Enterprise y la versión educativa, que están sujetos a términos contractuales, no se ven afectados por este cambio. GitHub enfatizó en su comunicado que esta medida está en línea con las prácticas comunes de grandes empresas como Anthropic, JetBrains y Microsoft. Sin embargo, incluir el código de repositorios privados en el conjunto de entrenamiento desafía los límites tradicionales del concepto de “privacidad”, incluso si GitHub afirma que su objetivo es optimizar el flujo de trabajo de desarrollo.

Desde una perspectiva industrial, a medida que los datos de código público de alta calidad se agotan, los principales proveedores de IA están acelerando la exploración de datos “profundos”, como datos de interacción privada, para obtener beneficios en el rendimiento de sus modelos. Este cambio de política no solo marca una inclinación de GitHub desde una plataforma de alojamiento de código abierto hacia un ecosistema de entrenamiento de IA cerrado, sino que también indica que el campo de las herramientas de desarrollo de IA está entrando en una nueva etapa de competencia en cuanto a cumplimiento de datos y evolución de modelos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado