Inteligencia artificial
Monetizar la investigación para el entrenamiento de IA: Los riesgos y las mejores prácticas
A medida que crece la demanda de IA generativa, también lo hace el hambre de datos de alta calidad para entrenar estos sistemas. Los editores académicos han comenzado a monetizar su contenido de investigación para proporcionar datos de entrenamiento para grandes modelos de lenguaje (LLM). Si bien este desarrollo está creando un nuevo flujo de ingresos para los editores y empoderando a la IA generativa para los descubrimientos científicos, plantea preguntas críticas sobre la integridad y la confiabilidad de la investigación utilizada. Esto plantea una pregunta crucial: ¿Son de confianza los conjuntos de datos que se venden, y qué implicaciones tiene esta práctica para la comunidad científica y los modelos de IA generativa?
El auge de los acuerdos de investigación monetizados
Los principales editores académicos, incluidos Wiley, Taylor & Francis, y otros, han informado sobre ingresos sustanciales por licenciar su contenido a empresas de tecnología que desarrollan modelos de IA generativa. Por ejemplo, Wiley reveló más de $40 millones en ganancias de tales acuerdos este año solo. Estos acuerdos permiten a las empresas de IA acceder a conjuntos de datos científicos diversos y expansivos, mejorando presumiblemente la calidad de sus herramientas de IA.












