Conferencia de IA Es Inundada con Revisiones Hechas por Inteligencia Artificial
Hola HaWkers, una noticia reciente levantó discusiones serias sobre la integridad de la investigación científica. Una de las mayores conferencias de inteligencia artificial del mundo descubrió que una porción significativa de las revisiones de papers fue hecha usando herramientas de IA como ChatGPT.
La ironía es imposible de ignorar: investigadores de IA usando IA para revisar investigaciones sobre IA. Pero ¿cuáles son las implicaciones reales de esto?
Lo Que Sucedió
La NeurIPS (Conference on Neural Information Processing Systems), una de las conferencias más prestigiadas de machine learning e inteligencia artificial, identificó un patrón preocupante en las revisiones de papers sometidos en 2025.
Descubrimientos de la Investigación
Datos levantados:
- Análisis de miles de revisiones sometidas
- Detección de patrones lingüísticos típicos de LLMs
- Comparación con revisiones de años anteriores
- Uso de herramientas de detección de texto generado por IA
Señales identificadas:
- Frases formulaicas repetitivas
- Estructura estandarizada de feedback
- Ausencia de críticas específicas al contexto
- Comentarios genéricos que podrían aplicarse a cualquier paper
Escala del Problema
Estimativas del impacto:
- Porcentaje significativo de revisiones con señales de uso de IA
- Aumento exponencial comparado a 2024
- Problema identificado en múltiples tracks de la conferencia
- Revisores de diferentes países e instituciones
Por Qué Esto Es Preocupante
Integridad del Proceso de Peer Review
El peer review es la base de la ciencia moderna. Investigadores especializados evalúan el trabajo de colegas para garantizar calidad, identificar errores y validar contribuciones.
Funciones del peer review:
- Verificar metodología: ¿La investigación fue conducida correctamente?
- Evaluar originalidad: ¿El trabajo trae contribuciones nuevas?
- Identificar errores: ¿Existen fallas lógicas o matemáticas?
- Sugerir mejoras: ¿Cómo el trabajo puede ser perfeccionado?
Problemas con revisiones por IA:
- LLMs no entienden profundamente el contenido
- No pueden verificar experimentos o reproducción
- Generan feedback genérico sin insights especializados
- Pueden aceptar o rechazar papers de forma arbitraria
Impacto en la Carrera Académica
Consecuencias para investigadores:
- Papers rechazados injustamente por revisiones superficiales
- Papers aceptados sin rigor adecuado
- Desigualdad entre quién recibe revisiones humanas vs IA
- Pérdida de confianza en el sistema de publicación
Cómo la IA Está Siendo Usada
Escenarios Identificados
Uso problemático:
- Revisión completa por IA: Revisor copia el paper en ChatGPT y pide una revisión
- Edición de revisiones: Revisión humana mejorada por IA (área gris)
- Múltiples revisiones: Un revisor usando IA para aceptar más papers de los que conseguiría manualmente
Ejemplo de revisión genérica (típica de IA):
"Este paper presenta una contribución interesante para el área. Los experimentos son bien conducidos y los resultados son prometedores. Sugiero que los autores expandan la discusión sobre limitaciones y trabajos futuros. El paper está bien escrito y bien organizado."
Compare con una revisión humana especializada:
"La prueba del Teorema 3.2 en la página 5 asume que la distribución es i.i.d., pero esto contradice la formulación del problema en la Sección 2. Además, los baselines usados en la Tabla 2 son de 2019 y existen métodos más recientes que deberían ser comparados, específicamente [X] e [Y]. El análisis de complejidad también parece ignorar el costo de pre-procesamiento."
Presiones Sobre Revisores
Por qué revisores recurren a IA:
- Volumen creciente de sumisiones (NeurIPS recibe 10.000+ papers)
- Plazos apretados para entrega de revisiones
- Falta de compensación por el trabajo de revisión
- Presión para aceptar múltiples invitaciones de revisión
- Fatiga de revisión en investigadores seniors
Respuesta de la Comunidad Científica
Medidas de NeurIPS
Acciones tomadas:
- Detección: Implementación de herramientas para identificar revisiones por IA
- Políticas: Actualización de las directrices para revisores
- Consecuencias: Remoción de revisores que violaron reglas
- Transparencia: Divulgación pública del problema
Debate en la Comunidad
Posiciones divergentes:
Contra cualquier uso de IA:
- Revisión es responsabilidad profesional
- IA no sustituye expertise humana
- Compromete la integridad científica
Favorables al uso parcial:
- IA puede ayudar a identificar problemas gramaticales
- Puede auxiliar en la organización de pensamientos
- Revisores humanos aún hacen evaluación final
Área gris:
- Usar IA para resumir papers largos
- Verificar referencias y formateo
- Traducir papers de idiomas desconocidos
La Paradoja de la IA Revisando IA
La Ironía Fundamental
Estamos en una situación donde:
Ciclo problemático:
- Investigadores usan IA para escribir papers
- Revisores usan IA para evaluar papers
- Editores usan IA para tomar decisiones
- La "ciencia" producida es una conversación entre LLMs
Riesgos de este ciclo:
- Pérdida de pensamiento crítico humano
- Homogeneización de investigación
- Sesgos de los modelos propagados
- Estancamiento de innovación real
Cuestiones Filosóficas
Preguntas sin respuesta fácil:
- ¿Si una IA puede revisar papers, los revisores humanos son necesarios?
- ¿Cuál es el valor de un diploma si IA hace el trabajo intelectual?
- ¿Cómo distinguir contribución humana de contribución de máquina?
- ¿La ciencia aún es "hecha por humanos, para humanos"?
Lo Que Esto Significa Para Desarrolladores
Impacto en la Calidad de Investigación
Para quien consume investigación:
- Papers aceptados pueden tener menos rigor
- Resultados pueden no ser reproducibles
- Recomendaciones de herramientas pueden ser sesgadas
- Benchmarks pueden ser cuestionables
Cómo Evaluar Papers Ahora
Tips para lectores críticos:
- Verifique reproducción: ¿Código disponible? ¿Datos abiertos?
- Lea metodología: ¿Los experimentos hacen sentido?
- Compare baselines: ¿Están usando métodos recientes?
- Busque segunda opinión: ¿Qué otros investigadores dicen?
- Confíe pero verifique: Implemente usted mismo cuando posible
Posibles Soluciones
Cambios Estructurales
Propuestas en discusión:
- Revisión abierta: Revisiones públicas con nombre del revisor
- Compensación: Pagar revisores por el trabajo
- Límite de invitaciones: Restringir cantidad de revisiones por persona
- Verificación de expertise: Garantizar que revisor conoce el área
- Herramientas de detección: IA para detectar IA
Tecnología Como Solución
Herramientas siendo desarrolladas:
- Detectores de texto generado por IA específicos para académicos
- Sistemas de verificación de expertise de revisores
- Plataformas de revisión con auditoría
- Blockchain para rastrear proceso de revisión
Cambio Cultural
Lo que necesita cambiar:
- Valorizar calidad sobre cantidad de publicaciones
- Reconocer revisión como trabajo valioso
- Reducir presión por publicar a cualquier costo
- Educar sobre uso ético de herramientas de IA
Conclusión
El descubrimiento de que una gran conferencia de IA fue inundada con revisiones hechas por inteligencia artificial es una alerta para toda la comunidad científica. El sistema de peer review, construido a lo largo de siglos, enfrenta su mayor desafío en la era de los LLMs.
Para desarrolladores que consumen investigación académica, esto significa ser más crítico y cuidadoso al evaluar papers y sus recomendaciones. La ciencia de calidad aún depende de humanos comprometidos con rigor e integridad.
Si quieres entender más sobre cómo la IA está transformando el trabajo de desarrolladores, te recomiendo echar un vistazo al artículo sobre 85% de los Desarrolladores Usan IA donde analizamos datos de la investigación de JetBrains.

