En el último año, la startup japonesa Sakana AI tras su capitalización por 200 millones de USD en 2024 ha captado la atención del mundo académico con un proyecto tan ambicioso como provocador: el Científico de IA. Esta plataforma promete automatizar, de principio a fin, el ciclo de vida de la investigación científica, especialmente en el campo del aprendizaje automático.

Figura. Logo de Sakana AI.
Con versiones progresivamente más sofisticadas, Sakana AI plantea un escenario que oscila entre la revolución científica y la inquietud ética. Pero, ¿qué tan cerca estamos realmente de una inteligencia artificial capaz de producir ciencia genuina? Y más importante aún, ¿cómo podría esta herramienta transformar la investigación en áreas como la salud?
De la idea al artículo sin humanos: evolución de Sakana AI
Versión 1: la promesa inicial
La primera versión del Científico de IA (Lu et al., 2024) ya era notable por su enfoque integral: integraba módulos diseñados para generar ideas originales, diseñar experimentos reproducibles, analizar grandes volúmenes de datos, escribir artículos científicos estructurados y hasta simular su revisión por pares con criterios objetivos. Esta arquitectura se basaba principalmente en el uso de plantillas predefinidas y en el aprovechamiento de recursos como Semantic Scholar para garantizar la novedad y pertinencia de las propuestas generadas por el sistema.
En pruebas de concepto realizadas por Sakana AI, esta primera versión demostró su capacidad para producir artículos científicos válidos y coherentes en subcampos como redes neuronales pequeñas (NanoGPT), modelos de difusión bidimensionales y el fenómeno del grokking. Los resultados fueron particularmente llamativos por su bajo costo: menos de $15 dólares por artículo, lo que sugiere un modelo escalable y accesible para automatizar ciertas partes del proceso investigativo. Además, el código abierto y las plantillas ofrecidas en GitHub facilitaron la replicabilidad de estos trabajos por parte de la comunidad.
No obstante, la versión 1 presentaba limitaciones significativas. Dependía en gran medida de plantillas humanas preconfiguradas, lo que restringía su capacidad para explorar ideas completamente nuevas sin dirección externa. Asimismo, requería que los usuarios proporcionaran un marco experimental inicial que guiara el comportamiento del sistema. Esto implicaba que, aunque automatizaba muchos aspectos del trabajo científico, todavía no podía operar de manera completamente autónoma ni reemplazar el criterio experto en las fases críticas del diseño experimental.
Versión 2: autonomía creciente
Con la versión 2 (Yamada et al., 2025), Sakana dio un salto cualitativo importante: el sistema dejó de requerir plantillas humanas prediseñadas y adoptó una arquitectura mucho más flexible y generalizable, que incluía una búsqueda progresiva basada en árboles de agentes. Esta estrategia le permitió explorar de manera sistemática diferentes trayectorias experimentales, ramificando opciones a partir de resultados previos y ajustando su rumbo con base en la retroalimentación obtenida. Como resultado de esta mejora en su autonomía, el sistema logró una hazaña significativa: un artículo completamente generado por el Científico de IA fue aceptado en un taller de la prestigiosa conferencia ICLR 2025, marcando un hito simbólico en la historia de la investigación automatizada.
Además, la versión 2 incorporó un sistema de retroalimentación visual (VLM) que le permitió mejorar no solo la calidad estética de las figuras de los artículos, sino también su capacidad comunicativa y coherencia con los resultados descritos. De forma complementaria, también incluyó agentes especializados en la gestión de experimentos, responsables de planificar, monitorear y corregir las etapas experimentales de forma iterativa. Esta combinación de componentes aumentó el grado de autonomía del sistema en la selección de métodos, ajuste de parámetros y formulación de hipótesis.
Sin embargo, a pesar de estos avances, sus resultados aún presentan importantes inconsistencias: errores metodológicos no detectados, citas imprecisas, figuras redundantes o mal ubicadas, y ocasionales afirmaciones no respaldadas por los datos. Aun así, es evidente que la frontera entre lo generado por IA y lo producido por humanos comienza a difuminarse de forma acelerada, abriendo interrogantes sobre el papel que deberán asumir los investigadores humanos en esta nueva era de colaboración hombre-máquina.
Primera publicación formal en ICLR 2025

El 13 de abril de 2025, Sakana AI anunció que su sistema AI Scientist logró, por primera vez, la publicación formal de un artículo generado de forma completamente autónoma por una inteligencia artificial. Esta publicación tuvo lugar en el taller «Agentic AI for Science» de la conferencia internacional ICLR 2025.
¿Qué significó esta publicación?
El artículo, titulado «Regularización composicional: obstáculos inesperados en la mejora de la generalización de redes neuronales», fue concebido, diseñado, ejecutado y redactado íntegramente por el sistema AI Scientist, sin intervención humana directa. Aunque el estudio presentaba un resultado negativo, fue revisado por pares humanos del comité académico y aceptado para su presentación. Esto valida no solo la capacidad técnica del sistema, sino también su potencial como agente de exploración científica.
Implicaciones clave
- Hito histórico: Es la primera vez que un sistema de IA completa de manera autónoma todo el ciclo de una investigación científica con validación por revisión por pares.
- Demostración de autonomía cognitiva: La IA no se limitó a replicar conocimientos existentes, sino que formuló y evaluó su propia hipótesis.
- Cambio de paradigma: Esta publicación reaviva el debate sobre el rol de los científicos humanos y hasta qué punto la IA puede asumir funciones investigativas.
Este anuncio se alinea con un movimiento más amplio hacia herramientas científicas autónomas, como el AI Co-Scientist de Google. A la vez, plantea discusiones urgentes sobre ética, confiabilidad, creatividad y atribución científica en un escenario donde la inteligencia artificial comienza a consolidarse como protagonista en la producción de conocimiento.
Aplicaciones en salud: ¿una oportunidad o un riesgo?
Potenciales beneficios
- Aceleración del conocimiento médico: Sistemas como el de Sakana podrían proponer hipótesis diagnósticas o terapéuticas en tiempo récord, abriendo nuevas rutas para ensayos clínicos o medicina de precisión. Esta capacidad no solo optimiza los tiempos de desarrollo investigativo, sino que también permite plantear múltiples escenarios clínicos en paralelo, lo cual puede ser crucial en situaciones de emergencia sanitaria o en contextos de enfermedades raras donde la exploración rápida de posibles abordajes terapéuticos resulta vital.
- Optimización de literatura científica: La automatización del análisis bibliográfico y la comparación de tratamientos o intervenciones podría mejorar la toma de decisiones clínicas basadas en evidencia. Estos sistemas pueden sintetizar en minutos grandes volúmenes de literatura dispersa, identificar patrones de evidencia, detectar inconsistencias y sugerir nuevas combinaciones terapéuticas, todo ello reduciendo el sesgo de selección y mejorando la exhaustividad en las revisiones sistemáticas.
- Simulación de investigaciones biomédicas: La generación automática de artículos sobre mecanismos moleculares, predicción de efectos adversos, o validación de biomarcadores podría facilitar estudios in silico previos a pruebas en humanos. Estas simulaciones no solo permitirían ahorrar recursos en fases preclínicas, sino también anticipar interacciones no deseadas y priorizar los diseños experimentales más prometedores, agilizando el paso hacia ensayos clínicos y reduciendo riesgos para los participantes.
Desafíos y dilemas
- Calidad científica dudosa: Evaluaciones independientes han evidenciado errores metodológicos graves, resultados inventados y una revisión por pares simplista. En el ámbito de la salud, donde las decisiones clínicas se basan en evidencia rigurosa, este tipo de errores pueden tener consecuencias fatales si se adopta información errónea sin una validación adecuada. Además, los sesgos introducidos por la IA o por los conjuntos de datos en los que fue entrenada podrían replicar o incluso amplificar desigualdades existentes en salud pública y práctica médica.
- Falsificación académica y docencia: Estudiantes podrían entregar trabajos generados íntegramente por IA sin haber realizado ningún análisis o reflexión personal, erosionando la formación científica y ética en medicina. Esto plantea el riesgo de una generación de profesionales con conocimientos superficiales y habilidades críticas disminuidas, así como problemas de autoría, responsabilidad intelectual y derechos de propiedad académica.
- Dilución del valor de la evidencia: Con la posibilidad de generar cientos de artículos automatizados por día, se dificulta discernir entre estudios genuinamente innovadores y aquellos generados por IA con contenido redundante o sin aportes significativos. Este exceso puede saturar bases de datos científicas y alterar métricas como el factor de impacto o el índice h, que podrían verse inflados por publicaciones sin relevancia clínica. Además, se corre el riesgo de que decisiones en políticas públicas, guías clínicas o inversión en investigación se basen en datos sin la robustez necesaria.
- Transparencia y trazabilidad del conocimiento: Muchas veces, los sistemas de IA no documentan adecuadamente el proceso seguido para llegar a una conclusión o resultado. Esta falta de trazabilidad pone en entredicho la reproducibilidad de los hallazgos, una piedra angular de la ciencia. En contextos donde la IA propone tratamientos o descubre biomarcadores, es fundamental entender el camino lógico y experimental que condujo a esa propuesta.
- Consentimiento informado algorítmico: Si se integran herramientas de IA en la investigación con seres humanos o en el análisis de datos clínicos, es necesario reconsiderar el concepto de consentimiento informado. ¿Comprenden los participantes que sus datos podrían ser procesados, interpretados o incluso modificados por sistemas automatizados? ¿Cómo se asegura su autonomía y privacidad en estos casos?
¿Qué sigue? Ciencia aumentada, no reemplazada
El panorama actual nos sitúa en un punto intermedio: el Científico de IA de Sakana no es (todavía) un investigador autónomo capaz de operar sin restricciones, pero sí representa un asistente avanzado que puede reducir significativamente el costo, el tiempo y la carga cognitiva de tareas científicas repetitivas. En lugar de reemplazar a los investigadores, este tipo de sistemas amplifican sus capacidades, permitiéndoles concentrarse en aspectos más estratégicos y creativos del proceso investigativo. Esto redefine parcialmente el rol del profesional en ciencia, quien puede delegar tareas mecánicas o de bajo nivel cognitivo a la IA y enfocarse en la toma de decisiones de mayor impacto.
Esto abre una oportunidad valiosa en investigación en salud: usar estos sistemas como copilotos científicos. Gracias a su capacidad de generar propuestas de investigación, organizar grandes volúmenes de literatura, redactar borradores estructurados y detectar inconsistencias lógicas o metodológicas, estas herramientas pueden acelerar enormemente la preparación de proyectos y publicaciones. Incluso podrían integrarse en flujos de trabajo colaborativos entre instituciones, facilitando estudios multicéntricos o revisiones sistemáticas en tiempo real. Sin embargo, es fundamental tener en cuenta que el juicio clínico, la validación experimental, la ética de la investigación y la interpretación crítica deben seguir siendo humanas, guiadas por la experiencia, la intuición médica y la responsabilidad profesional que ninguna máquina puede suplantar.
En conclusión, el Científico de IA representa un experimento fascinante con implicaciones profundas para la medicina y la investigación biomédica. Su avance no puede ni debe ignorarse. Pero su uso debe ir acompañado de ética, transparencia y validación rigurosa. En lugar de temer que la IA reemplace al científico, es hora de rediseñar el rol del investigador humano como mentor, crítico y estratega en un mundo donde las máquinas ya pueden ayudarnos a hacer ciencia.
Referencias:
- Lu C, Clune J. The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery. Sakana AI. 2024. Disponible en: https://sakana.ai/ai-scientist/
- Beel J, Kan M-Y, Baumgart M. Evaluating Sakana’s AI Scientist for Autonomous Research. arXiv. 2025. Disponible en: https://arxiv.org/abs/2502.14297
- Sakana AI. AI Scientist achieves first peer-reviewed publication. 2025. Disponible en: https://sakana-ai.translate.goog/ai-scientist-first-publication/?_x_tr_sl=en&_x_tr_tl=es&_x_tr_hl=es&_x_tr_pto=tc
- Diario Tecnología. El impacto del Científico de IA de Sakana en la investigación académica. 2025. Disponible en: https://diariotecnologia.com/noticias/ai-scientist-impacto
- IEEE Spectrum. Can AI Replace Scientists? The Debate Around Sakana’s AI Scientist. 2025. Disponible en: https://spectrum.ieee.org/ai-for-science-2
- TheAIGRID. Sakana AI’s AGI Scientist Stuns the Industry. YouTube. 2024. Disponible en: https://www.youtube.com/watch?v=hP-IzCZAZDc


Deja un comentario