Anthropic se asocia con el Instituto Allen y HHMI para desarrollar herramientas científicas con capacidad de acción autónoma y agentes inteligentes que puedan colaborar en investigaciones científicas avanzadas, impulsando así la innovación en el campo de la inteligencia artificial y la ciencia.
Anthropic se asocia con HHMI y el Instituto Allen para desarrollar agentes de IA y sistemas multi-agente que aumenten la toma de decisiones científicas humanas, aceleren los flujos de trabajo de investigación y aseguren que los resultados permanezcan transparentes, interpretables y basados en evidencia.
Anthropic, una empresa de seguridad e investigación en IA, ha anunciado nuevas colaboraciones con el Instituto Allen y el Howard Hughes Medical Institute para desplegar su modelo Claude como asistente de investigación y desarrollar herramientas basadas en agentes adaptadas para el trabajo científico.
Bajo las asociaciones, ambas organizaciones actuarán como colaboradoras fundadoras en ciencias de la vida, ampliando el papel de Claude en investigaciones biológicas y biomédicas avanzadas y apoyando flujos de trabajo científicos coordinados y en equipo. Las iniciativas combinan el trabajo de Anthropic en modelos de base a gran escala, diseño de sistemas agenticos e interpretabilidad con los programas de investigación de dos instituciones científicas principales que abordan desafíos complementarios en biología. Las colaboraciones están diseñadas para colocar a Claude directamente en entornos experimentales, creando un marco en el que los investigadores utilizan el sistema para apoyar la planificación, ejecución y evaluación de experimentos.
Un objetivo central de las asociaciones es avanzar en aplicaciones de inteligencia artificial transparentes y verificables en la ciencia. Las organizaciones involucradas enfatizan que la IA científica no solo debe ofrecer resultados precisos, sino también exponer los procesos de razonamiento que puedan ser inspeccionados, validados y extendidos por los investigadores.
Dentro de este marco, Claude se posiciona como un sistema destinado a aumentar la toma de decisiones científicas humanas, asegurando que las conclusiones asistidas por IA permanezcan basadas en evidencia e interpretables para los científicos que las confían.
En el Howard Hughes Medical Institute, la colaboración forma parte de la iniciativa más amplia AI@HHMI y está anclada en el Campus de Investigación Janelia. Janelia ha dedicado más de dos décadas a desarrollar tecnologías que han transformado la neurociencia experimental y la biología celular, incluyendo indicadores de calcio genéticamente codificados y sistemas avanzados de microscopía electrónica diseñados para mapear la estructura cerebral. Esta base técnica y científica proporciona un entorno para explorar cómo la inteligencia artificial puede integrarse en los flujos de trabajo de laboratorio y el diseño experimental.
Anthropic planea desarrollar agentes de IA especializados y sistemas multi-agente para acelerar la investigación en Ciencias de la Vida
El programa conjunto con Anthropic incluye una coordinación estrecha tanto en el despliegue de modelos actuales como en el desarrollo continuo de nuevas capacidades, permitiendo que las herramientas evolucionen en respuesta a los requisitos experimentales diarios. Desde el lanzamiento de AI@HHMI en 2024, el instituto ha iniciado proyectos aplicando IA a problemas de investigación de larga data, incluyendo ingeniería computacional de proteínas e investigaciones sobre la base neural de la cognición. A través de la nueva asociación, el enfoque se desplazará hacia la creación de agentes de laboratorio especializados que combinen el conocimiento experimental acumulado con instrumentación moderna y pipelines de análisis de datos, con el objetivo de acelerar el ritmo general de descubrimiento.
En paralelo, el Instituto Allen trabajará con Anthropic en el desarrollo de sistemas multi-agente diseñados para análisis de datos a gran escala y multimodales en los programas de investigación del instituto. El esfuerzo se centra en coordinar múltiples agentes de IA especializados responsables de tareas como integración de datos multi-ómicos, curación de grafos de conocimiento, modelado de procesos biológicos temporales y soporte para el diseño experimental. La meta es crear flujos de trabajo basados en agentes que puedan asistir a los investigadores en todo el ciclo de vida de la investigación científica.
Según los socios, estos sistemas están destinados a reducir las cargas analíticas que pueden extenderse durante meses a marcos de tiempo mucho más cortos, mientras revelan relaciones y patrones que pueden ser difíciles de detectar solo mediante análisis manual. La filosofía de diseño enfatiza la amplificación del conocimiento científico en lugar de la automatización del juicio científico, con los investigadores manteniendo el control sobre hipótesis, prioridades e interpretaciones mientras los sistemas de IA gestionan la complejidad computacional y de integración de datos.
Para Anthropic, la colaboración con el Instituto Allen proporciona retroalimentación continua de entornos de laboratorio del mundo real en los que la fiabilidad, interpretabilidad y supervisión humana son críticas. Se espera que la exposición a los flujos de trabajo científicos diarios destaque limitaciones de usabilidad y riesgos operativos que podrían no surgir en entornos de prueba más restringidos.
Los conocimientos generados a través de ambas asociaciones se espera que informen el desarrollo más amplio de las capacidades de Claude en ciencias de la vida y guíen cómo los sistemas de IA agenticos pueden integrarse en los flujos de trabajo de investigación en diversos dominios científicos. Anthropic ha declarado que los programas se llevarán a cabo bajo un marco que prioriza el rigor científico, el razonamiento transparente y la preservación de la autonomía del investigador.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic se asocia con el Instituto Allen y HHMI para desarrollar herramientas científicas con capacidad de acción autónoma y agentes inteligentes que puedan colaborar en investigaciones científicas avanzadas, impulsando así la innovación en el campo de la inteligencia artificial y la ciencia.
En Resumen
Anthropic se asocia con HHMI y el Instituto Allen para desarrollar agentes de IA y sistemas multi-agente que aumenten la toma de decisiones científicas humanas, aceleren los flujos de trabajo de investigación y aseguren que los resultados permanezcan transparentes, interpretables y basados en evidencia.
Anthropic, una empresa de seguridad e investigación en IA, ha anunciado nuevas colaboraciones con el Instituto Allen y el Howard Hughes Medical Institute para desplegar su modelo Claude como asistente de investigación y desarrollar herramientas basadas en agentes adaptadas para el trabajo científico.
Bajo las asociaciones, ambas organizaciones actuarán como colaboradoras fundadoras en ciencias de la vida, ampliando el papel de Claude en investigaciones biológicas y biomédicas avanzadas y apoyando flujos de trabajo científicos coordinados y en equipo. Las iniciativas combinan el trabajo de Anthropic en modelos de base a gran escala, diseño de sistemas agenticos e interpretabilidad con los programas de investigación de dos instituciones científicas principales que abordan desafíos complementarios en biología. Las colaboraciones están diseñadas para colocar a Claude directamente en entornos experimentales, creando un marco en el que los investigadores utilizan el sistema para apoyar la planificación, ejecución y evaluación de experimentos.
Un objetivo central de las asociaciones es avanzar en aplicaciones de inteligencia artificial transparentes y verificables en la ciencia. Las organizaciones involucradas enfatizan que la IA científica no solo debe ofrecer resultados precisos, sino también exponer los procesos de razonamiento que puedan ser inspeccionados, validados y extendidos por los investigadores.
Dentro de este marco, Claude se posiciona como un sistema destinado a aumentar la toma de decisiones científicas humanas, asegurando que las conclusiones asistidas por IA permanezcan basadas en evidencia e interpretables para los científicos que las confían.
En el Howard Hughes Medical Institute, la colaboración forma parte de la iniciativa más amplia AI@HHMI y está anclada en el Campus de Investigación Janelia. Janelia ha dedicado más de dos décadas a desarrollar tecnologías que han transformado la neurociencia experimental y la biología celular, incluyendo indicadores de calcio genéticamente codificados y sistemas avanzados de microscopía electrónica diseñados para mapear la estructura cerebral. Esta base técnica y científica proporciona un entorno para explorar cómo la inteligencia artificial puede integrarse en los flujos de trabajo de laboratorio y el diseño experimental.
Anthropic planea desarrollar agentes de IA especializados y sistemas multi-agente para acelerar la investigación en Ciencias de la Vida
El programa conjunto con Anthropic incluye una coordinación estrecha tanto en el despliegue de modelos actuales como en el desarrollo continuo de nuevas capacidades, permitiendo que las herramientas evolucionen en respuesta a los requisitos experimentales diarios. Desde el lanzamiento de AI@HHMI en 2024, el instituto ha iniciado proyectos aplicando IA a problemas de investigación de larga data, incluyendo ingeniería computacional de proteínas e investigaciones sobre la base neural de la cognición. A través de la nueva asociación, el enfoque se desplazará hacia la creación de agentes de laboratorio especializados que combinen el conocimiento experimental acumulado con instrumentación moderna y pipelines de análisis de datos, con el objetivo de acelerar el ritmo general de descubrimiento.
En paralelo, el Instituto Allen trabajará con Anthropic en el desarrollo de sistemas multi-agente diseñados para análisis de datos a gran escala y multimodales en los programas de investigación del instituto. El esfuerzo se centra en coordinar múltiples agentes de IA especializados responsables de tareas como integración de datos multi-ómicos, curación de grafos de conocimiento, modelado de procesos biológicos temporales y soporte para el diseño experimental. La meta es crear flujos de trabajo basados en agentes que puedan asistir a los investigadores en todo el ciclo de vida de la investigación científica.
Según los socios, estos sistemas están destinados a reducir las cargas analíticas que pueden extenderse durante meses a marcos de tiempo mucho más cortos, mientras revelan relaciones y patrones que pueden ser difíciles de detectar solo mediante análisis manual. La filosofía de diseño enfatiza la amplificación del conocimiento científico en lugar de la automatización del juicio científico, con los investigadores manteniendo el control sobre hipótesis, prioridades e interpretaciones mientras los sistemas de IA gestionan la complejidad computacional y de integración de datos.
Para Anthropic, la colaboración con el Instituto Allen proporciona retroalimentación continua de entornos de laboratorio del mundo real en los que la fiabilidad, interpretabilidad y supervisión humana son críticas. Se espera que la exposición a los flujos de trabajo científicos diarios destaque limitaciones de usabilidad y riesgos operativos que podrían no surgir en entornos de prueba más restringidos.
Los conocimientos generados a través de ambas asociaciones se espera que informen el desarrollo más amplio de las capacidades de Claude en ciencias de la vida y guíen cómo los sistemas de IA agenticos pueden integrarse en los flujos de trabajo de investigación en diversos dominios científicos. Anthropic ha declarado que los programas se llevarán a cabo bajo un marco que prioriza el rigor científico, el razonamiento transparente y la preservación de la autonomía del investigador.