Pages

viernes, 28 de abril de 2017

La ciencia está en medio de una crisis de datos.

Viene el hombre; Visión de Francis Bacon fue que el proceso de descubrimiento era inherentemente algorítmica. Foto cortesía de NPG / Wikipedia
La ciencia está en medio de una crisis de datos. El año pasado, hubo más de 1,2 millones de nuevos trabajos publicados solos en las ciencias biomédicas, con lo que el número total de artículos biomédicos revisadas por pares a más de 26 millones de dólares. Sin embargo, el científico promedio lee solamente cerca de 250 artículos al año. Mientras tanto, la calidad de la literatura científica ha estado en declive. Algunos recientes estudios encontraron que la mayoría de los trabajos biomédicos eran irreproducibles .
El doble desafío de demasiada cantidad y muy poca calidad tienen su origen en la capacidad neurológica finita de la mente humana. Los científicos están obteniendo hipótesis de una fracción cada vez más pequeña de nuestro conocimiento colectivo y, en consecuencia, cada vez más, haciendo las preguntas equivocadas, o pedir a los que ya han sido contestadas. Además, la creatividad humana parece depender cada vez más de la estocasticidad de experiencias anteriores - circunstancias de la vida que permiten a un investigador a notar algo que otros no lo hacen. Aunque posibilidad siempre ha sido un factor en el descubrimiento científico, que está jugando un papel mucho más grande de lo que debería.
Una estrategia prometedora para superar la crisis actual es la integración de las máquinas y la inteligencia artificial en el proceso científico. Máquinas tienen una mayor memoria y mayor capacidad de cálculo que el cerebro humano. La automatización del proceso científico podría aumentar en gran medida la tasa de descubrimiento. Incluso podría comenzar otra revolución científica. Esa posibilidad enorme gira en torno a un igualmente gran pregunta: ¿puede realmente el descubrimiento científico puede automatizar?
Obtener Aeon directamente a su bandeja de entrada
DiariamenteSemanal
Yo creo que si, utilizando un enfoque que hemos conocido por siglos. La respuesta a esta pregunta se puede encontrar en la obra de Sir Francis Bacon, filósofo Inglés del siglo 17 y un progenitor clave de la ciencia moderna.
Los primeros reiteraciones del método científico se remonta muchos siglos atrás a los pensadores musulmanes como Ibn al-Haytham, que destacó tanto el empirismo y la experimentación. Sin embargo, fue Bacon quien primero formaliza el método científico y la convirtió en un tema de estudio. En su libro Novum Organum (1620), propuso un modelo para el descubrimiento de que todavía se conoce como el método de Bacon. Se argumentó en contra de la lógica silogística para la síntesis científica, que él considera que es poco fiable. En su lugar, propone un enfoque en el que se recogen las observaciones pertinentes acerca de un fenómeno específico de forma sistemática, tabulados y analizados utilizando objetivamente la lógica inductiva para generar ideas generalizables. En su opinión, la verdad puede ser descubierta sólo cuando la mente está libre de axiomas incompletas (y por lo tanto falsas).
El método de Bacon trató de eliminar el sesgo lógico desde el proceso de observación y conceptualización, delineando los pasos de síntesis científica y la optimización de cada uno por separado. La visión de Bacon era aprovechar una comunidad de observadores para recoger grandes cantidades de información sobre la naturaleza y tabulará en un registro central accesible al análisis inductivo. En Novum Organum , escribió: 'Los empíricos son como hormigas; se acumulan y utilizan. Racionalistas tejen sus telas como las arañas. El mejor método es el de la abeja; es en algún punto intermedio, teniendo el material existente y su uso.
El método de Bacon rara vez se utiliza hoy en día. Se demostró ser demasiado laborioso y caro extravagante; sus aplicaciones tecnológicas no estaban claros. Sin embargo, en el momento de la formalización de un método científico marcó un avance revolucionario. Ante ello, la ciencia era metafísico, accesible sólo para unos pocos eruditos, en su mayoría de origen noble. Al rechazar la autoridad de los antiguos griegos y delinear los pasos de descubrimiento, Bacon creó un modelo que permitiera a cualquier persona, independientemente de su origen, para convertirse en un científico.
ideas de Bacon también revelaron una importante verdad oculta: el proceso de descubrimiento es inherentemente algorítmica. Es el resultado de un número finito de pasos que se repiten hasta que se descubrió un resultado significativo. Tocino utiliza explícitamente la palabra 'máquina' en la descripción de su método. Su algoritmo científica tiene tres componentes esenciales: en primer lugar, las observaciones tienen que ser recogidos e integrados en el corpus total del conocimiento. En segundo lugar, las nuevas observaciones se utilizan para generar nuevas hipótesis. En tercer lugar, las hipótesis se ponen a prueba a través de experimentos cuidadosamente diseñados.
If ciencia es algorítmico, entonces debe tener el potencial para la automatización. Este sueño futurista ha eludido a los científicos información y la informática desde hace décadas, en gran parte debido a que los tres principales pasos del descubrimiento científico ocupan diferentes planos. La observación es sensual; de generación de hipótesis es mental; y la experimentación es mecánico. La automatización del proceso científico requerirá la incorporación efectiva de máquinas en cada paso, y en los tres alimentar una en la otra sin fricción. Sin embargo, nadie ha descubierto la manera de hacer eso.
La experimentación ha visto el progreso reciente más importante. Por ejemplo, la industria farmacéutica utiliza comúnmente plataformas automatizadas de alto rendimiento para el diseño de fármacos. Nuevas empresas tales como Transcriptic y esmeralda nube de Laboratorio, tanto en California, están construyendo sistemas para automatizar casi todas las tareas físicas que hacen los científicos biomédicos. Los científicos pueden presentar sus experimentos en línea, donde se convierten a código y se introducen en plataformas robóticas que llevan a cabo una serie de experimentos biológicos. Estas soluciones son más relevantes para disciplinas que requieren experimentación intensiva, tales como la biología molecular y la ingeniería química, pero métodos análogos se pueden aplicar en otros campos de datos intensivos, e incluso extenderse a disciplinas teóricas.
Automatizado de generación de hipótesis es menos avanzado, pero la obra de Don Swanson en la década de 1980 proporcionó un importante paso adelante. Se demostró la existencia de enlaces ocultos entre las ideas no vinculados en la literatura científica; utilizando un marco lógico deductivo simple, que podría conectar los papeles de diversos campos sin que se solapen citación. De esta manera, Swanson fue capaz de plantear la hipótesis de una novela de enlace entre el aceite de pescado en la dieta y el síndrome de Reynaud sin llevar a cabo ningún experimento o ser un experto en cualquier campo. Otros enfoques más recientes, como las de Andrey Rzhetsky en la Universidad de Chicago y László Barabási-Albert en la Universidad Northeastern, se basan en modelos matemáticos y la teoría de grafos. Incorporan grandes conjuntos de datos, en la que el conocimiento se proyecta como una red, donde los nodos son los conceptos y los enlaces son relaciones entre ellos. Hipótesis novedosas aparecerían como enlaces entre nodos sin descubrir.
El paso más difícil en el proceso de automatización es la forma de recoger las observaciones científicas fiables a gran escala. Actualmente no existe una base de datos central que posee el conocimiento científico total de la humanidad en un nivel observacional. Procesamiento del lenguaje natural ha avanzado hasta el punto en que puede automáticamente extraer no sólo las relaciones, sino también el contexto de trabajos científicos. Sin embargo, los principales editores científicos han impuesto restricciones severas en la minería de texto. Más importante aún, el texto de los documentos está sesgada hacia las interpretaciones del científico (o conceptos erróneos), y contiene sintetiza conceptos y metodologías que son difíciles de extraer y cuantificar complejos.
Sin embargo, los recientes avances en la informática y bases de datos en red hacen que el método de Bacon práctica por primera vez en la historia. E incluso antes del descubrimiento científico puede ser automatizado, abrazando enfoque de Bacon podría resultar valioso en un momento en el reduccionismo pura está llegando al borde de su utilidad.
La mente humana simplemente no pueden reconstruir los fenómenos naturales de gran complejidad con suficiente eficacia en la era de los grandes datos. Un método de Bacon moderno que incorpora las ideas reduccionistas a través de la minería de datos, pero luego se analiza esta información a través de modelos computacionales inductivas, podría transformar nuestra comprensión del mundo natural. Tal enfoque nos permitiría generar nuevas hipótesis que tienen mayores posibilidades de convertir a ser cierto, para poner a prueba estas hipótesis, y para llenar lagunas en nuestro conocimiento. También proporcionaría un recordatorio muy necesario de lo que la ciencia se supone que es: búsqueda de la verdad, antiautoritario, y ilimitadamente libre.