La estructura del pensamiento científico y la investigación actual (I)

Sir William T. Kelvin dijo una vez: “... cuanto más pueda un fenómeno natural expresarse en forma matemática, más se sabrá sobre el fenómeno” (sic).

/pf/resources/images/abc-placeholder.png?d=2084

Cargando...

La aplicación del conocimiento y su estructuración en el campo de la investigación en todas las ramas de las ciencias hoy día, definitivamente, han cambiado. Ya no son los mismos parámetros donde el rastreo de las cuantificaciones metodológicas y el encasillamiento en el método y rigor científico eran lo esencial y todo lo demás como vagones de tren se sucedían en importancia. Esta herramienta de expansión científica ha sido amplificada por el advenimiento de una forma más ordenada de pensar en base a los conocimientos actuales. El rigor del método científico sigue imponiendo su magnífica presencia, pero ahora sentado a la derecha de otro proceso que lo organiza y lo optimiza y, por ende, ha ganado el trono, considerando por supuesto a que todo el sistema tácitamente y por principio elemental se instaura en función de la ética tanto del ejercicio per-se, como de su difusión declarativa.

Hace 26 años falleció R.M. Hutchins, excanciller de la Universidad de Chicago, Illinois (EE.UU.), quien iniciara en los años cuarenta una nueva forma no solo de pensar sino que también de educar, que con el tiempo ha sufrido modificaciones. Se la conoce como peremnialismo secular y manifiesta entre sus principales cánones que (1) el alumno no solo aprenda sino que desarrolle un espíritu inquisitivo, de liderazgo y de investigación fundamentado en Principios de la Estructura del pensamiento científico, llevando inclusive esta conceptualización hasta el campo epistemológico filosófico; sosteniendo como cimientos inmutables los criterios de la verdad científica (verum scientificum) no simplemente el hecho científico (quod scientifica como técnicas, educación, procesos metodológicos, procedimientos, etc.).

(2) Que estos a su vez debían centralizarse en fundamentos matemáticos dentro de una dinámica de enseñanza continua (3), cuyo punto pivote sean los enunciados del Diálogo Socrático transferidos a la relación profesor-alumno.

De esa escuela de pensamiento salieron varios investigadores brillantes, uno de ellos fue James D. Watson, alumno de aquella universidad, que posteriormente con Francis Crick, en Cambridge (Inglaterra) descubrieron la estructura del DNA; ambos fueron galardonados con el Premio Nobel.

Preferencia a la mente libre

Hutchins consideraba que para la evolución de las tradiciones occidentales y la supervivencia “integral” de la libertad y albedrío, estas condiciones eran absolutamente necesarias… “Un hombre esclavo” –decía– “no puede pensar bajo ningún punto de vista igual que un hombre libre, a no ser que una vez libre, sea igual e indistinguible con los otros” (sic). Daba prioridad al individuo más que al grupo, pues consideraba que el segundo crecía con el aporte directo o indirecto del primero. Le daba absoluta preferencia a la mente libre, no al cerebro programado. Quería un científico de conocimiento universal, que no es lo mismo que proponen otras formas de enseñanza, que más bien son de adoctrinamiento y que básicamente imponen la manipulación de ideas “globalmente” compartidas bajo un continuum de uniformidad, donde no existen cumbres ni picos de excelencia, sino nivelaciones groseras supuestamente estandarizadas para un utópico bien común, pero que en realidad sirve solo para plataforma de unos pocos, sin limitaciones de poder y de influencias. A este último modo de ser, los hombres libres no lo aceptan y se rebelan contra él. Por eso insistía que más énfasis había que hacer en profesores buenos, de primera, que sepan dialogar a la vez que transmitir conocimiento para enseñar a aquel que acudía al recinto universitario como un hombre esclavo de la ignorancia y que una vez libre de ella podía ser igual e indistinguible con los otros y almorzar con ellos al mediodía, en la sala de la larga mesa donde se sientan hasta hoy, los buenos y meritorios profesores. Una forma de inicio para el estudiante, para estimular el reconocimiento por su labor científica. Énfasis en el profesor, no en los métodos ni sistemas de enseñanzas.

La forma de pensar del investigador, la estructuración de la adquisición y manejo del conocimiento se volvieron clave y esa condición pasó a ser parte de todo el sistema educativo superior tanto en EE. UU. como en Canadá, Inglaterra, Australia, N. Zelanda y ciertos países de Europa, con la reestructuración de la enseñanza de los dos, tres o cuatro años de college, según cual sea la universidad. El college se constituía entonces en el recinto universitario de pregrado por excelencia, para poder llegar al posgrado. El college fue elegido como la herramienta para volcar toda la potencia educativa y de plataforma para la investigación de esa nueva forma de educar. El objetivo era y continúa siendo enseñar al estudiante a pensar bien y, sobre todo, pensar grande (THINK BIG! – IBM). Vale aquí la fuerza puesta en los adjetivos.

Pero para pensar bien hay que formalizar la mente y estructurarla, siendo esta tarea mucho más importante que el mero hecho de investigar a la sazón de los vientos, sin estructura del pensamiento; a pesar de la fidelidad en el procesamiento del método y el rigor científico. Eso solo no hace grande un trabajo de investigación, de ninguna manera forma a un investigador y mucho menos aún no lo hace saltar a la gloria.

Tiempo invertido sin retorno

¿Por qué? Porque existe la probabilidad de que el experimento sea una burda repetición de otro, fútil, sin trascendencia, inútil, costoso, improductivo, de escasa audiencia, sin una repercusión o hallazgo brillante que permita un salto; y lo peor, varios años de tiempo invertidos sin retorno, constituyen una pérdida cuyo costo es demasiado alto. Tan solo sirve para decir que uno estuvo por ahí. Demasiado precario el resultado ante tanto esfuerzo.

Precisando el concepto

La buena estructura del pensamiento previamente jerarquizado, formado en años, constituye el motor y lo esencial para lograr resultados efectivos. Sabiendo pensar se logra efectivizar un propósito y, además, con un punto de vista claro, sustentado en el conocimiento aprendido con conformación sólida y consistente.

Insisto. Son aquí los adjetivos los que dan el carácter de superación al modo de operar. No solo pensar; ¡pensar bien! Eso es lo que hay que enseñar y eso se logra, estructurando el pensamiento y, sobre todo, la forma metódica de pensar. El profesor titular de cátedra Eric Grimson, cuando en 2008 dio su clase inaugural a los alumnos del curso CC 600 de Ciencias de la Computación en el semestre de primavera en el Massachusetts Institute of Technology (MIT), les decía: “Nuestro objetivo no solo es que ustedes aprendan a programar un computador y escribir segmentos de código, sino mucho más importante es que piensen como un científico en computación (a computer scientist). Conversen conmigo y con mis asistentes, pregunten, estudien el problema con nosotros... Queremos –más que nada– que ustedes aprendan a pensar. Solo así podrán desarrollar programas de primer orden” (sic).

Últimamente, se han escritos muchos libros y ensayos sobre la estructura del pensamiento. Para este trabajo he escogido uno de Ben Gortzel, quien escribió sobre “Lógica caótica”, y quien expresa quizás de una manera muy matemática pero válida, que “la mente es la estructura básica de un sistema inteligente” (sic). Los que entienden de matemática y computación extraen de esta expresión su alcance proyectivo. Gortzel refiere, pues, que la mente es una estructura abstracta que es función de un sistema físico, la inteligencia, que a la vez es generada por circuitos neuronales. Esta frase es revolucionaria y agita la esencia de lo que realmente es la investigación en ciencias, pues la inteligencia –continúa diciendo Gortzel– “constituye una habilidad para optimizar funciones complejas impredecibles a niveles de mínimos detalles, pero estructuralmente predecibles” (sic).

Es importante recalcar lo que Gortzel insinúa, desde mi punto de vista. Indirectamente implica lo que en teoría de la computación se entiende como un análisis de variables múltiples, pues solo los sistemas complejos manipulan ese grado de alta incertidumbre e inestabilidad. Basado en el principio estadístico que contempla la consecuencia de más de un resultado de una variable determinada (Patrick Dattalo, “Analysis of Multiple dependent Variables”). Dattalo, en este libro, da los fundamentos a los investigadores que se inician en el análisis de intervenciones y problemas complejos, de cómo hacer para evitar la supersimplificación e incurrir en errores.

El conocimiento bien estructurado

Si la inteligencia es una herramienta para optimizar funciones complejas, necesariamente debe manipularlas a través de algoritmos; la eficiencia para construir tales herramientas están basadas en el conocimiento bien estructurado (vale nuevamente el poder de la adjetivación).

La clave de todo el sistema se basa entonces en la optimización. La predictibilidad, por otro lado, en un lenguaje menos matemático, puede ser traducido como la anticipación (Donald A. Pierre, “Optimization Theory and Applications”).

La anticipación no solo constituye un elemento básico en las ciencias naturales de la investigación en general, sino que en política, economía, banking, finanzas, ingeniería, ingeniería espacial, medicina, aviación, química, etc. Una persona incapaz de anticipar en todos estos campos citados pierde eficiencia. Por eso la necesidad de optimizar los métodos de predictibilidad, inclusive en políticas de estado (Bruce Bueno de Mezquita, “Predicting Politics”).

Un sistema complejo, como es el área de investigación, depende de la construcción de un código algorítmico que pueda operar múltiples variables (Melanie Mitchell, “Complexity: A guided tour”). El método y el rigor quedan, así de hecho, incorporados automáticamente y se constituyen en procesos secundarios a medida que aumenta la complejidad de la ejecución del código fuente. El cerebro humano a través de sus funciones ejecutivas del lóbulo prefrontal solo puede llegar a procesar en promedio no más de seis a diez variables a la vez. Después, su poder comienza a decaer y, por ende, aumenta la probabilidad de error. Se necesita entonces un amplificados mental que permita expandir esa condición y que difunda esa proyección algorítmica de componentes múltiples sincronizados en una misma unidad de tiempo, donde la mente no encuentre límites de análisis para lograr el acierto predictivo.

En auxilio de la mente hoy día está el computador. El procesador puede manejar un sinnúmero de variables como respuesta a un ángulo de amplitud considerable y que le provea la formulación de un código fuente firme (un programa) con un mecanismo de control más efectivo, puesto que al aumentar el número de variables, la posibilidad de que un sistema entre en una dinámica caótica (que se cometan errores) aumenta exponencialmente. Las variables pueden ser tanto de orden primitivo (variable simple como factor esencial; i.e., un punto para componer una línea) o como una abstracción mayor que parametiza un alto número de primitivos de mayor alcance (dentro de un bloque o aislados).

Hoy en día, no puede estar ausente en un laboratorio un computador que no solo almacene fotografías, sirva de comunicación o de depósito de datos, sino que también pueda ser programado por medio de un lenguaje de computación para generar algoritmos predictivos para la optimización de objetivos y el seguimiento específico del proyecto en curso.

Por ejemplo, y este es solo uno, el método científico por más riguroso que sea debe contemplar la parametrización de sus premisas porque la posibilidad de un error estocástico (Stochastic error: error que ocurre aleatoriamente, independientemente y, hasta si se quiere, de forma incoherente a una proyección determinada) está siempre presente como una pantera lista para saltar, en cada uno de los pasos del método. Matemáticamente hablando, el codominio (variable dependiente) no siempre resulta exacto ni único al ejecutar un bloque del dominio de la variable independiente. Este enunciado es otra forma de exponer lo que expone Dattalo más arriba, de que una variable puede tener más de un resultado, pero agregamos aquí que ese resultado o varios de ellos pueden también ser errores estocásticos.

“Código de corrección de errores”

El error estocástico puede algorítmicamente ser corregido, incluyendo en sus funciones un “código de corrección de errores” del tipo Shor, como los que se utilizan para corregir decoherencias en los sistemas de computación quántica (Emanuel Knill y col. “Resilient Quantum Computation” - Sciences, vol. 279. Jan. 16.1998 pp. 342-3) y de esa manera preservar el potencial de credibilidad o de acierto; una cuestión que si no se la efectúa correctamente, fuerza al investigador, cuando otros repiten su propuesta, a aumentar la posibilidad de hallar discrepancias y tener obligadamente que retirar a la postre el artículo científico de su autoría, del índex de una revista de investigación seria. Tal situación es imposible cubrirla in extenso, si no se parametizan los pasos (si no se los franquea con funciones algorítmicas). Claro está, hablamos de investigaciones complejas de primer nivel y significancia. En pocas palabras, brillantes, seminales para futuros trabajos y que tuercen la proyección de una década.

El Paraguay está formando ya hace tiempo esa clase de personas lentamente, pero se debe insistir más en la estructuración del conocimiento de esos futuros ingenieros en Computación y Analistas de Sistemas. Muchas universidades exponen a sus alumnos al eslogan que hay que pensar, etc., con carteles, afiches y todo lo demás, pero no le enseñan cómo pensar bien. Eso solo se fragua a través de un excelente profesor. El Massachusetts Institute of Technology (MIT) ofrece sesiones denominadas de “Recitación” (traducción literal del inglés) en las que un auxiliar de enseñanza (instructor, que no es profesor de cátedra) programa con los alumnos y les va enseñado cómo pensar en la formulación de algoritmos de acuerdo a un programa, a veces sin paralelo con las clases magistrales. Esto es un proceso clave. Esos ingenieros o analistas de sistemas deberían, en este país (si el investigador en ciencias no ha aprendido o no tiene tiempo de programar un procesador) ser asimilados por los laboratorios de investigación para optimizar y dar sentido de si realmente es viable, importante y de interés un proyecto en concierto con la comunidad científica y, sobre todo, si el procedimiento se va desarrollando de forma correcta y en el tiempo apropiado. De lo contrario, se aparenta solo una búsqueda de hegemonía, no una investigación ad integrum. De la misma forma y en igual densidad de como lo hacen los bancos y las empresas, analizando modelos continuamente. Con ser analista, sin embargo, no basta. Debe ser un buen analista. Y esa posición la da la enseñanza en varios años de aprendizaje, fundamentada en un diseño para pensar mejor y no solamente limitarse a saber escribir comandos dentro de un código fuente. Esta condición no puede dejarse solamente a la suerte y a la ocurrencia del alumno. De hecho, existen aún en el Paraguay estadísticas que se hacen a mano por gente no experta. Vemos continuamente a médicos, psicólogos, etc., labrar sus propias estadísticas y conclusiones. Stephen Few escribió un libro que lleva como título “Muéstrame los números” (Show Me the Numbers). En él, refiere claramente que la presentación de datos en el modo de tortas (pies, en inglés) es poco serio y sobre todo muy poco claro de interpretar en un trabajo científico, sobre todo si se representan más de 3 ítems. Todos los periódicos del mes pasado parecían más bien confiterías que otra cosa. Y las consecuencias que todo el mundo conoce.

Él considera que las barras son mucho más representativas y claras. Yo aquí solo retransmito esta observación, pero sirva de ejemplo lo importante que es para quien entiende de análisis de datos, y que fundamente sus conclusiones sobre ellos, dar un análisis estadístico de alta precisión para obtener justa y acertadamente conclusiones válidas y que para que ello ocurra un proyecto de investigación pase por manos de expertos en estadística. Por principio, no solo porque la muestra sea pequeña.

El computador optimiza la anticipación por medio de algoritmos. Hay que entender bien qué es lo que se significa con esta herramienta. Se entienden aquí como algoritmos de anticipación un dominio específico de reglas que el procesador utilizará para optimizar el proceso analítico dentro de un código fuente en respuesta a un input o preguntas sistematizadas a través de un lapso dinámico, secuencial, de paso por paso con un número finito de gestiones y con un objetivo: resolver eficientemente un problema. Por lo tanto, hoy un laboratorio debe contar necesariamente con una mente científicamente preparada, un computador y algoritmos de resolución (anticipación). Sin estos elementos la investigación es débil. Porque el manejo de variables como la eficiente capacidad de predicción se ven limitados por la falta de optimización metodológica. Haciendo un paralelo, esto conduce a lo que en termodinámica se conoce como conducta de los sistemas inestables y que bien pueden adoptarse estos conceptos a esos trabajos, desprovistos de proyección con patrones vacilantes e inconsistentes.


Enlance copiado
Content ...
Cargando...Cargando ...