Image

El presente volumen es el resultado de un esfuerzo conjunto de tres años, durante los cuales físicos, biólogos, neurocientíficos y filósofos estudiaron el tema del determinismo con una mirada interdisciplinar. Los capítulos están escritos en coautoría por científicos y filósofos, y giran en torno a preguntas sobre problemas epistemológicos, ontológicos o filosófico-teológicos.

¿De qué se predica el determinismo, de las teorías o de la naturaleza? ¿Qué se entiende por determinismo genético? ¿El concepto de libertad personal es compatible con la investigación neurocientífica? ¿Exige el origen de la vida una intervención divina? Estos son algunos de los interrogantes abordados en la obra, que representa un esfuerzo interdisciplinar con escasos precedentes en la academia de lengua española.

Image

Image

Colección Razón Abierta

Comité Científico Asesor

Daniel Sada (Universidad Francisco de Vitoria)

Federico Lombardi S. J. (Fundación Joseph Ratzinger)

Alister McGrath (Universidad de Oxford)

Gianfranco Basti (Pontificia Università Lateranense)

Olegario González de Cardenal (Universidad de Salamanca)

Stefano Zamagni (Universidad de Bolonia. Johns Hopkins University)

Francesc Torralba (Universidad Ramón Llull)

© 2018 Claudia E. Vanney y Juan F. Franck de la edición

© 2018 Los autores de sus textos

© 2018 Editorial UFV

Universidad Francisco de Vitoria

Ctra. Pozuelo-Majadahonda, km 1,800

28223 Pozuelo de Alarcón (Madrid)

editorial@ufv.es

ISBN edición impresa: 978-84-16552-95-5

ISBN edición digital: 978-84-18360-03-9

Depósito legal: M-33338-2018

Índice

INTRODUCCIÓN

Claudia E. Vanney - Juan F. Franck

PARTE PRIMERA

INTERROGANTES EPISTEMOLÓGICOS

1. ¿A QUÉ SE LLAMA DETERMINISMO EN FÍSICA?

Santiago Collado - Héctor Velázquez

2. ¿DE QUÉ SE PREDICA EL DETERMINISMO?

Alan Heiblum - Claudia E. Vanney

3. ¿POR QUÉ EL REDUCCIONISMO ES UN PROBLEMA RECURRENTE EN BIOLOGÍA?

Mariano Asla - Valeria Cantó-Soler

4. ¿QUÉ SE ENTIENDE POR DETERMINISMO GENÉTICO?

Christian Francese - Guillermo Folguera

5. ¿CÓMO SE RELACIONAN ENTRE SÍ LOS NIVELES EPISTEMOLÓGICOS DE LAS CIENCIAS QUE ESTUDIAN A LA PERSONA HUMANA?

Ivana Anton Mlinar - Martín López Vicchi

6. ¿ES VIABLE UN DUALISMO EPISTEMOLÓGICO O SEMÁNTICO DE LO MENTAL Y LO NEURAL SIN ALGUNA CLASE DE DUALIDAD ONTOLÓGICA?

Juan F. Franck - Luis Echarte

PARTE SEGUNDA

INTERROGANTES ONTOLÓGICOS

7. ¿ADMITEN LOS FENÓMENOS CAÓTICOS LA COEXISTENCIA DE DETERMINISMO E INDETERMINISMO?

Olimpia Lombardi - Rafael A. Martínez

8. ¿FAVORECE LA MECÁNICA CUÁNTICA UN INDETERMINISMO EPISTEMOLÓGICO U ONTOLÓGICO?

Leonardo Vanni - Sebastian Fortin

9. ¿CUÁL ES EL PAPEL DE LOS GENES EN LA CONSTITUCIÓN DEL FENOTIPO?

María Cerezo - Ángela M. Suburo

10. ¿REQUIERE LA COMPLEJIDAD BIOLÓGICA UN MARCO INDETERMINISTA?

Marta Bertolaso - Francisco Güell

11. ¿PUEDE EL CEREBRO SER ASIENTO DE UNA CAUSACIÓN MENTAL NO-REDUCCIONISTA?

Miguel García-Valdecasas - Pablo Rodolfo Brumovsky

12. CEREBRO E INTENCIONES: ¿AUTODETERMINACIÓN O DETERMINISMO NEURAL?

José Ignacio Murillo - Ángela M. Suburo

13. ¿ES COMPATIBLE EL CONCEPTO DE LIBERTAD PERSONAL CON LA INVESTIGACIÓN NEUROCIENTÍFICA?

Carlos Blanco - Juan Pablo Roldán

PARTE TERCERA

INTERROGANTES FILOSÓFICO-TEOLÓGICOS

14. ¿TENDRÍA QUE EXISTIR NECESARIAMENTE EL UNIVERSO?

Alejandro González Sánchez - Francisco José Soler Gil

15. LA EXPLICACIÓN DEL ORIGEN DE LA VIDA, ¿EXIGE UNA INTERVENCIÓN DIVINA?

Rafael Vicuña - Rafael A. Martínez

16. LA ACCIÓN PROVIDENTE DE DIOS EN EL MUNDO, ¿REQUIERE UNA NATURALEZA INDETERMINADA?

Alejandro Clausse - Ignacio Silva

17. UNA EVOLUCIÓN CONTINGENTE QUE INCLUYA ELEMENTOS DE AZAR, ¿PUEDE REFERIR A UN DIOS CREADOR?

Jorge B. Aquino - Ignacio Silva

18. ¿ES POSIBLE HABLAR DE ALMA O ESPÍRITU EN EL CONTEXTO DE LA NEUROCIENCIA?

Juan José Sanguineti - Marcelo José Villar

 

SOBRE LOS AUTORES

Image

CLAUDIA E. VANNEY - JUAN F. FRANCK

La situación cultural en la que nos encontramos es rica y compleja. De una parte, la experiencia acumulada durante el intenso siglo XX ha llevado al hombre a profundizar nuevamente en el sentido de su existencia. De otra, los avances científicos y tecnológicos han alcanzado un desarrollo y unas dimensiones insospechadas. Mientras la ciencia contemporánea exige cada vez una mayor especialización, una comprensión profunda de la realidad invita a encontrar vías para una integración de saberes que se encuentran actualmente fragmentados. Muchos de los grandes interrogantes que siempre han estado presentes en la reflexión filosófica hoy también son abordados por la ciencia contemporánea desde perspectivas nuevas. Uno de estos grandes temas es el debate sobre el determinismo de la naturaleza.

El presente volumen es el resultado de un esfuerzo conjunto de tres años, durante los cuales físicos, biólogos, neurocientíficos y filósofos estudiaron el tema del determinismo con una mirada interdisciplinar. Conscientes de la necesidad de reconocer los límites propios de cada disciplina para hallar una respuesta satisfactoria, los investigadores buscaron cubrir un amplio espectro de cuestiones epistemológicas, ontológicas y filosófico-teológicas. Las preguntas seleccionadas actuaron como disparadores para que, en cada caso, un científico y un filósofo propusieran respuestas desde visiones complementarias, pero buscando el encuentro interdisciplinar. Las presentaciones, seguidas de intensas discusiones, tuvieron lugar en tres workshops realizados a lo largo de los tres años de duración del proyecto Determinismo e indeterminismo: de la ciencia a la filosofía, coordinado por el Instituto de Filosofía de la Universidad Austral. Sin embargo, el intercambio entre los especialistas se extendió por un tiempo más prolongado y fruto de dicho intercambio es este libro, compuesto por dieciocho capítulos escritos en coautoría interdisciplinar.

Los primeros seis capítulos son de carácter epistemológico. En ellos se busca clarificar en primer término qué se entiende por determinismo, indagando tanto en la evolución histórica de esta noción como en los diversos contextos en los que se lo utiliza. La discusión en torno al determinismo deriva lógicamente en el problema del reduccionismo, como se analiza en algunos de estos capítulos. Los capítulos 7 a 13 abordan diferentes aspectos de la problemática ontológica del determinismo, tal como se presenta en la física, la biología y la neurociencia. Los cinco capítulos finales se preguntan por las consecuencias de este debate en la teología natural, abordando cuestiones relativas al origen y la finalidad del cosmos, la vida y el hombre.

INTERROGANTES EPISTEMOLÓGICOS

A lo largo de la historia, diversos conceptos fueron utilizados en el debate sobre el determinismo de la naturaleza. Por un lado, los términos contingencia, aleatoriedad, emergencia, incertidumbre, libre albedrío o libertad asumen una visión indeterminista de la realidad. Por otro, las nociones de necesidad, causalidad, legalidad, predictibilidad y fatalismo sugieren un enfoque determinista. Puesto que la física moderna y contemporánea se ha visto en la urgencia de distinguir estas nociones, cabe preguntarse cómo lo ha hecho y si la filosofía ha contribuido a elucidar estas distinciones.

Santiago Collado y Héctor Velázquez, autores del capítulo 1, sostienen que, si se sigue el rastro a las nociones de causa y de ley en la historia del pensamiento, se puede constatar que, en diferentes periodos históricos, una de ellas ha tenido una consideración prioritaria respecto de la otra, descansando la comprensión del determinismo en la noción que asumió un mayor protagonismo. Los autores sugieren así distinguir tres modos diversos de entender el determinismo. En el periodo clásico, la comprensión del determinismo se apoyó en una consideración prioritaria de la causalidad, mientras que en la modernidad asumió un papel preponderante la predictibilidad asociada a las leyes de la naturaleza. El siglo XX, por su parte, introdujo una nueva perspectiva epistemológica, al señalar que se requiere una interpretación del formalismo teórico para poder afirmar si una teoría física particular propone o no una cosmovisión determinista.

En el capítulo 2, Alan Heiblum y Claudia Vanney se preguntan si es más adecuado aplicar el predicado determinista a las teorías científicas, a nuestro conocimiento de los sistemas físicos o a la naturaleza. Los autores señalan en este capítulo la importancia de reconocer que existen diversas perspectivas en este debate. Al admitir así una pluralidad de abordajes, concluyen que no conviene hablar de determinismo o de indeterminismo, sino de determinismos o indeterminismos. Analizan con especial detalle el determinismo de las teorías científicas, para concluir que este tipo de determinismo se predica de las objetivaciones peculiares del conocimiento científico, de manera que no tiene como sujeto ni a nuestro conocimiento (como el determinismo cognoscitivo), ni a la naturaleza (como el determinismo ontológico).

Durante la segunda mitad del siglo XX estuvo en auge el programa reduccionista, que aspiró a reducir todas las teorías científicas a una única considerada como fundamental. Los reduccionismos en el seno de la física se centraron en las reducciones interteóricas, reforzando el ideal de una unificación de la ciencia basado en una organización jerárquica de las teorías científicas. Se aspiró así a encontrar una teoría fundamental desde la que se pudieran deducir las leyes de las otras teorías científicas. Pero las propuestas reduccionistas no se circunscribieron solo al ámbito de la filosofía de la ciencia, sino que también adquirieron alcances ontológicos. El fisicalismo, por ejemplo, es una tesis metafísica según la cual las propiedades físicas determinan por completo toda la realidad, incluyendo los vivientes (Neurath 1931). Ahora bien, como los procesos biológicos, a diferencia de los procesos mecánicos, no se encuentran completamente determinados cuando se conocen únicamente las ecuaciones dinámicas y sus condiciones iniciales, las leyes dinámicas que describen la evolución temporal de un sistema físico brindan una comprensión insuficiente del viviente.

Los avances de la biología molecular, sin embargo, condujeron a nuevos planteamientos reduccionistas, que aspiraron a reducir todas las explicaciones biológicas al ámbito de la biología molecular. El reduccionismo genético clásico, como el de Monod, abrió las puertas a perspectivas indeterministas en la biología al introducir el azar en sus diferentes instancias, como generador de variedad, como mecanismo evolutivo, etc. (Monod 1970). Pero, para el determinismo genético posterior, los genes determinan por completo la morfología y el comportamiento de los fenotipos. Se originaron de este modo una serie de discusiones acerca de la relación que existe entre la microevolución y la macroevolución biológica, pero, así como no existen leyes de la biología que puedan ser reducidas a leyes de la biología molecular, tampoco los genes y el ADN logran satisfacer los criterios de reducción de un modo adecuado.

A pesar del fuerte impulso que el programa reduccionista tuvo en las últimas décadas del siglo pasado, muchos científicos y filósofos de la biología hoy piensan que no es posible reducir las explicaciones de la biología a las de la física (Dupré 2010, Keller 2010). Tampoco faltan biólogos antirreduccionistas que consideran las explicaciones de la macrobiología apropiadas y lo suficientemente autónomas como para no requerir ser corregidas, completadas o sustentadas por explicaciones a nivel molecular. Así, a diferencia de quienes sostienen que las disciplinas que estudian los niveles elementales de la materia son las más fundamentales, otros autores afirman que se requiere una combinación de disciplinas y de aproximaciones teóricas diversas para abordar los problemas que ofrece la complejidad biológica (Folguera 2011). Otra respuesta al reduccionismo genético provino del emergentismo, que reconoce la existencia de propiedades holísticas no deducibles desde las partes del organismo. Las consideraciones emergentistas utilizan la noción de causalidad hacia abajo (top-down o downward) para indicar la capacidad selectiva de los organismos complejos respecto a algunas propiedades de sus partes constitutivas (Van Gulick 2003).

En el capítulo 3, Mariano Asla y Valeria Cantó-Soler presentan las razones del perenne debate en torno al reduccionismo en biología. Al carácter esencialmente interdisciplinar y transteorético de muchos problemas de la biología, se añaden también la naturaleza esencialmente limitada del conocimiento humano y la gravedad de las consecuencias teóricas y prácticas de la cuestión abordada. Por otra parte, los términos de la discusión son frecuentemente problemáticos, puesto que lo que para unos sería reduccionista para otros avalaría una postura justamente contraria. La tesis de los autores es que el reduccionismo ontológico es una tentación natural, debida en buena medida a que el conocimiento científico avanza identificando y desmontando los procesos complejos en legalidades más elementales. El peligro que hay que evitar es desconocer la existencia de realidades de suyo irreductibles, entre las cuales la vida parece ser uno de los mejores ejemplos.

Por otra parte, Guillermo Folguera y Christian Francese abordan en el capítulo 4 las dificultades epistemológicas y ontológicas que debe enfrentar el determinismo genético en la biología contemporánea. Resaltan que actualmente la biología presenta numerosas subdisciplinas (biología molecular, biología genética, biología del desarrollo, biología funcional…), cada una con objetos de estudio, metodologías y marcos teóricos diversos. El determinismo genético, adoptado como marco teórico hegemónico de la biología durante gran parte del siglo pasado, se presenta en las distintas subdisciplinas con matices propios, aun cuando ese marco se fue modificando de manera sustancial. Esa pluralidad de enfoques indica, para los autores, la coexistencia de diversos significados del determinismo genético, cada uno de ellos expuesto a diferentes objeciones.

Si la discusión en torno a una naturaleza determinista o indeterminista se presenta ya aguda en el nivel de la física, y se intensifica cuando toca la cuestión de la vida y la evolución de sus formas, el debate revela su mayor trascendencia cuando se refiere a la conciencia y a la libertad del ser humano. Con el enorme desarrollo de las neurociencias, pareció tanto más tentador, y probable, reducir la conciencia a fenómenos neurobiológicos. El aumento en el grado de complejidad que esa reducción requeriría disparó nueva discusiones epistemológicas y ontológicas, retomando de una forma u otra las disputas de la filosofía de la mente. En las discusiones recientes se han propuesto algunos argumentos en defensa de una versión no reduccionista de lo mental, como el de la realización múltiple de los estados psicológicos, los argumentos funcionalistas y la existencia de qualia.

No obstante, las caracterizaciones sistemáticas de los distintos niveles explicativos de las ciencias cognitivas y del cerebro son infrecuentes, y en esos intentos las consideraciones ontológicas y epistemológicas suelen aparecer entremezcladas. Hoy resulta todavía un desafío alcanzar un modelo que dé cuenta de la conexión entre los distintos niveles epistemológicos. En el capítulo 5, Ivana Anton Mlinar y Martín López Vicchi proponen comprender la diferenciación de niveles desde la unidad personal, a fin de no concebir esos niveles como partes materiales o inmateriales que, aunque formando parte de un todo, pudieran también concebirse aisladamente. Los autores de este capítulo entienden que, para hacer justicia a la unidad y, en consecuencia, a la identidad del individuo, es necesario tomar precisamente esa unidad como definitoria, esto es, como principio ontológico distintivo.

Las discusiones epistemológicas abren de un modo natural el camino a las preguntas ontológicas sobre los fundamentos filosóficos de las neurociencias, en particular acerca de la naturaleza de la mente y del alma. Con pocas excepciones, la mayoría de los autores está de acuerdo en rechazar toda forma de dualismo cartesiano. Luego de que Gilbert Ryle caracterizara el alma cartesiana como un «fantasma en la máquina», muchos han adoptado una posición materialista o reduccionista (Churchland 1968, Changeux 1983, Dennett 1991). Sin embargo, no faltan quienes sostienen una dualidad lingüística o semántica sin compromisos ontológicos. Como ejemplos de esta postura tenemos a Paul Ricoeur (Ricoeur y Changeux 2000) y a quienes buscan una alternativa al reduccionismo recurriendo a la «falacia mereológica» (Bennett y Hacker 2003). Según estos últimos, no es posible atribuir a las partes (ej. el cerebro o cualquier otro órgano) lo que pertenece al todo (el ser humano, la persona). Pero la dificultad que presenta este enfoque es que separa de un modo muy estricto los campos de significado de la ciencia y de la filosofía (o del lenguaje ordinario), haciendo casi impracticable el diálogo interdisciplinar.

La original pretensión de la fenomenología de reservar para la filosofía un ámbito propio de estudio de la conciencia y el espíritu, cedió ante la afirmación de que la conciencia siempre refiere a un polo objetivo —el mundo— a través de la mediación de nuestro cuerpo. De esa forma, solo se podría entender el mundo como corpóreo y la conciencia como el correlato necesario de la manifestación del mundo (Merleau-Ponty 1945, 1964). Esta ambigüedad facilitó el trabajo al llamado «proyecto de naturalización de la conciencia humana», que agrupó a neurocientíficos, filósofos y psicólogos tras el objetivo de mostrar que toda propiedad de lo mental resulta aceptable solo si está en continuidad con las propiedades estudiadas por las ciencias naturales (Petitot et al. 1999). Pero esto implicaba desandar los pasos de la misma fenomenología, al reservar solo al discurso científico la racionalidad en el estudio de lo humano. Desde la fenomenología se procuró nuevamente reafirmar lo espiritual, aunque evitando las afirmaciones de tipo ontológico, para no caer en un dualismo. Se buscó entonces rescatar el sentido del discurso en términos de la primera persona, para diferenciarse de la ciencia que discurriría en términos de la tercera persona. Searle también resaltó la irreductibilidad del discurso de la primera persona y la fiabilidad, hasta cierto punto, de la psicología popular (folk psychology), pero por rechazo al dualismo se orientó hacia una ontología naturalista (Searle 1992). Un punto en discusión actual es si cabe una postura no reduccionista que prescinda a la vez de afirmaciones ontológicas.

Otros autores sostienen una dualidad no substancial, distanciándose de Descartes y recurriendo a la tradición atistotélica (Sanguineti 2007) o adoptando una posición epifenomenalista (Chalmers 2002). Finalmente, algunos proponen teorías no reduccionistas pero que conservan un fondo más o menos materialista, como el monismo anómalo (Davidson 1980) y algunos tipos de emergentismo (Searle 1992). Frente a tal variedad de posiciones, no sorprende que aún permanezca abierta la discusión sobre cuál es el marco más adecuado para entender la naturaleza de la mente.

En el capítulo 6, Luis Echarte y Juan Francisco Franck examinan aportes recientes de la filosofía de la neurociencia en los que se expresa el deseo de evitar simultáneamente el reduccionismo neural y todo dualismo sustancial, aunque estos aportes tampoco brindan una posición ontológica clara. Analizan además otras contribuciones que recogen la preocupación dualista, las cuales ofrecen una interpretación de corte eliminativista, reduciendo la subjetividad a una ilusión, a una conveniencia práctica o a una estrategia evolutiva. El interrogante que guía el capítulo es si estos intentos son suficientes para dar cuenta de las razones del dualismo o si el recurso a alguna ontología no sería ineludible para comprender lo mental.

INTERROGANTES ONTOLÓGICOS

El dilema del determinismo como una cuestión metafísica tuvo su origen en la antigüedad clásica asociada a la noción de destino inexorable o fatalidad. Sin embargo, la cosmovisión determinista con fundamentos teóricos en la ciencia es una comprensión moderna, concebida a partir de los éxitos predictivos de la física de Newton y de la mecánica racional. El mecanicismo de los siglos XVIII y XIX comprendió el mundo como un gran sistema de relojería, cuyos estados evolucionan a partir de un estado inicial de un modo inexorable. Un representante característico del determinismo mecanicista fue Laplace, quien formuló hipotéticamente la existencia de una superinteligencia capaz de calcular con la misma precisión lo acaecido y el futuro a partir de una información exhaustiva del universo en un instante cualquiera de su transcurso (Laplace 1951).

El determinismo mecanicista prevaleció en la física sin cuestionamientos hasta fines del siglo XIX, cuando los trabajos de Poincaré manifestaron limitaciones intrínsecas en la predicción de la evolución temporal de algunos sistemas mecánicos (Poincaré 1982). Así, durante el siglo XX, la cosmovisión de la ciencia se alejó considerablemente de la imagen determinista del mundo-reloj, asumiendo nuevas modalidades. Por un lado, el desarrollo de la física del caos resultó un obstáculo insalvable para quienes pretendían una predicción unívoca de todo estado futuro en todos los sistemas reales. Por otro, la consolidación de la mecánica cuántica exigió una revisión del determinismo clásico al introducir la aleatoriedad en el estrato fundamental de la realidad.

El desarrollo de las ciencias de la complejidad durante el siglo XX puso fuertemente a prueba el determinismo mecanicista. La coexistencia —en los sistemas caóticos— de leyes deterministas no lineales, junto con establecimientos inciertos de las condiciones iniciales del sistema físico, ha hecho imposible la predicción unívoca de la evolución temporal de cada una de las muchas partículas de los sistemas reales. Debido a que en estos sistemas el movimiento de las partículas está regido por ecuaciones muy sensibles a las condiciones iniciales, las trayectorias que siguen dos puntos inicialmente muy cercanos divergen exponencialmente (y no de forma lineal) con el transcurso del tiempo, de manera que pequeñas incertidumbres iniciales son amplificadas exponencialmente en los sistemas caóticos. Si bien sigue siendo posible sostener un determinismo en la dinámica de los sistemas caóticos, esta exige una interpretación peculiar. Como en los sistemas complejos, se pueden predecir estadísticamente de un modo holístico los estados futuros, los procesos que parecen aleatorios macroscópicamente pueden interpretarse como respuestas de leyes deterministas microscópicas subyacentes, responsables estas últimas de restaurar la dependencia temporal unívoca entre los estados del sistema. Si se considera que la estadística tiene la exclusiva función de permitir el tratamiento de sistemas muy complejos con un número enorme de grados de libertad, la probabilidad podría concebirse como la expresión de nuestra ignorancia acerca de los procesos perfectamente deterministas que siguen un sinnúmero de elementos inobservables. Pero ¿admiten entonces los fenómenos caóticos la coexistencia de un determinismo y de un indeterminismo en diferentes niveles o estratos de la realidad? Si así fuera, ¿cómo debería explicarse esta coexistencia?

En el capítulo 7, Olimpia Lombardi y Rafael Martínez exploran las nuevas perspectivas abiertas por el estudio de los sistemas altamente inestables. Señalan que la teoría del caos y la teoría ergódica parecen conducir a conclusiones contradictorias acerca del carácter determinista o indeterminista de la realidad. Los autores muestran que, para resolver este aparente conflicto, caben dos alternativas. La primera consiste en asumir una objetividad estratificada que permita hablar de determinismo e indeterminismo igualmente objetivos, pero relativos al nivel ontológico que se considere en cada caso. La segunda interpreta tal dualidad como fundamentalmente epistemológica, pues reconoce el pluralismo a nivel de descripción teórica, pero distingue entre la dinámica determinista del sistema y su no-determinación ontológica o contingencia.

Una disyuntiva similar se encuentra al abordar el estudio de los fenómenos cuánticos. A pesar de sus enormes éxitos predictivos, la mecánica cuántica continúa presentando grandes desafíos a la hora de su interpretación, cuestión singularmente relevante para el tema que nos ocupa, pues la respuesta sobre el carácter determinista o indeterminista de la mecánica cuántica depende fuertemente de la interpretación de la teoría adoptada. Si bien la mayoría de las interpretaciones favorecen un marco indeterminista, tampoco han faltado nuevos formalismos cuánticos, como el de Bohm, que restituyen el determinismo (Bohm 1952a, b). Ahora bien, las más recientes interpretaciones de la mecánica cuántica, ¿favorecen un indeterminismo epistemológico u ontológico? Más específicamente, ¿introducen estas interpretaciones un indeterminismo ontológico en la microfísica o las probabilidades de la mecánica cuántica son un mero signo de nuestra ignorancia? En el capítulo 8, Sebastian Fortin y Leonardo Vanni eligen dos interpretaciones diversas de la mecánica cuántica —la mecánica bohmiana y las interpretaciones modales— para mostrar que la mecánica cuántica no brinda una respuesta conclusiva respecto al indeterminismo de la naturaleza.

Si en el ámbito más restringido de la física no existe una formulación única para el determinismo, la situación es aún más difícil en el estudio de los seres vivos. En las explicaciones biológicas, el indeterminismo fue introducido dentro del contexto de los fenómenos complejos y de los procesos de autoorganización. Pero cabe preguntarse si la complejidad biológica exige necesariamente una visión indeterminista. La contingencia del mundo biológico, cuyos fenómenos poseen tanto un componente estocástico como uno causal, involucra una diversidad de niveles de complejidad. Así, en la actualidad, una de las cuestiones con mayor relevancia para la filosofía de la biología es comprender la determinación e indeterminación que caracterizan la organización de los seres vivos dentro del contexto de la complejidad.

En la biología contemporánea en general, y en la genética en particular, el concepto de información desempeña un importante papel (Godfrey-Smith y Kim 2008). Los científicos han descubierto que la información almacenada en el genoma está regulada en gran medida por factores epigenéticos (Latchman 2010). Ante esto cabría preguntarse si los factores epigenéticos abren nuevamente un espacio a la indeterminación, dentro del contexto del determinismo genético. Las aproximaciones epigenéticas no ignoran los componentes genéticos de la innovación —como las variaciones genéticas o el gen regulador de la evolución—, pero las asumen como consideraciones siempre presentes en el contexto de trabajo, a la vez que se concentran en intentar explicar los mecanismos que subyacen en la generación de novedades (Müller 2010). Actualmente, el paradigma epigenético es mayoritariamente aceptado, aunque persisten discusiones acerca de su alcance. A pesar de esto, aún no se tiene un modelo explicativo que pueda dar cuenta de la dinámica del sistema como un todo de un modo preciso.

El capítulo 9, escrito por María Cerezo y Ángela Suburo, subraya que la complejidad de la genética fuerza a relativizar la oposición determinismo-indeterminismo en el desarrollo de los organismos biológicos. Los diferentes mecanismos de expresión de los genes indican que estos últimos ciertamente son un factor primordial en la determinación de las características del fenotipo, pero de ninguna manera el único. Este punto, que cuenta con abundante evidencia empírica, conduce a la pregunta por cuál sería la noción y el modelo de causalidad que refleja mejor la relación entre los rasgos biológicos de los individuos y sus genes.

Además de reabrir las cuestiones relativas a la evolución y a la estructura de los sistemas biológicos, la biología contemporánea se interesó también por el desarrollo biológico. Las consideraciones evolutivas (Arp 2007), sistémicas (Craver 2001) y organizacionales (Artiga 2011) de la complejidad biológica ofrecieron así nuevas perspectivas para el estudio de las funciones orgánicas. Estos enfoques permiten considerar las teorías evolutivas no solo a la luz de la biología molecular, sino que ponen también de manifiesto la necesidad de considerar los mecanismos involucrados en el desarrollo y la autoorganización de los vivientes (Bertolaso 2009).

La consideración de una dimensión estocástica a nivel microscópico, junto con una determinación funcional de las partes y del sistema a nivel macroscópico, abrió el camino al surgimiento de las perspectivas sistémicas, que aplicaron la teoría de sistemas al estudio de los vivientes (Von Bertalanffy 1986). El desarrollo se produce a través de la selección de ciclos autocatalíticos en ciertas configuraciones de procesos, los cuales organizan de forma competitiva el sistema cuando los recursos se vuelven limitados. El desarrollo biológico coordina así la diferenciación de las partes constitutivas del sistema y su contribución al funcionamiento del organismo de un modo peculiar. Como la biología del desarrollo considera minuciosamente las redes de flujo y las relaciones jerárquicas que definen un sistema, así como su contexto, toda la causalidad no aleatoria resulta del desarrollo. Desde este punto de vista, una causalidad hacia abajo —bajo la forma de restricciones organizacionales o informacionales— parecería predominar en los sistemas maduros, pues en ellos el funcionamiento depende en menor medida de las partes constitutivas de los niveles inferiores. En el capítulo 10, Marta Bertolaso y Francisco Güell presentan un valioso aporte a la filosofía de la biología. Para entender qué es un ser vivo, proponen un paradigma constitucional, en el cual el principio de autoestructuración sea suficientemente flexible al entorno y a las circunstancias como para permitir espacios de indeterminación en el desarrollo del viviente.

La investigación neurocientífica actual también abre un nuevo capítulo en el problema del determinismo. La asociación que hoy podemos establecer, cada vez con mayor detalle, entre funciones neurales y actos mentales, lleva a plantearse el nada despreciable problema de la naturaleza de la conciencia y de aquellos actos de los que nos consideramos autores. ¿Cómo incide el determinismo o indeterminismo de los eventos neurales en la posibilidad de una auténtica libertad? Las posiciones clásicas se dividen entre compatibilistas e incompatibilistas (Fischer et al. 2007, Kane 2005). Mientras que varios compatibilistas afirman que un sistema determinista deja espacio al libre albedrío, los incompatibilistas lo niegan. Entre estos, los libertarios dicen que el libre albedrío es real, pero presupone el indeterminismo del mundo físico. Otros adoptan una posición determinista dura, según la cual el determinismo es verdadero y esto excluye la posibilidad de actos libres. Sin embargo, no es verdad que toda posición indeterminista asegure el libre albedrío. Si, por ejemplo, la fijación de las indeterminaciones cuánticas respondiera a movimientos aleatorios, la acción humana tampoco estaría originada en una decisión genuinamente libre.

Los experimentos de Libet y otros similares (Libet 1985, Haggard y Eimer 1999, Soon 2008) forzaron a examinar nuevamente el problema del libre albedrío. Si bien Libet fue bastante cauteloso acerca del alcance de sus investigaciones, ciertamente estas han desatado un intenso debate. Un punto central en discusión es si los procesos neurológicos son compatibles con el establecimiento de metas por parte de un agente voluntario. Algunos autores consideran que la conciencia que se tiene de ser uno mismo quien elige llevar a cabo una determinada acción es solo una ilusión, aunque también muchos otros afirman lo contrario utilizando argumentos diversos (Mele 2000, Murphy y Brown 2007, Sanguineti 2011).

Pablo Brumovski y Miguel García Valdecasas acometen en el capítulo 11 la difícil discusión sobre si el cerebro puede ser asiento de una causación mental no-reduccionista. Lo hacen siguiendo de cerca la teoría emergentista de Michael Gazzaniga, quien afirma que el yo es un producto de un sistema dinámico localizado en el hemisferio izquierdo del cerebro, al que denominó «sistema intérprete». Debido a su autonomía respecto de los niveles inferiores, los sistemas dinámicos parecerían ser un correlato físico adecuado, aunque aún están lejos de explicar suficientemente la subjetividad del yo. Por esto, si bien Gazzaniga es partidario de conjugar un determinismo suave con la libertad de la persona, los autores señalan que la inclinación hacia una posición eliminativista del yo introduce tensiones innecesarias en su teoría.

En el capítulo 12, Ángela Suburo y José Ignacio Murillo se preguntan qué relación existe entre los procesos neurobiológicos y el establecimiento de fines por parte de la persona. Para responder, recuerdan que el problema mente-cerebro no es algo que pueda considerarse resuelto. Consideran en particular la formación de las intenciones, que parecen poner en entredicho el determinismo neural, pues implican la anticipación de un fin. En efecto, sin dejar de ser requerido para la acción, por definición el fin no es algo que pueda actuar eficientemente, es decir al modo en que un acontecimiento, cerebral o no, desencadena un estado neural o mental, o una conducta.

Juan Pablo Roldán y Carlos Blanco abordan en el capítulo 13 un aspecto importante del debate acerca de la libertad humana en el contexto de la neurociencia. La negación de la libertad es un lugar común en ciertas reflexiones que interpretan los descubrimientos neurocientíficos. Ante esto, los autores no solo ofrecen una posible vía de solución en sintonía con el curso actual de la investigación neurobiológica, sino que también proponen una dilucidación histórica de la idea filosófica de libertad para aclarar algunos presupuestos que gravitan en el debate, pero que el debate mismo no es capaz de hacer aflorar.

INTERROGANTES FILOSÓFICO-TEOLÓGICOS

La discusión sobre el determinismo de la naturaleza tuvo también fuertes implicaciones en la teología natural. En los estudios referidos al origen del universo y de la vida, a la acción providente de Dios en el mundo o a las explicaciones de la unidad de mente y cerebro humano, siempre subyace una cosmovisión determinista o indeterminista, explícita o implícitamente asumida.

El estudio del origen del universo siempre fue un tema especialmente abierto a la investigación de las ciencias y de la teología. Por un lado, las explicaciones de la cosmología científica intentan reconstruir las distintas etapas evolutivas de nuestro universo desde su inicio. Por otro lado, cada tradición religiosa ofrece una doctrina sobre estos orígenes. La cosmología contemporánea propone diversos modelos cosmológicos, pero ¿son todos ellos compatibles con la creación divina o algunos la excluyen? Stephen Hawking, por ejemplo, sostiene que no es necesario acudir a Dios para explicar el origen del universo, pues para él tanto el big bang como la posibilidad de un multiverso serían una mera consecuencia de las leyes de la física (Hawking y Mlodinow 2010). Otros autores, con una visión metafísica más profunda, argumentan en cambio que el origen del universo implica una relación causal que trasciende a la naturaleza y al método científico (Carroll 2008, Tanzella-Nitti 2005). Asumiendo una perspectiva más amplia, Alejandro González Sánchez y Francisco José Soler Gil buscan —en el capítulo 14— establecer puentes de diálogo entre la teología natural y la cosmología científica actual, destacando que los rasgos de objetualidad, racionalidad y orientación a fines se encuentran tanto en los modelos cosmológicos actuales como en la doctrina de la creación.

Los estudios sobre el origen de la vida y la biología evolutiva también abrieron desafíos nuevos a la reflexión teológica, como explican Rafael Vicuña y Rafael Martínez en el capítulo 15. Sin embargo, el origen de la vida continúa siendo un misterio para la ciencia actual, pues existe una diversidad de teorías que aspiran a explicarla, junto con una gran divergencia de opiniones entre los científicos. La mayor dificultad que afrontan estas explicaciones es la tremenda complejidad de los vivientes, incluso la de aquellos más simples. Los autores sostienen que, para comprender cómo puede aparecer la vida, es necesario conocer mejor los mecanismos físicos, químico-moleculares y biológicos que la hacen posible. Aunque también señalan que el problema del origen no refiere solamente a un inicio temporal, entendido como la determinación del primer evento en una cadena de organismos vivientes. Es decir, la perspectiva ‘naturalista’, irrenunciable para la ciencia, no se opone a la reflexión filosófica, cuando esta se pregunta por el sentido de la realidad viva para ahondar en la comprensión del problema del origen. Cuando la ciencia nos revela una inteligibilidad en la naturaleza, da a entender que el mundo debe poseer una causa radical que es no solo inteligible, sino también fuente de inteligibilidad.

Pero no es la pregunta sobre el origen el único tema con consecuencias teológicas que surge al cuestionar el determinismo de la naturaleza. En tiempos recientes, el programa de investigación llamado «Perspectivas científicas sobre la acción divina» ha estudiado los diversos modos en los que la ciencia contemporánea ha abierto algún tipo de espacio metafísico para dar cabida a una acción divina en el mundo sin necesidad de violar las leyes de la naturaleza (Russell, Stoeger y Murphy 2009). Para algunos investigadores de este programa, Dios eligió unas leyes muy específicas, con propiedades notables, al seleccionar las leyes de la naturaleza. Son ellas las que permiten el surgimiento de eventos no por azar, sino mediante una genuina emergencia de la complejidad en la naturaleza. Una emergencia que requiere leyes especiales, pero va más allá del mero despliegue de sus consecuencias.

Entre las diversas teorías científicas actualmente vigentes, la física cuántica, por un lado, ofrece un marco teórico muy promisorio, pues introduce la aleatoriedad en los estratos más fundamentales de la realidad (Russell 2001). Pero ¿es necesario que la física asuma un indeterminismo ontológico para admitir la posibilidad de una acción divina en la naturaleza? Por otro lado, diversas nociones de la biología contemporánea —como la autoorganización, la indeterminación, la causalidad hacia abajo y la comunicación de la información— también podrían abrir diversas posibilidades a una actuación divina no intervencionista en la historia evolutiva (Russell 1998, de Asúa 2014). Pero incluso aceptando una providencia divina, ¿en qué medida los procesos evolutivos contingentes refieren a un Dios creador y providente?

Ignacio Silva y Alejandro Clausse abordan en el capítulo 16 la primera de estas preguntas. Sostienen que la propuesta de exigir una indeterminación ontológica en la naturaleza para abrir un espacio a la acción de la providencia lleva implícita una comprensión unívoca de la causalidad. Por esta razón, para conciliar nuestro entendimiento de la acción de Dios en el mundo tanto desde la ciencia como desde la teología, sugieren utilizar la vía de la analogía. Los autores además muestran que, dentro de la misma física, también existen formulaciones que destacan el valor del conocimiento por analogía.

La segunda pregunta es analizada por Jorge Aquino e Ignacio Silva en el capítulo 17. La visión metafísica de Tomás de Aquino concibe a Dios obrando constantemente en y a través de los agentes naturales en el universo creado, guiando providencialmente su desarrollo. En cuanto que causa primera, Dios no interfiere con la causalidad de las causas segundas, sino que es la fuente de sus poderes causales, aun de aquellos que obran azarosa y contingentemente. En esta concepción del mundo natural y de su relación con el Creador no se rechaza ni la contingencia ni la aleatoriedad de las posibles mutaciones. Los autores sostienen además que la existencia tanto de leyes de la naturaleza —que permiten su propia organización y diversificación— como de ámbitos de indeterminación y de azar natural, lejos de contrariar las perfecciones divinas, las exaltan aún más, pues permiten reflejar más patentemente el poder de Dios en las creaturas mismas.

La perenne cuestión de la unidad mente-cerebro es otro ámbito con grandes implicaciones teológicas. Tanto la filosofía de la mente como las neurociencias se han visto confrontadas con el antiguo problema del alma. Aunque el uso de los términos es aún un tema bajo disputa, cuando se emplean al mismo tiempo, el término mente suele referir a la conciencia y a las operaciones mentales tomadas en general, mientras que el término alma refiere a un principio de naturaleza no física, implicando la posibilidad de una connotación religiosa. Si bien los debates en la ciencia y en la filosofía tienden comprensiblemente a evitar este último término, la teología no puede rehuir el tema. Surgen así preguntas tales como si la mente humana es una propiedad emergente de sistemas neurales supercomplejos, o también, si es posible hablar de un alma humana en un discurso neurobiológico.

En el último capítulo del libro, Juan José Sanguineti y Marcelo Villar afrontan este problema. Reconocen una variedad complementaria de enfoques epistémicos, y la proponen para abordar la dualidad psíquico/neural. Aunque sostienen que no se puede argumentar la existencia del alma desde la pura biología y que la neurociencia no necesita acudir a la noción de alma para sus explicaciones, justifican también la legitimidad de la afirmación de la existencia de algo no-corpóreo en el hombre, y de su compatibilidad con los conocimientos neurocientíficos. Con respecto a la religiosidad, los autores sostienen que no es posible convencer a los científicos, ni a las personas en general, de la autenticidad de las experiencias espirituales si esas mismas personas no las han vivido. Si bien sería posible evaluar, en algunos casos, ciertos aspectos de la autenticidad de las experiencias místicas y espirituales desde el plano neurobiológico, consideran prácticamente imposible un tratamiento puramente objetivo de ellas.

* * *

Al concluir la preparación de este libro queremos, como editores, expresar nuestra mayor gratitud a los autores de los diversos capítulos, por su amable e incondicional disposición para participar en esta publicación. Su interés, trabajo y esfuerzo hicieron posible que pudiéramos contar con las sugerentes colaboraciones que aquí se presentan. Confiamos en que el lector también las encontrará interesantes y científicamente enriquecedoras. Nuestro agradecimiento se extiende asimismo a la Universidad Austral (Argentina), a la Agencia Nacional de Promoción Científica y Tecnológica (FONCYT) y a la John Templeton Foundation, quienes han alentado y colaborado generosamente con el desarrollo de diversos proyectos de investigación cuyos frutos aquí se muestran.

Buenos Aires, abril de 2016

BIBLIOGRAFÍA

Arp, R. 2007. «Evolution and two popular proposals for the definition of function». Journal for General Philosophy of Science 38(1): 19-30.

Artiga, M. 2011. «Re-organizing organizational accounts of function». Applied Ontology 6: 105-124.

Asúa, M. de 2014. La evolución de la vida en la Tierra. Ciencia, filosofía y religión. Pilar-Rosario: Universidad Austral-Ediciones Logos.

Bennett, M. y P. Hacker. 2003. Philosophical Foundations of Neurosciences. Oxford: Wiley-Blackwell.

Bertalanffy, L. von. 1986. Teoría general de los sistemas. Fundamentos, desarrollo, aplicaciones. México: Fondo de Cultura Económica.

Bertolaso, M. 2009. «The neoplastic process and the problems with the attribution of function». Rivista di Biologia/Biology Forum 102: 245-249.

Bohm, D. 1952a. «A suggested interpretation of the quantum theory in terms of “hidden” variables. I». Physical Review 85(2): 166-179.

— 1952b. «A suggested interpretation of the quantum theory in terms of “hidden” variables. II». Physical Review 85(2): 180-193.

Carroll, W. E. 2008. «Divine agency, contemporary physics, and the autonomy of nature». The Heythrop Journal 49(4): 582-602.

Castagnino, M., R. Laura, y O. Lombardi. 2007. «A general conceptual framework for decoherence in closed and open systems». Philosophy of Science 74(5): 968-980.

Chalmers, D. 2002. Philosophy of Mind. Classical and Contemporary Readings. Oxford: Oxford University Press.

Changeux, J.-P. 1983. L’homme neuronal. París: Fayard.

Changeux, J.-P. y P. Ricoeur. 2001. La naturaleza y la norma: lo que nos hace pensar. México: FCE.

Churchland, P. S. 1968. Neurophilosophy: Toward a Unified Science of Main-Brain. Cambridge, MA: MIT Press.

Craver, C. F. 2001. «Role functions, mechanisms, and hierarchy». Philosophy of Science 68(1): 53-74.

Davidson, D. 1980. Essays on Actions and Events. Oxford: Clarendon Press.

Dennett, D. 1991. Consciousness Explained. Nueva York: Back Bay Books.

Dupré, J. 2010. «It is not possible to reduce biological explanations to explanations in chemistry and/or Physics». En Contemporary Debates in Philosophy of Biology, editado por F. Ayala y R. Arp, 32-47. Oxford: Wiley-Blackwell.

Earman, J. 1986. A Premier on Determinism. Dordrecht: Reidel.

Fischer, J. M., et al. 2007. Four Views on Free Will. Oxford: Blackwell Publishing.

Folguera, G. 2011. «Enfoques y desenfoques de los programas de investigación de la biología evolutiva del desarrollo». Ludus Vitalis XIX(35): 325-331.

Godfrey-Smith, P. y S. Kim. 2008. «Biological information». En The Stanford Encyclopedia of Philosophy, editado por E. N. Zalta.

Haggard, P. y M. Eimer. 1999. «On the relation between brain potentials and the awareness of voluntary movements». Experimental Brain Research 126(1): 128-133.

Hawking, S. y L. Mlodinow. 2010. The Grand Design. Nueva York: Bantam Books.

Kane, R. 2005. A Contemporary Introduction to Free Will. Oxford: Oxford University Press.

Keller, E. F. 2010. «It is possible to reduce biological explanations to explanations in chemistry and/or Physics». En Contemporary Debates in Philosophy of Biology, editado por F. Ayala y R. Arp, 19-31. Oxford: Wiley-Blackwell.

Laplace, P. S. 1951. A philosophical Essay on Probabilities. Nueva York: Dover Publications.

Latchman, D. S. 2010. Gene Control. Nueva York-Abingdon: Garland Science.

Libet, B. 1985. «Unconscious cerebral initiative and the role of conscious will in voluntary action». Behavioral and Brain Sciences 8(04): 529-539.

Mele, A. 2000. Effective Intentions. The Power of Free Will. Oxford: Oxford University Press.

Merleau-Ponty, M. 1945. Phénoménologie de la perception. París: Gallimard.

— 1964. Le visible et l’invisible. París: Gallimard.

Monod, J. 1970. Le hasard et la nécessité. Essai sur la philosophie naturelle de la biologie moderne. París: Editions du Seuil.

Murphy, N., G. F. R. Ellis y T. O’Connor (eds.). 2009. Downward Causation and the Neurobiology of Free Will. Berlin: Springer.

Müller, G. B. 2010. «Epigenetic innovation». En Evolution. The Extended Synthesis, editado por M. Pigliucci y G. Müller, 307-332. Cambridge, MA: MIT Press.

Nagel, E. 1974. «The reduction of theories». En The Structure of Science, 336-387. Londres: Routledge.

Neurath, O. 1931. «Physicalism». The monist 41: 618-623.

Petitot, J. et al. (eds.). 1999. Naturalizing Phenomenology. Issues in Contemporary Phenomenology and Cognitive Science. Stanford, CA: Stanford University Press.