miércoles, 13 de enero de 2010

Los tipos de carácter según Aristóteles


Aristóteles nos ha proporcionado una categorización lógica de 4 tipos de carácter (ëtica a Nicómaco). Dejando de lado los tipos extremos, el que vive como una bestia y el que se encuentra por encima de la coindición humana, tenemos el carácter virtuoso, el moderado, el intemperante y el vicioso. Para comprenderlos se han de considerar cómo se manifiestan a través de acciones, decisiones y desos:

Por ejemplo, supongamos que alguien va andando por la calle y se encuentra una billetera con una cuantiosa suma de dinero. Si la persona es virtuosa, no sólo decidirá entrergar la billetera a las autoridades sino que además lo hará con gusto: Sus deseos condicen la decisión y la acción que cree correctas.

Si la persona fuera de otra pasta, pongamos un moderado, igualmente sería capaz de tomar la decisión correcta, o sea, devolverla intacta, actuando según la decisión que ha tomado. Pero al hacerlo actuaría en contra de sus deseos. La persona moderada tiene como rasgo principal tener que luchar contra sus deseos para hacer lo que debe.

Esto es aún peor en el caso del intemperante o el vicioso. El intemperante toma la decisión correcta, pero su voluntad es débil y se rendirá ante su propio deseo de quedarse con la billetera, no logrando actuar como es debido pese a saber que está mal esta acción. En lo relativo al vicioso, no habrá ninguna lucha contra los propios principios ni una debilidad volitiva. Esto es así porque la decisión del vicioso es moralmente errónea y sus deseos la secundan por completo. Se quedaría pues con la billetera, desearía hacerlo y además actuaría en consecuencia con su deseo.

Queda pues ensalzado el modelo virtuoso, que es quien posee las virtudes y las pone en práctica. Estas virtudes son estados o rasgosde carácter que disponen a quien los ha desarrollado a actuar y reaccionar emocionalmente de forma correcta. Aristóteles insiste en definir las virtudes como condiciones del carácter vinculadas a las acciones y a los sentimientos. Por ejemplo, la virtud de la liberalidad estará dando disposición a quien la posea para mostrarse caritativo en las circunstancias adecuadas, pero no a dar dinero a cualquiera que lo pidiese. Debe percibir que el otro necesita la dádiva y que la empleará de forma adecuada, y adecuará su reacción emocional a la situación. Así, dará con gusto y no se arrepentirá de hacerlo. En cambiom, un tacaño no se desprenderá de su dinero con facilidad, y no porque lo necesite o no pueda prescindir de él, sino porque se inclinará a la avaricia o sobreestimará la necesidad que tendrá de ese dinero en el futuro.

La razón, pues, juega un papel crucial, pues para cada virtud se exige no ser estúpido ni ingenuo. Exige una disposición al razonamiento crítico que permita entender una situación y ver las diferencias con respecto a otra. Y actuar en consecuencia. Aristóteles piensa que en cuestiones de ética no hay lugar para una precisión rigurosa:

"Las acciones están hechas justa y sobriamente si el agente, en primer lugar sabe lo que hace; Luego si las elige y las elige por ellas mismas; Y en tercer lugar si las hace con firmeza e inquebrantablemente.". La última condición nos indica que la acción será virtuosa por que la persona es virtuosa, una persona que se inclina a un comportamiento moral correcto cuando la situación lo exige. Esto es lo que significa actuar "con firmeza e inquebrantablemente".

miércoles, 23 de diciembre de 2009

La lógica


La lógica se adentra en todas las formas de investigación. Todos los buenos argumentos deberían seguir las reglas lógicas para mostrar que las conclusiones se siguen de las premisas, pero la lógica en sí no afirma absolutamente nada. Es una herramienta, un método de análisis. La lógica aplicada al Sr. Spock de Star Trek no dicta que el bienestar de la mayoría supera al bienestar de la minoría (o al de unos pocos). No. La lógica no puede hacer afirmaciones semejantes. Pero sí proporciona un modo de alcanzar esa conclusión a partir de ciertas premisas.

Y podemos emplear la lógica para algo más, como la electrónica y el análisis del lenguaje.

La lógica parece inseparable de nuestras vidas, pero no todo el mundo cree que sea tan crucial. En su última etapa, Wittgenstein se apartó de la fe en la lógica que profesara en su juventud. En un famoso diálogo con Turing se mostraba deseoso de hacer hincapié en las consecuencias prácticas por encima de los problemas teóricos. Escéptica respecto al papel de la lógica, hacía su entrada una nueva concepción de la filosofía. Wittgenstein llegó a pensar que lo importante en filosofía no eran los argumentos, sino lograr que la gente viese las cosas desde una nueva perspectiva. El trabajo en filosofía es más una suerte de trabajo sobre uno mismo, sobre nuestra concepción, sobre nuestra manera de ver las cosas. Si alguien cree que ha hallado la solución al "problema de la vida...", para refutarse a sí mismo bastará con recordar que hubo un tiempo en que dicha solución no había sido hallada. Pero uno tenía que ser capaz de vivir también entonces...

Y eso es lo que sucede en lógica. Si existiera la "solución" a los problemas lógicos, sólo tendríamos que recordar que hubo un tiempo en el que no se habían resuelto ( y uno tiene que ser capaz de vivir y pensar). Y no sorprende que tras un siglo de grandes avances en la lógica, pocos estén preparados para seguir la línea de Wittgenstein, y la lógica continúa siendo fundamental en las matemátiocas, la ciencia y la tecnología.

Pertenezca o no a la esencia del pensamiento y del lenguaje, la capacidad de pensar sistemáticamente y de demostrar que pensamos mediante pasos que se siguen el uno del otro resulta una ventaja formal cuando se aplica a una gran variedad de contenidos.




El modelo del cerebro simbólico

Inspirados por el éxito de la lingüística chomskiana, muchos filósofos y psicólogos aspiran a explicar toda la vida mental humana como Chomsky intentaba explicar el lenguaje.

Conciben la mente como el resultado de un número inmenso de manipulaciones lógicas en el cerebro.

Hay 2 concepciones diferentes:

  1. El primer enfoque, el simbólico, considera que el cerebro es una máquina que manipula símbolos. Hallarse en diferentes estados mentales equivale a llegar a una fórmula bien formada en un lenguaje formal. Por ejemplo, sentir un dolor atroz equivale a una combinación de símbolos en los centros cerebrales del dolor.
  2. Una idea más reciente concibe el cerebro como un mecanismo que emplea la lógica borrosa. Considera el cerebro como una red neuronal que puede hallarse en cualquiera de diversos estados posibles.
Una red neuronal se compone de unidades que se comportan como células cerebrales (neuronas), conectadas a múltiples entradas y salidas.


La respuesta viene regida por el efecto global de la entrada recibida. El único modelo que podemos construir de este comportamiento es el estadístico. En una red neuronal, para producir la palabra "atrabiliario", la entrada serían letras y la salida seríoan sonidos. Las neuronas tienen que aprender a relacionar ambos de forma correcta y el sistema aprende atribuyendo diferentes niveles de importancia a diferetnes entradas y salidas, multiplicando cada una de las conexiones por un número distinto. Inicialmente se asigna a las conexiones números pequeños al azar. Luego se corrigen los resultados que da la red y se prueba con una asignación de valores diferente. La red continuará modificando la asignación de valores miestras produzca resultados estadísticamente mejorados. Son un equivalente numérico de los múltiples valores de verdad de la lógica borrosa.

Las redes neuronales funcionan muy bien en el reconocimiento de patrones. Por ello destacan en la producción de sonidos verbales a partir de textos, tareas en las que fracasa un ordenador. Es facil conseguir que una red neuronal reconozca una pieza musical, diciendo que esa pieza es de Mozart, por ejemplo, aunque probablemente no podría decir cuáles son las notas. Un ordenador digital reconocería las notas, pero cuesta mucho que reconozca el estilo. A los humanos nos resulta muy facil categorizar las cosas, pero por ejemplo nos cuesta más el concepto matemático, pues a las redes neuronales les resulta muy difícil la manipulación sistemática de símbolos.

El supuesto dominante acerca de la mente es que deberíamos concebirla como un modelo implicado en la generación de comportamiento racional, actuar por una razón. Ciertos psicólogos cognitivos creen que esto lo hace posible un modelo de acción racional incorporado al cerebro, y así comprendemos nuestro propio comportameinto psicológico y el comportamiento ajeno. Explicam,os la condcuta humana. Se basa en una noción aristotélica del silogismo práctico: Formas válidas de argumentación que llegan a conclusiones válidas. Los silogismos prácticos desembocan en razones válidas para la acción:

* La primera premisa es un enunciado de deseo (que pertenece asl campo afectivo): "Quiero comer".
* La segunda premisa es un enunciado de creencia: "Hay comida en mi nevera".
* De aquí sale la conclusión que recomienda un curso de acción: "Debería ir a la nevera".

Debe haber algún mecanismo de deliberación que extraiga metas a partir de las necesidades. Luego se combina con la representación del mundo para ofrecer razones para la acción. Es el modelo de "creencia/deseo".

Pero no se sabe realmente si existen tales modelos en el cerebro, si estamos creando simplificaciones de un modelo que sea mucho más complejo o bien que realmente no sepamos como funciona el cerebro, pero que estos modelos nos explican ciertos comportamientos. El caso es que estos modelor interpretan el cerebro como una máquina que sigue reglas de pensamiento racional. Nuestra vida consciente es el resultado de reacciones electroquímicas en el cerebro que ilustran el comportamiento de una máquina de manipulación lógica muy compleja.

viernes, 18 de diciembre de 2009

Historia de la logica: Chomsky


El interés de Noam Chomsky (n. 1928) por la lingüística se dirigía a una cuestión crucial del aprendizaje d las lenguas. Entonces se pensaba que los niños aprendían el lenguaje por imitación. Ciertos experimentos mostraron que los niños pueden producir oraciones gramaticalmente correctas que jamás han oído. Un niño de 3 años corregirá la gramática de un adulto, pero nunca discutirá con él sobre hechos. Para explicar esto, Chomsky sugirió que debe haber una "gramática universal" innata. Todos los niños nacerían con determinadas reglas gramaticales instaladas en el cerebro y en el proceso de aprendizaje el niño no sólo aprende palabras, sino también el lugar que que éstas ocupan en relación con las reglas gramaticales preexistentes.

Esta gramática universal innata es suficientemente rica como para crear todas las lenguas humanas, que se basan en la misma estructura universal. Hay una serie de configuraciones posibles que determinan la gramática, como el orden de las palabras, si la lengua incluye o no de sustantivos con género y de verbos, y cómo construye la cláusulas

Nuestra gramática innata divide las palabras en diferentes categorías sistemáticas. El niño nace con dichas categorías. Conforme aprende el vocabulario de una lengua aprende en qué categoría ubicar una palabra. Estas categorías, junto con unas reglas sintácticas sencillas, definen las posibles combinaciones de palabras para crear oraciones. Las 2 categorías más importantes son los nombres y los vernos. Una oración cualquiera puede dividirse en sintagma nominal y sintagma verbal, aunque las oraciones suelen ser mucho más complejas, con más de un nombre y más de un verbo. Chomsky tenía que dar cuenta de oraciones complejas que pueden estar compuestas de sintagmas nominales, sintagmas verbales y otra oración (como en "Juan cree que los cerdos escriben").

Las reglas de construcción de la gramática universal son recursivas. Esto significa la aplicación reiterada de una regla, definición o procedimiento a resultados sucesivos. Chomsky creía que sólo así daba cuenta de oraciones de extensión infinita, pero no bastaba con eso. La lengua permite muchas construcciones y muchas requieren nuevas reglas de combinación. Se añadieron tantas reglas que Chomsky necesitó apelar a una estructura subyacente en apoyo de su teoría: Al añadir nuevas reglas, todas parecen seguir el mismo patrón recursivo básico. Identificando este patrón podemos referirlas todas a una sola gramática, aún más abstracta, la teoría de la x-barra. Chomsky sostenía que un simple conjunto de reglas recursivas basta para explicar la formación de cualquier sintagma gramatical. A esto le llamó la x-barra. En esta teoría x e y representan categorías gramaticales. X-barra e y-barra representan el correspondiente sintagma gramatical. Su sencilla rgla de formación es x-barra = x + y-barra. Es una simple fórmula de aplicación recursiva. Tomemos por ejemplo el sintagma "el reloj de la esquina":
  • "El reloj" es n+ p-barra
  • "de" es p+ n-barra
  • "la esquina" es n
Los símbolos son: n (nombre), p (preposición), n-barra (sintagma nominal) y p-barra (sintagma preposicional).

La teoría puede explicar tanto el proceso de aprendizaje lingüístico como el dominio intuitivo que la gente tiene de su lengua materna. Complementado esto con un mecanismo de orden de las palabras y de reglas de transformación, es suficiente para explicar todas las construcciones gramaticales de cualquier lengua. Es una teoría lógica, pues se ocupa más de la forma que del contenido, y de la construcción de secuencias de símbolos mediante la aplicación sucesiva de reglas simples. Si Chomsky está en lo cierto, nuestra comprensión natural se reduce a un cómputo basado en nuestra gramática innata, y el cerebro sería poco maás que un ordenador que gestiona el lenguaje según parámetros comskianos.

A Chomsky le preocupa más la sintaxis que la semámtica, pero advierte que para determinadas lenguas esto no puede separarse de forma tajante. Había que fijarse en la semántica para explicar por qué ciertas oraciones bien formadas sintácticamente carecen de sentido, como "yo la crecí". Parece una oración inocente con sujeto, verbo y predicado, pero es completamente absurda. No es agramatical, pues hay oraciones iguales perfectamente correctas, como "yo la despedí", así qeu la diferencia está en el SIGNIFICADO del verbo. Por ello introdujo una serie de criterios para describir el comportamiento de las palabras y que determinan qué palabras pueden combinarse para formar oraciones, con más detalle qeu la simple distinción entre sintagmas nominales y verbales. Chomsky sugiere categorías que describen si la palabra es activa o pasiva, si implica intención, etc.

Con lenguas como el inglés o el francés cosechó muchos éxitos, pero dentro de cada lengua hay numerosos dialectos y acentos regionales. Como la lungüística chomskiana aspira a explicarlos todos se vió forzado a añadir progresivamente nuevos estratos de estructura gramatical: Gramática profunda (x-barra), forma fonológica, forma lógica, gramática superficial, morfología y vocabulario. Es tanta la información implicada que parece improbable que la evolución humana pudiese haber generado algo tan complejo. Y si contemplamos lenguas como las eslavas, semíticas y aborígenes vemos que el orden de las palabras tiene poca importancia. Aunque ciertas estructuras son más frecuentes que otras, muy pocas son agramaticales. Algunos tienen un concepto del tiempo como cíclico, por lo que hay pocos tiempos gramaticales en su lengua. Y otros carecen de nombres abstractos, prescindiendo de una categoría supuestamente innata.

La lingüística generativa es una ciencia relativamente nueva. LAs teorías deben evolucionar para explicar los casos difíciles, pero hoy por hoy no hay una explicación mejor.

jueves, 17 de diciembre de 2009

Historia de la lógica: La red de creencias


Durante algún tiempo las ideas de Popper ganaron un gran número de adeptos, hasta que Willard Von Orman Quine (1908-2000) publicó en 1951 el artículo "Dos dogmas del empirismo". La tesis de Popper era que un resultado experimental puede falsar una teoría científica concreta. Por ejemplo, la observación de la órbita de Mercurio falsa la ley de la gravitación universal de Newton. Por supuesto, la observación de la órbita de Mercurio falsa esta teoría sólo si dicha observación es correcta. Si las leyes de la óptica son correctas, si no existe ninguna interferencia desconocida entre aquí y Mercurio, etc... Entonces, en lugar de una teoría bajo sospecha tenemos una multitud de supuestos cuestionables, cada uno de los cuales podría falsarse en principio mediante refutación experimental. Pero ¿cómo podemos saber cuál es el falso?.

Según Quine, la lógica nada nos dice acerca de por qué deberíamos rechazar la mecánica newtoniana y no las leyes de la óptica. Cuando un conjunto de enunciados lleva a una contradicción, al menos uno de ellos ha de ser falso, pero la lógica no nos dice cómo averiguar cuál es. Aducir que las leyes de la óptica se han observado una y otra vez no sirve, pues es lógicamente posible que nuestra fe en las mediciones sea injustificada.

Llevado hasta el extremo, esta idea nos dirá que cualquier caso de falsación constituye una potencial amenaza no sólo para la teoría en cuestión, sini también para todo nuestro conjunto de creencias. No hay modo de inferir lógicamente qué creencias son las que conducen a la conclusión falsa. Y suscita también el interrogante: ¿Cómo puede influir o tener algo que ver con la cuestión de la mecánica newtoniana nuestra creencia de que "el campo es bonito"? Todas nuestras creencias según Quine se hallan conectadas y forman un todo. Es lo que llamó la "red de creencias". Quine piensa que la red sólo afecta a la experiencia de manera externa, pero es la red como un todo la que se contrasta con la experiencia.

Los cambios en nuestras creencias firmes ubicadas en el corazón de la red repercutirán en toda ella. Los cambios en las regiones externas y más débiles tendrán menos impacto. Si nuestras creencias fundamentales se ven desafiadas (como cuando Saulo se convirtió al cristianismo) tendrá lugar un cambio relevante. Así, la mayor parte de la red de Saulo-San Pablo tuvo que reajustarse, pero el descubrimiento de cisnes negros en Australia sólo provocó un pequeño cambio sin importancia.

Quine afirma: La totalidad de lo que llamamos conocimiento o creencias, desde las cuestiones más accidentales de la geografía y el derecho a las más profundas leyes de la física atómica o de la matemática y la lógica puras, es una estructura artificial que sólo afecta a la experiencia colateralmente. [...] Un conflicto con la experiencia en la periferia ocasiona reajustes en lo más profundo de la red.

Cuando alguna de nuestras creencias se enfrenta a la falsación por la experiencia, se ve desafiada la red en su totalidad. Según Quine, tratamos de hacer las mínimas alteraciones posbles para acomodar una nueva experiencia modificando las partes blandas de la red antes que las partes duras. Decidimos, pues, rechazar la mecánica newtoniana antes que cualquier otra cosa porque vemos qeu comporta menos alteraciones en el conjunto de la red.

El resultado de esta red de creencias es que la ciencia está "infradeterminada", es decir, que no existen suficientes evidencias para garantizar lógicamente la verdad de nuestras creencias científicas porque, para deducir la verdad o la falsedad de cualquier enunciado, precisamos muchas premisas ocultas, que describan efectivamente la totalidad de nuestra red de creencias. Como subraya Quine, la red sólo conecta la experiencia en la superficie. La experiencia nos enseña muy poco y la mayor perte es invención nuestra. Un enunciado científico se considera verdadero si puede dar cuenta de nuestra experiencia modificando sólo de forma mínima la totalidad de nuestra red. Si tuviésemos una red de creencias radicalmente diferente, como la aristotélica, podría suceder que la función de dar cuenta de una experiencia con las mínimas repercusiones la cumpliesen enunciados completamente distintos.

La propia pregunta fundamental de qué cosas hay en el mundo sólo puede responderse a la luz de la totalidad de nuestras restantes creencias. Los propios objetos físicos no son más que mitos útiles que sirven para explicar y predecir la experiencia. "Introducimos conceptualmente en la situación de los objetos físicos como intermediarios útiles, no por definición en términos de experiencia sino simplemente como postulados irreductibles, epistemiológicamente comparables a los dioses de Homero. Por cierto que yo, por mi parte, como físico lego que soy, creo en los objetos físicos y no en los dioses de Homero, y considero un error científico orientar la creencia de otro modo. Pero en cuanto a su fundamento epistemiológico, los objetos físicos y los dioses difieren sólo en grado, no en género."

El relativismo: La idea de Quine llevó a una serie de personas a renunciar a toda esperanza de conquistar verdades objetivas sobre el mundo por medio de la ciencia. La característica común del relativismo es que considera que el éxito de las teorías científicas depende de un elemento distinto de la verdad objetiva. La idea de Quine desafía el método de elección entre teorías "en función de su simplicidad". ¿Qué hace que una teoría sea más simple que otra? En lugar de la simplicidad los filósofos han sugerido que escogemos entre teorías rivales por motivos políticos, económicos, pragmáticos o estéticos.

La expresión más extrema de esta concepción la hallamos en el filósofo "anarquista" de la ciencia Paul Fayerabend (1924-1994) quien niega la existencia de todo método científico: Cada cultura crea una teoría que encaja con su carácter estético y moral. Sin embargo, Donald Davidson tenía significativas dudas con respecto al rechazo al método científico. Su oposición parte de la creencia de Quine de que la lógica es en principio revisable: Para saber cómo modificar nuestra red, deberíamos ser capaces de decir qué se derivaría de un posible cambio en la red. ¿Qué otra forma tenemos de saber que nuestro cambio no entrará en conflicto con la experiencia? Necesitamos disponer de algún tipo de teoría de la demostración. Significa que no podemos prescindir de alguna clase de lógica, y también que esta teoría de la demostración no puede ser revisable a su vez. Pues, si pudiésemos cambiar el método de demostración, no tendríamos forma de determinar sus posibles consecuencias. Por tanto, la red debe poseer al menos un núcleo inmutable. Y para que sea una red de creencias genuina, debemos suponer que apunta a la verdad. Creer algo vale tanto como creer que es verdadero. Todas las redes deben compartir una base de verdad común.

La verdad no forma parte de la red modificable, sino de sus "cantos rígidos", y por eso todas las redes pueden compararse entre sí con respecto a la verdad. Davidson adopta la tesis de Quine de que la ciencia se halla infradeterminada, pero rechaza la red totalmente revisable en favor de una parcialmente revisable, a caballo entre un núcleo duro de la lógica y los cantos duros de la verdad. La verdad es una base rígida sobre la que se erige una estructura cada vez más pefecta. La ciencia es una forma de aproximarse a la verdad. No obstante, ofrece poco a poco métodos para aproximarse a la verdad, y tampoco aporta una justificación del método científico. En esto no logró convencer a los relativistas convencidos.


Deducción e inducción


Partiendo desde el método ciantífico de Galileo llegamos a 2 nuevos filósofos: Francis Bacon y René Descartes. En ciencia primero realizamos experimentos, y luego generalizamos a partir de los resultados experimentales para llegar a las leyes naturales. Una vez que tenemos estas leyes, podemos deducir a partir de ellas para ver qué debería suceder. Podemos entonces realizar experimentos para ver si la predicción es correcta.

Son 2 formas de razonamiento: Deducción e inducción. La deducción se emplea para mostr
ar que una teoría se sigue de otra. La inducción consiste en inferir una regla general a partir de algunos casos:
  • Razón inductiva: Veo un cuervo, y es negro. Otro cuervo es también negro, y otro... Concluyo que todos los cuervos son negros.
  • Razón deductiva: Todos los cuervos son negros. Ése es un cuervo, por consiguiente, es negro.
Problemas con la inducción: En la deducción, la verdad de la conclusión se sigue de la verdad de las premisas, pero en la inducción no pasa lo mismo. El hecho de que 2 cuervos sean negros no contradice que haya un cuervo blanco en Japón, pero la regla general de que todos los cuervos son negros es inconsistente con la existencia de un cuervo blanco. POr consiguiente, la verdad de las aserciones en que se apoya no garantiza lógicamente la verdad de la conclusión, y en ciencia es un problema a la hora de obtener resultados garantizados mediante la inducción.

La horquilla de Hume: Aunque usamos la inducción con bastante éxito, su aplicación resulta cuestionable. El filósofo escocés David Hume (1711-1776) se le atribuye la idea de que emplear la inducción no está justificado. Para justificar la inducción hemos de elegir entre 2 opciones:
  1. Usar la deducción, pero la verdad de la inducción no puede deducirse de los axiomas de la lógica.
  2. Usar la inducción, pero ello significa nuestra propia justificación con un argumento circular y no quedaría justificado.
Hume pensaba que la inferencia inductiva es un hecho psicológico relativo a los seres humanos: Una vez nos hemos quemado, evitamos en lo sucesivo poner la mano en el fuego. Inferimos por medio de la experiencia y este es el problema, pues usar la inducción es tremendamente sensato. Pero NO podemos justificar nuestro uso de ella.

Más delante, en el círculo de Viena, se dudó seriamente de que la ciencia fuese inductiva, y en su lugar cobró prominencia la idea de la deducción nomológica. La idea es que la ciencia propone leyes generales a partir de las cuales cabe deducir resultados particulares. Más que creer que la predicción y la explicación requieren metodologías diferentes (inductiva y deductiva), lo dejamos todo a la deducción: Observamos un fenómeno y luego proponemos una ley que lo explique causalmente, deducimos qué más se sigue de esta y buscamos confirmación o falsación empírica.

El modelo nomológico comenzó con John Stuart Mill (1806-1873), para quien la ciencia era una sección de la lógica y las inferencias inductivas no eran sino generalizaciones empíricas. La confianza en estas últimas crece segúin su grado de confirmación empírica con respecto a las alternativas, pero nunca estaremos completamenet seguros de sus conclusiones. Común a todas las inferencias inductivas es la creencia de que en la naturaleza todo debe tener una causa o una condición tanto necesaria como suficiente para producir su existencia. Podemos descubrir ambos tipos de condiciones generalizando a partir de la observación. POr ejemplo: Las nubes son necesarias para la lluvia. Esto podemos descubrirlo intentando encontrar casos de lluvia sin nubes. Si no somos capaces, esto apoya la afirmación. Una condición suficiente es aquella que no puede existir sin su efecto, como el fuego con el calor: ¿Podemos tener algún caso de fuego sin calor?

El trabajo del científico es similar al del químico que destila una sustancia. Mediante el recurso cuidadoso a la inducción, la deducción y la eliminación de candidatos, el científico acaba por quedarse con unas pocas condiciones necesarias y suficientes para cualquier fenómeno. Cuantos más experimentos se hagan, más seguro podrá estar el científico de hallar las causas correctas de un determinado efecto.

Mill piensa que la deducción sólo funciona en virtud de generalizaciojnes inductivas a partir de nuestra experiencia. Mill concibe también las matemáticas como otra forma de generalización. Su idea es que la ciencia avanza hacia reglas cada vez más generales que predicen con creciente precisión. Su concepción es bastante singular y original, pues según esto la certeza que atribuimos a enunciados matemáticos como 1+1=2 se debe al enorme número de confirmaciones empíricas que tenemos de ellos. Los filósofos habían intentado explicar durante mucho tiempo la verdad supuestamente necesaria de las matemáticas y la lógica, pero Mill sostenía que no hay nada que explicar: No se trata de enunciados especiales sino de enunciados más ampliamente confirmados. Hay que decir que a lso filósofos nunca les acabó de agradar la idea, pues enunciados como 2+2=4 parecen comportarse como LEYES y no como simples predicciones. Las reglas de las matemáticas no predicen sucesos futuros sinoque regulan aquello que consideramos racional. Si nos topamos con un caso que parece refutar las reglas de las matemáticas, buscamos siempre otra explicación racional. No nos rendimos ni aceptamos que las reglas matemáticas sean falsas en determinadas ocasiones.

Del mismo modo, cuesta concebir en qué sentido ideas modernas como los números imaginarios y la geometría de más de 3 dimensiones pueden ser generalizaciones a partir de la experiencia, puesto que esas cosas nunca están en el mundo real.

Karl Hempel (1902-1997) del Círculo de Viena modernizó el método nomológico deductivo. Describía la ciencia como la búsqueda de leyes generales basadas en la causalidad, que explicarían todos los fenómenos observados en la experiancia y sólo ellos. Pero no tardó en descubrir problemas: Si tenemos uan regla general de la forma "todos los F son G" (todos los hombres son mortales) y un enunciado de la forma Fa (sócrates es un hombre), entonces podemos concluir Ga (Sócrates es mortal). Una ley de esta forma es lógicamente equivalente a la ley de que ningún no-G es F (ningún inmortal es un hombre). Si encontrar un hombre que es mortal confirma la ley, encontrar algo que no es un hombre y es inmortal también la confirmará. Pero entonces Hempel plantea la paradoja del cuervo:

Les aseguro que todos los cuervos son negros. Esta es la demostración:

  1. Todos los cuervos son negros significa que todo aquello que no es negro no es un cuervo.
  2. Mis zapatillas no son negras ni son cuervos.
  3. Por consiguiente mis zapatillas confirman la regla de que todos los cuervos son negros.
Este no es un problema de lógica, sino planteado por la lógica. Este tipo de razonamiento no sirve como metodología de la ciencia, pues comprobar de forma exhaustiva que todas las zapatillas del universo son blancas no podríamos ver cómo influye esto en que los cuervos sean negros.

Otro problema de la interpretación nomológica es que no distingue entre causa y efecto. Un buen método científico debe tener en cuenta la dirección de la causa y el efecto para no hallar conclusiones absurdas: Si vemos que llueve y hay una determinada lectura en un barómetro, podemos concluir que la presencia de la lluvia causa la lectura de este, como que la lectura del barómetro causa la lluvia.

Una alternativa la sugirió Karl Popper: en términos lógicos decir que si F es una ley natural, entonces sucederá G equivale a decir que si no sucediera G entonces F no sería una ley natural. Pero en nuestra capacidad de confirmar ambas cosas, media una importante diferencia. La primera formulación nos exige comprobar todos los G. Esto es imposible, pues nos exige comprobar todo lo que ha ocurrido y lo que ocurrirá alguna vez. Pero basta un solo caso en que no haya ocurrido G en condiciones relevantes para copnvencernos de que F no es una ley. La base de la metodología científica de popper se basa en esto. El método apropiado de hacer ciencia no consiste en buscar confirmación de nuestras teorías, sino en intentar refutarlas. Así también resuelve el tema de la inducción. Si se desconfirma una teoría en un caso particular, entonces la rechazamos mediante una deducción muy similar al método de la reductio. POr ejemplo:
  • Si suponemos que la física de Newton es verdadera, entonces deberíamos ser capaces de detectar el movimiento de la luz a diferentes velocidades.
  • No hemos encontrado evidencias de que la luz se mueva a diferentes velocidades. Por tanto la física newtoniana no es verdadera.
Rechazar una teoría implica una carrera para dar una nueva teoría capaz de dar cuenta de todos los resultados de la antigua y de los nuevos datos, y si obtenemos 2 teorías que expliquen todo, entonces nos quedaremos siempre con la más simple. Es la falsabilidad en la ciencia.

El problema es que a medida que se desarrolla la ciencia, las teorías se alejan cada vez más del sentido común y devienen cada vez en más improbables. Una teoría qeu explica 5 hechos tiene una probabilidad mayor de ser correcta que una teoría que explica 10 hechos, sencillamente porque son menos los casos susceptibles de falsación. Conforme avanza la ciencia, disminuye la probabilidad de que las teorías sean correctas.


Lógica y ciencia


La argumentación y la fundación de las matemáticas no son las únicas aplicaciones de la lógica. La ciencia moderna en su integridad comporta la aplicación de instrumentos lógicos y matemáticos. De hecho, la lógica de Frege se diseñó para contribuir a la cración de un lenguaje científico riguroso. Pero los vínculos entre lógica y ciencia se remontan a más atrás.

Aristóteles, sin matemáticas ni experimentos, concluyó que los cuerpos celestes se movían en círculos perfectos. Se basó no en experimentos rigurosos sino en el sólo uso de la razón: Los astros se han de mover en círculos perfectos por su amor a Dios, que es perfecto. Evidentemente, al tratar
de predecir los científicos posteriores el movimiento de los planetas con este sistema vieron varias anomalías. Ptolomeo, por ello, añadió nuevos círculos al sistema para dar explicación a los fallos observados. Pero no discutió el tema de los círculos perfectos.

Esto mejoró las cosas durante un tiempo, pero Marte tenía la manía de salirse del sistema con una trayectoria por fuera de su órbita prevista. Para subsanarlo se fueron añadiendo cada vez más círculos hasta la revolución copernicana en el siglo XV. Copérnico sugirió que las predicciones se simplificarían si la Tierra fuese quien girase alrededor del Sol y no al revés. Esto tenía muchas ventajas pero una pega terrible: La Iglesia había dado su aprobación al sistema aristotélico. Que los astros se empeñasen en
contradecirlo no es un problema, pero que ALGUIEN ose sugerir otro sistema atenta contra un principio peligroso de la Iglesia: La infalibilidad del Papa. Y Copérnico pasó a ser un hereje pero su trabajo inspiró a gente como Galileo y Kepler.

Galileo pensaba que toda controversia científica debía resolverse mediante experimentación, y demostró el movimiento de la Tuerra de forma ingeniosa mediante un péndulo (que afectaba en su oscilación el movimiento de la tierra que le sujeta).

Galileo insistía en que los fenómenos naturales tenían que someterse a una cuidadosa observación y a una rigurosa medición. No se ha de apoyar en la autoridad del pasado sino en la observación cuantificada. Para él las matemáticas son el lenguaje de la naturaleza. Se vió lógicamente forzado a retractarse por una Iglesia que le veía como una amenaza, y pasó aislado el resto de su vida. Pero el mal (en este caso el bien) ya estaba hecho y los gritos de la revolución científica ya no podían callar. Aristóteles no tardaría en desplomarse.

Biblioteca de Umberto Eco

Se podrá disfrutar en Bolonia. Al parecer estimó que podía ser difrutada así durante los próximos 90 años. Es su biblioteca personal, que te...