miércoles, 23 de diciembre de 2009

La lógica


La lógica se adentra en todas las formas de investigación. Todos los buenos argumentos deberían seguir las reglas lógicas para mostrar que las conclusiones se siguen de las premisas, pero la lógica en sí no afirma absolutamente nada. Es una herramienta, un método de análisis. La lógica aplicada al Sr. Spock de Star Trek no dicta que el bienestar de la mayoría supera al bienestar de la minoría (o al de unos pocos). No. La lógica no puede hacer afirmaciones semejantes. Pero sí proporciona un modo de alcanzar esa conclusión a partir de ciertas premisas.

Y podemos emplear la lógica para algo más, como la electrónica y el análisis del lenguaje.

La lógica parece inseparable de nuestras vidas, pero no todo el mundo cree que sea tan crucial. En su última etapa, Wittgenstein se apartó de la fe en la lógica que profesara en su juventud. En un famoso diálogo con Turing se mostraba deseoso de hacer hincapié en las consecuencias prácticas por encima de los problemas teóricos. Escéptica respecto al papel de la lógica, hacía su entrada una nueva concepción de la filosofía. Wittgenstein llegó a pensar que lo importante en filosofía no eran los argumentos, sino lograr que la gente viese las cosas desde una nueva perspectiva. El trabajo en filosofía es más una suerte de trabajo sobre uno mismo, sobre nuestra concepción, sobre nuestra manera de ver las cosas. Si alguien cree que ha hallado la solución al "problema de la vida...", para refutarse a sí mismo bastará con recordar que hubo un tiempo en que dicha solución no había sido hallada. Pero uno tenía que ser capaz de vivir también entonces...

Y eso es lo que sucede en lógica. Si existiera la "solución" a los problemas lógicos, sólo tendríamos que recordar que hubo un tiempo en el que no se habían resuelto ( y uno tiene que ser capaz de vivir y pensar). Y no sorprende que tras un siglo de grandes avances en la lógica, pocos estén preparados para seguir la línea de Wittgenstein, y la lógica continúa siendo fundamental en las matemátiocas, la ciencia y la tecnología.

Pertenezca o no a la esencia del pensamiento y del lenguaje, la capacidad de pensar sistemáticamente y de demostrar que pensamos mediante pasos que se siguen el uno del otro resulta una ventaja formal cuando se aplica a una gran variedad de contenidos.




El modelo del cerebro simbólico

Inspirados por el éxito de la lingüística chomskiana, muchos filósofos y psicólogos aspiran a explicar toda la vida mental humana como Chomsky intentaba explicar el lenguaje.

Conciben la mente como el resultado de un número inmenso de manipulaciones lógicas en el cerebro.

Hay 2 concepciones diferentes:

  1. El primer enfoque, el simbólico, considera que el cerebro es una máquina que manipula símbolos. Hallarse en diferentes estados mentales equivale a llegar a una fórmula bien formada en un lenguaje formal. Por ejemplo, sentir un dolor atroz equivale a una combinación de símbolos en los centros cerebrales del dolor.
  2. Una idea más reciente concibe el cerebro como un mecanismo que emplea la lógica borrosa. Considera el cerebro como una red neuronal que puede hallarse en cualquiera de diversos estados posibles.
Una red neuronal se compone de unidades que se comportan como células cerebrales (neuronas), conectadas a múltiples entradas y salidas.


La respuesta viene regida por el efecto global de la entrada recibida. El único modelo que podemos construir de este comportamiento es el estadístico. En una red neuronal, para producir la palabra "atrabiliario", la entrada serían letras y la salida seríoan sonidos. Las neuronas tienen que aprender a relacionar ambos de forma correcta y el sistema aprende atribuyendo diferentes niveles de importancia a diferetnes entradas y salidas, multiplicando cada una de las conexiones por un número distinto. Inicialmente se asigna a las conexiones números pequeños al azar. Luego se corrigen los resultados que da la red y se prueba con una asignación de valores diferente. La red continuará modificando la asignación de valores miestras produzca resultados estadísticamente mejorados. Son un equivalente numérico de los múltiples valores de verdad de la lógica borrosa.

Las redes neuronales funcionan muy bien en el reconocimiento de patrones. Por ello destacan en la producción de sonidos verbales a partir de textos, tareas en las que fracasa un ordenador. Es facil conseguir que una red neuronal reconozca una pieza musical, diciendo que esa pieza es de Mozart, por ejemplo, aunque probablemente no podría decir cuáles son las notas. Un ordenador digital reconocería las notas, pero cuesta mucho que reconozca el estilo. A los humanos nos resulta muy facil categorizar las cosas, pero por ejemplo nos cuesta más el concepto matemático, pues a las redes neuronales les resulta muy difícil la manipulación sistemática de símbolos.

El supuesto dominante acerca de la mente es que deberíamos concebirla como un modelo implicado en la generación de comportamiento racional, actuar por una razón. Ciertos psicólogos cognitivos creen que esto lo hace posible un modelo de acción racional incorporado al cerebro, y así comprendemos nuestro propio comportameinto psicológico y el comportamiento ajeno. Explicam,os la condcuta humana. Se basa en una noción aristotélica del silogismo práctico: Formas válidas de argumentación que llegan a conclusiones válidas. Los silogismos prácticos desembocan en razones válidas para la acción:

* La primera premisa es un enunciado de deseo (que pertenece asl campo afectivo): "Quiero comer".
* La segunda premisa es un enunciado de creencia: "Hay comida en mi nevera".
* De aquí sale la conclusión que recomienda un curso de acción: "Debería ir a la nevera".

Debe haber algún mecanismo de deliberación que extraiga metas a partir de las necesidades. Luego se combina con la representación del mundo para ofrecer razones para la acción. Es el modelo de "creencia/deseo".

Pero no se sabe realmente si existen tales modelos en el cerebro, si estamos creando simplificaciones de un modelo que sea mucho más complejo o bien que realmente no sepamos como funciona el cerebro, pero que estos modelos nos explican ciertos comportamientos. El caso es que estos modelor interpretan el cerebro como una máquina que sigue reglas de pensamiento racional. Nuestra vida consciente es el resultado de reacciones electroquímicas en el cerebro que ilustran el comportamiento de una máquina de manipulación lógica muy compleja.

viernes, 18 de diciembre de 2009

Historia de la logica: Chomsky


El interés de Noam Chomsky (n. 1928) por la lingüística se dirigía a una cuestión crucial del aprendizaje d las lenguas. Entonces se pensaba que los niños aprendían el lenguaje por imitación. Ciertos experimentos mostraron que los niños pueden producir oraciones gramaticalmente correctas que jamás han oído. Un niño de 3 años corregirá la gramática de un adulto, pero nunca discutirá con él sobre hechos. Para explicar esto, Chomsky sugirió que debe haber una "gramática universal" innata. Todos los niños nacerían con determinadas reglas gramaticales instaladas en el cerebro y en el proceso de aprendizaje el niño no sólo aprende palabras, sino también el lugar que que éstas ocupan en relación con las reglas gramaticales preexistentes.

Esta gramática universal innata es suficientemente rica como para crear todas las lenguas humanas, que se basan en la misma estructura universal. Hay una serie de configuraciones posibles que determinan la gramática, como el orden de las palabras, si la lengua incluye o no de sustantivos con género y de verbos, y cómo construye la cláusulas

Nuestra gramática innata divide las palabras en diferentes categorías sistemáticas. El niño nace con dichas categorías. Conforme aprende el vocabulario de una lengua aprende en qué categoría ubicar una palabra. Estas categorías, junto con unas reglas sintácticas sencillas, definen las posibles combinaciones de palabras para crear oraciones. Las 2 categorías más importantes son los nombres y los vernos. Una oración cualquiera puede dividirse en sintagma nominal y sintagma verbal, aunque las oraciones suelen ser mucho más complejas, con más de un nombre y más de un verbo. Chomsky tenía que dar cuenta de oraciones complejas que pueden estar compuestas de sintagmas nominales, sintagmas verbales y otra oración (como en "Juan cree que los cerdos escriben").

Las reglas de construcción de la gramática universal son recursivas. Esto significa la aplicación reiterada de una regla, definición o procedimiento a resultados sucesivos. Chomsky creía que sólo así daba cuenta de oraciones de extensión infinita, pero no bastaba con eso. La lengua permite muchas construcciones y muchas requieren nuevas reglas de combinación. Se añadieron tantas reglas que Chomsky necesitó apelar a una estructura subyacente en apoyo de su teoría: Al añadir nuevas reglas, todas parecen seguir el mismo patrón recursivo básico. Identificando este patrón podemos referirlas todas a una sola gramática, aún más abstracta, la teoría de la x-barra. Chomsky sostenía que un simple conjunto de reglas recursivas basta para explicar la formación de cualquier sintagma gramatical. A esto le llamó la x-barra. En esta teoría x e y representan categorías gramaticales. X-barra e y-barra representan el correspondiente sintagma gramatical. Su sencilla rgla de formación es x-barra = x + y-barra. Es una simple fórmula de aplicación recursiva. Tomemos por ejemplo el sintagma "el reloj de la esquina":
  • "El reloj" es n+ p-barra
  • "de" es p+ n-barra
  • "la esquina" es n
Los símbolos son: n (nombre), p (preposición), n-barra (sintagma nominal) y p-barra (sintagma preposicional).

La teoría puede explicar tanto el proceso de aprendizaje lingüístico como el dominio intuitivo que la gente tiene de su lengua materna. Complementado esto con un mecanismo de orden de las palabras y de reglas de transformación, es suficiente para explicar todas las construcciones gramaticales de cualquier lengua. Es una teoría lógica, pues se ocupa más de la forma que del contenido, y de la construcción de secuencias de símbolos mediante la aplicación sucesiva de reglas simples. Si Chomsky está en lo cierto, nuestra comprensión natural se reduce a un cómputo basado en nuestra gramática innata, y el cerebro sería poco maás que un ordenador que gestiona el lenguaje según parámetros comskianos.

A Chomsky le preocupa más la sintaxis que la semámtica, pero advierte que para determinadas lenguas esto no puede separarse de forma tajante. Había que fijarse en la semántica para explicar por qué ciertas oraciones bien formadas sintácticamente carecen de sentido, como "yo la crecí". Parece una oración inocente con sujeto, verbo y predicado, pero es completamente absurda. No es agramatical, pues hay oraciones iguales perfectamente correctas, como "yo la despedí", así qeu la diferencia está en el SIGNIFICADO del verbo. Por ello introdujo una serie de criterios para describir el comportamiento de las palabras y que determinan qué palabras pueden combinarse para formar oraciones, con más detalle qeu la simple distinción entre sintagmas nominales y verbales. Chomsky sugiere categorías que describen si la palabra es activa o pasiva, si implica intención, etc.

Con lenguas como el inglés o el francés cosechó muchos éxitos, pero dentro de cada lengua hay numerosos dialectos y acentos regionales. Como la lungüística chomskiana aspira a explicarlos todos se vió forzado a añadir progresivamente nuevos estratos de estructura gramatical: Gramática profunda (x-barra), forma fonológica, forma lógica, gramática superficial, morfología y vocabulario. Es tanta la información implicada que parece improbable que la evolución humana pudiese haber generado algo tan complejo. Y si contemplamos lenguas como las eslavas, semíticas y aborígenes vemos que el orden de las palabras tiene poca importancia. Aunque ciertas estructuras son más frecuentes que otras, muy pocas son agramaticales. Algunos tienen un concepto del tiempo como cíclico, por lo que hay pocos tiempos gramaticales en su lengua. Y otros carecen de nombres abstractos, prescindiendo de una categoría supuestamente innata.

La lingüística generativa es una ciencia relativamente nueva. LAs teorías deben evolucionar para explicar los casos difíciles, pero hoy por hoy no hay una explicación mejor.

jueves, 17 de diciembre de 2009

Historia de la lógica: La red de creencias


Durante algún tiempo las ideas de Popper ganaron un gran número de adeptos, hasta que Willard Von Orman Quine (1908-2000) publicó en 1951 el artículo "Dos dogmas del empirismo". La tesis de Popper era que un resultado experimental puede falsar una teoría científica concreta. Por ejemplo, la observación de la órbita de Mercurio falsa la ley de la gravitación universal de Newton. Por supuesto, la observación de la órbita de Mercurio falsa esta teoría sólo si dicha observación es correcta. Si las leyes de la óptica son correctas, si no existe ninguna interferencia desconocida entre aquí y Mercurio, etc... Entonces, en lugar de una teoría bajo sospecha tenemos una multitud de supuestos cuestionables, cada uno de los cuales podría falsarse en principio mediante refutación experimental. Pero ¿cómo podemos saber cuál es el falso?.

Según Quine, la lógica nada nos dice acerca de por qué deberíamos rechazar la mecánica newtoniana y no las leyes de la óptica. Cuando un conjunto de enunciados lleva a una contradicción, al menos uno de ellos ha de ser falso, pero la lógica no nos dice cómo averiguar cuál es. Aducir que las leyes de la óptica se han observado una y otra vez no sirve, pues es lógicamente posible que nuestra fe en las mediciones sea injustificada.

Llevado hasta el extremo, esta idea nos dirá que cualquier caso de falsación constituye una potencial amenaza no sólo para la teoría en cuestión, sini también para todo nuestro conjunto de creencias. No hay modo de inferir lógicamente qué creencias son las que conducen a la conclusión falsa. Y suscita también el interrogante: ¿Cómo puede influir o tener algo que ver con la cuestión de la mecánica newtoniana nuestra creencia de que "el campo es bonito"? Todas nuestras creencias según Quine se hallan conectadas y forman un todo. Es lo que llamó la "red de creencias". Quine piensa que la red sólo afecta a la experiencia de manera externa, pero es la red como un todo la que se contrasta con la experiencia.

Los cambios en nuestras creencias firmes ubicadas en el corazón de la red repercutirán en toda ella. Los cambios en las regiones externas y más débiles tendrán menos impacto. Si nuestras creencias fundamentales se ven desafiadas (como cuando Saulo se convirtió al cristianismo) tendrá lugar un cambio relevante. Así, la mayor parte de la red de Saulo-San Pablo tuvo que reajustarse, pero el descubrimiento de cisnes negros en Australia sólo provocó un pequeño cambio sin importancia.

Quine afirma: La totalidad de lo que llamamos conocimiento o creencias, desde las cuestiones más accidentales de la geografía y el derecho a las más profundas leyes de la física atómica o de la matemática y la lógica puras, es una estructura artificial que sólo afecta a la experiencia colateralmente. [...] Un conflicto con la experiencia en la periferia ocasiona reajustes en lo más profundo de la red.

Cuando alguna de nuestras creencias se enfrenta a la falsación por la experiencia, se ve desafiada la red en su totalidad. Según Quine, tratamos de hacer las mínimas alteraciones posbles para acomodar una nueva experiencia modificando las partes blandas de la red antes que las partes duras. Decidimos, pues, rechazar la mecánica newtoniana antes que cualquier otra cosa porque vemos qeu comporta menos alteraciones en el conjunto de la red.

El resultado de esta red de creencias es que la ciencia está "infradeterminada", es decir, que no existen suficientes evidencias para garantizar lógicamente la verdad de nuestras creencias científicas porque, para deducir la verdad o la falsedad de cualquier enunciado, precisamos muchas premisas ocultas, que describan efectivamente la totalidad de nuestra red de creencias. Como subraya Quine, la red sólo conecta la experiencia en la superficie. La experiencia nos enseña muy poco y la mayor perte es invención nuestra. Un enunciado científico se considera verdadero si puede dar cuenta de nuestra experiencia modificando sólo de forma mínima la totalidad de nuestra red. Si tuviésemos una red de creencias radicalmente diferente, como la aristotélica, podría suceder que la función de dar cuenta de una experiencia con las mínimas repercusiones la cumpliesen enunciados completamente distintos.

La propia pregunta fundamental de qué cosas hay en el mundo sólo puede responderse a la luz de la totalidad de nuestras restantes creencias. Los propios objetos físicos no son más que mitos útiles que sirven para explicar y predecir la experiencia. "Introducimos conceptualmente en la situación de los objetos físicos como intermediarios útiles, no por definición en términos de experiencia sino simplemente como postulados irreductibles, epistemiológicamente comparables a los dioses de Homero. Por cierto que yo, por mi parte, como físico lego que soy, creo en los objetos físicos y no en los dioses de Homero, y considero un error científico orientar la creencia de otro modo. Pero en cuanto a su fundamento epistemiológico, los objetos físicos y los dioses difieren sólo en grado, no en género."

El relativismo: La idea de Quine llevó a una serie de personas a renunciar a toda esperanza de conquistar verdades objetivas sobre el mundo por medio de la ciencia. La característica común del relativismo es que considera que el éxito de las teorías científicas depende de un elemento distinto de la verdad objetiva. La idea de Quine desafía el método de elección entre teorías "en función de su simplicidad". ¿Qué hace que una teoría sea más simple que otra? En lugar de la simplicidad los filósofos han sugerido que escogemos entre teorías rivales por motivos políticos, económicos, pragmáticos o estéticos.

La expresión más extrema de esta concepción la hallamos en el filósofo "anarquista" de la ciencia Paul Fayerabend (1924-1994) quien niega la existencia de todo método científico: Cada cultura crea una teoría que encaja con su carácter estético y moral. Sin embargo, Donald Davidson tenía significativas dudas con respecto al rechazo al método científico. Su oposición parte de la creencia de Quine de que la lógica es en principio revisable: Para saber cómo modificar nuestra red, deberíamos ser capaces de decir qué se derivaría de un posible cambio en la red. ¿Qué otra forma tenemos de saber que nuestro cambio no entrará en conflicto con la experiencia? Necesitamos disponer de algún tipo de teoría de la demostración. Significa que no podemos prescindir de alguna clase de lógica, y también que esta teoría de la demostración no puede ser revisable a su vez. Pues, si pudiésemos cambiar el método de demostración, no tendríamos forma de determinar sus posibles consecuencias. Por tanto, la red debe poseer al menos un núcleo inmutable. Y para que sea una red de creencias genuina, debemos suponer que apunta a la verdad. Creer algo vale tanto como creer que es verdadero. Todas las redes deben compartir una base de verdad común.

La verdad no forma parte de la red modificable, sino de sus "cantos rígidos", y por eso todas las redes pueden compararse entre sí con respecto a la verdad. Davidson adopta la tesis de Quine de que la ciencia se halla infradeterminada, pero rechaza la red totalmente revisable en favor de una parcialmente revisable, a caballo entre un núcleo duro de la lógica y los cantos duros de la verdad. La verdad es una base rígida sobre la que se erige una estructura cada vez más pefecta. La ciencia es una forma de aproximarse a la verdad. No obstante, ofrece poco a poco métodos para aproximarse a la verdad, y tampoco aporta una justificación del método científico. En esto no logró convencer a los relativistas convencidos.


Deducción e inducción


Partiendo desde el método ciantífico de Galileo llegamos a 2 nuevos filósofos: Francis Bacon y René Descartes. En ciencia primero realizamos experimentos, y luego generalizamos a partir de los resultados experimentales para llegar a las leyes naturales. Una vez que tenemos estas leyes, podemos deducir a partir de ellas para ver qué debería suceder. Podemos entonces realizar experimentos para ver si la predicción es correcta.

Son 2 formas de razonamiento: Deducción e inducción. La deducción se emplea para mostr
ar que una teoría se sigue de otra. La inducción consiste en inferir una regla general a partir de algunos casos:
  • Razón inductiva: Veo un cuervo, y es negro. Otro cuervo es también negro, y otro... Concluyo que todos los cuervos son negros.
  • Razón deductiva: Todos los cuervos son negros. Ése es un cuervo, por consiguiente, es negro.
Problemas con la inducción: En la deducción, la verdad de la conclusión se sigue de la verdad de las premisas, pero en la inducción no pasa lo mismo. El hecho de que 2 cuervos sean negros no contradice que haya un cuervo blanco en Japón, pero la regla general de que todos los cuervos son negros es inconsistente con la existencia de un cuervo blanco. POr consiguiente, la verdad de las aserciones en que se apoya no garantiza lógicamente la verdad de la conclusión, y en ciencia es un problema a la hora de obtener resultados garantizados mediante la inducción.

La horquilla de Hume: Aunque usamos la inducción con bastante éxito, su aplicación resulta cuestionable. El filósofo escocés David Hume (1711-1776) se le atribuye la idea de que emplear la inducción no está justificado. Para justificar la inducción hemos de elegir entre 2 opciones:
  1. Usar la deducción, pero la verdad de la inducción no puede deducirse de los axiomas de la lógica.
  2. Usar la inducción, pero ello significa nuestra propia justificación con un argumento circular y no quedaría justificado.
Hume pensaba que la inferencia inductiva es un hecho psicológico relativo a los seres humanos: Una vez nos hemos quemado, evitamos en lo sucesivo poner la mano en el fuego. Inferimos por medio de la experiencia y este es el problema, pues usar la inducción es tremendamente sensato. Pero NO podemos justificar nuestro uso de ella.

Más delante, en el círculo de Viena, se dudó seriamente de que la ciencia fuese inductiva, y en su lugar cobró prominencia la idea de la deducción nomológica. La idea es que la ciencia propone leyes generales a partir de las cuales cabe deducir resultados particulares. Más que creer que la predicción y la explicación requieren metodologías diferentes (inductiva y deductiva), lo dejamos todo a la deducción: Observamos un fenómeno y luego proponemos una ley que lo explique causalmente, deducimos qué más se sigue de esta y buscamos confirmación o falsación empírica.

El modelo nomológico comenzó con John Stuart Mill (1806-1873), para quien la ciencia era una sección de la lógica y las inferencias inductivas no eran sino generalizaciones empíricas. La confianza en estas últimas crece segúin su grado de confirmación empírica con respecto a las alternativas, pero nunca estaremos completamenet seguros de sus conclusiones. Común a todas las inferencias inductivas es la creencia de que en la naturaleza todo debe tener una causa o una condición tanto necesaria como suficiente para producir su existencia. Podemos descubrir ambos tipos de condiciones generalizando a partir de la observación. POr ejemplo: Las nubes son necesarias para la lluvia. Esto podemos descubrirlo intentando encontrar casos de lluvia sin nubes. Si no somos capaces, esto apoya la afirmación. Una condición suficiente es aquella que no puede existir sin su efecto, como el fuego con el calor: ¿Podemos tener algún caso de fuego sin calor?

El trabajo del científico es similar al del químico que destila una sustancia. Mediante el recurso cuidadoso a la inducción, la deducción y la eliminación de candidatos, el científico acaba por quedarse con unas pocas condiciones necesarias y suficientes para cualquier fenómeno. Cuantos más experimentos se hagan, más seguro podrá estar el científico de hallar las causas correctas de un determinado efecto.

Mill piensa que la deducción sólo funciona en virtud de generalizaciojnes inductivas a partir de nuestra experiencia. Mill concibe también las matemáticas como otra forma de generalización. Su idea es que la ciencia avanza hacia reglas cada vez más generales que predicen con creciente precisión. Su concepción es bastante singular y original, pues según esto la certeza que atribuimos a enunciados matemáticos como 1+1=2 se debe al enorme número de confirmaciones empíricas que tenemos de ellos. Los filósofos habían intentado explicar durante mucho tiempo la verdad supuestamente necesaria de las matemáticas y la lógica, pero Mill sostenía que no hay nada que explicar: No se trata de enunciados especiales sino de enunciados más ampliamente confirmados. Hay que decir que a lso filósofos nunca les acabó de agradar la idea, pues enunciados como 2+2=4 parecen comportarse como LEYES y no como simples predicciones. Las reglas de las matemáticas no predicen sucesos futuros sinoque regulan aquello que consideramos racional. Si nos topamos con un caso que parece refutar las reglas de las matemáticas, buscamos siempre otra explicación racional. No nos rendimos ni aceptamos que las reglas matemáticas sean falsas en determinadas ocasiones.

Del mismo modo, cuesta concebir en qué sentido ideas modernas como los números imaginarios y la geometría de más de 3 dimensiones pueden ser generalizaciones a partir de la experiencia, puesto que esas cosas nunca están en el mundo real.

Karl Hempel (1902-1997) del Círculo de Viena modernizó el método nomológico deductivo. Describía la ciencia como la búsqueda de leyes generales basadas en la causalidad, que explicarían todos los fenómenos observados en la experiancia y sólo ellos. Pero no tardó en descubrir problemas: Si tenemos uan regla general de la forma "todos los F son G" (todos los hombres son mortales) y un enunciado de la forma Fa (sócrates es un hombre), entonces podemos concluir Ga (Sócrates es mortal). Una ley de esta forma es lógicamente equivalente a la ley de que ningún no-G es F (ningún inmortal es un hombre). Si encontrar un hombre que es mortal confirma la ley, encontrar algo que no es un hombre y es inmortal también la confirmará. Pero entonces Hempel plantea la paradoja del cuervo:

Les aseguro que todos los cuervos son negros. Esta es la demostración:

  1. Todos los cuervos son negros significa que todo aquello que no es negro no es un cuervo.
  2. Mis zapatillas no son negras ni son cuervos.
  3. Por consiguiente mis zapatillas confirman la regla de que todos los cuervos son negros.
Este no es un problema de lógica, sino planteado por la lógica. Este tipo de razonamiento no sirve como metodología de la ciencia, pues comprobar de forma exhaustiva que todas las zapatillas del universo son blancas no podríamos ver cómo influye esto en que los cuervos sean negros.

Otro problema de la interpretación nomológica es que no distingue entre causa y efecto. Un buen método científico debe tener en cuenta la dirección de la causa y el efecto para no hallar conclusiones absurdas: Si vemos que llueve y hay una determinada lectura en un barómetro, podemos concluir que la presencia de la lluvia causa la lectura de este, como que la lectura del barómetro causa la lluvia.

Una alternativa la sugirió Karl Popper: en términos lógicos decir que si F es una ley natural, entonces sucederá G equivale a decir que si no sucediera G entonces F no sería una ley natural. Pero en nuestra capacidad de confirmar ambas cosas, media una importante diferencia. La primera formulación nos exige comprobar todos los G. Esto es imposible, pues nos exige comprobar todo lo que ha ocurrido y lo que ocurrirá alguna vez. Pero basta un solo caso en que no haya ocurrido G en condiciones relevantes para copnvencernos de que F no es una ley. La base de la metodología científica de popper se basa en esto. El método apropiado de hacer ciencia no consiste en buscar confirmación de nuestras teorías, sino en intentar refutarlas. Así también resuelve el tema de la inducción. Si se desconfirma una teoría en un caso particular, entonces la rechazamos mediante una deducción muy similar al método de la reductio. POr ejemplo:
  • Si suponemos que la física de Newton es verdadera, entonces deberíamos ser capaces de detectar el movimiento de la luz a diferentes velocidades.
  • No hemos encontrado evidencias de que la luz se mueva a diferentes velocidades. Por tanto la física newtoniana no es verdadera.
Rechazar una teoría implica una carrera para dar una nueva teoría capaz de dar cuenta de todos los resultados de la antigua y de los nuevos datos, y si obtenemos 2 teorías que expliquen todo, entonces nos quedaremos siempre con la más simple. Es la falsabilidad en la ciencia.

El problema es que a medida que se desarrolla la ciencia, las teorías se alejan cada vez más del sentido común y devienen cada vez en más improbables. Una teoría qeu explica 5 hechos tiene una probabilidad mayor de ser correcta que una teoría que explica 10 hechos, sencillamente porque son menos los casos susceptibles de falsación. Conforme avanza la ciencia, disminuye la probabilidad de que las teorías sean correctas.


Lógica y ciencia


La argumentación y la fundación de las matemáticas no son las únicas aplicaciones de la lógica. La ciencia moderna en su integridad comporta la aplicación de instrumentos lógicos y matemáticos. De hecho, la lógica de Frege se diseñó para contribuir a la cración de un lenguaje científico riguroso. Pero los vínculos entre lógica y ciencia se remontan a más atrás.

Aristóteles, sin matemáticas ni experimentos, concluyó que los cuerpos celestes se movían en círculos perfectos. Se basó no en experimentos rigurosos sino en el sólo uso de la razón: Los astros se han de mover en círculos perfectos por su amor a Dios, que es perfecto. Evidentemente, al tratar
de predecir los científicos posteriores el movimiento de los planetas con este sistema vieron varias anomalías. Ptolomeo, por ello, añadió nuevos círculos al sistema para dar explicación a los fallos observados. Pero no discutió el tema de los círculos perfectos.

Esto mejoró las cosas durante un tiempo, pero Marte tenía la manía de salirse del sistema con una trayectoria por fuera de su órbita prevista. Para subsanarlo se fueron añadiendo cada vez más círculos hasta la revolución copernicana en el siglo XV. Copérnico sugirió que las predicciones se simplificarían si la Tierra fuese quien girase alrededor del Sol y no al revés. Esto tenía muchas ventajas pero una pega terrible: La Iglesia había dado su aprobación al sistema aristotélico. Que los astros se empeñasen en
contradecirlo no es un problema, pero que ALGUIEN ose sugerir otro sistema atenta contra un principio peligroso de la Iglesia: La infalibilidad del Papa. Y Copérnico pasó a ser un hereje pero su trabajo inspiró a gente como Galileo y Kepler.

Galileo pensaba que toda controversia científica debía resolverse mediante experimentación, y demostró el movimiento de la Tuerra de forma ingeniosa mediante un péndulo (que afectaba en su oscilación el movimiento de la tierra que le sujeta).

Galileo insistía en que los fenómenos naturales tenían que someterse a una cuidadosa observación y a una rigurosa medición. No se ha de apoyar en la autoridad del pasado sino en la observación cuantificada. Para él las matemáticas son el lenguaje de la naturaleza. Se vió lógicamente forzado a retractarse por una Iglesia que le veía como una amenaza, y pasó aislado el resto de su vida. Pero el mal (en este caso el bien) ya estaba hecho y los gritos de la revolución científica ya no podían callar. Aristóteles no tardaría en desplomarse.

Lógica borrosa


Un matemático polaco, Jan Łukasiewicz (1897-1956) abordó viejos problemas que se sabía que existían desde Aristóteles a Russell. La lógica está mal equipada para dar cuenta de palabras como "posible" o "necesario", así como de enunciados relativos al futuro. ¿Cómo determinar el valor de verdad de "la nieve caerá sobre el Big Ben dentro de 1000 años?

Łukasiewicz quería un sistema lógico capaz de incorporar y dar cuenta de estos elementos del lenguaje, así que diseñó una lógica con 3 valores de verdad: Verdaero, falso y "posible". Para ello tuvo que establecer nuevas reglas para todas las conectivas lógicas. ¿Cuál sería el valor de verdad de pΛq cuando p es verdadero y q es posible?. Para solucionar esto es más facil concebir los valores de verdad como números. Verdadero y falso se han representado también como 1 y 0, así que el tercer valor de verdad puede ser tratado como 1/2. Con los números, el valor de verdad de pΛq sería el menor de los valores de verdad de p y q:

  • p es 1 y q es 1/2
  • pΛq es también 1/2
Análogamente, el valor de verdad de pVq es el mayor de los valores de verdad de p y q, de modo que si p es 0 y q es 1/2, el valor de pVq sería también 1/2.

El valor de ¬p sería 1 menos el valor de p, de modo que si p es posible (1/2), su negación también es posible.

En este tipo de lógica no funciona ni la ley del tercio excluso ni la ley de no contradicción. Es falso decir que o bien p es verdadero o bien ¬p es verdadero, pues p puede ser también posible. También es falso decir que p y ¬p pueden tener el mismo valor de verdad. No obstante, la ley de no contradicción funciona de un modo algo diferente: Si p es verdadero, entonces ¬p no puede ser también verdadero, y viceversa. Así que puede demostrarse que ¬¬p=p.

Esta lógica es consistente pese a no aplicar 2 leyes fundamentales, y las definiciones de las conectivas lógicas que proponía Łukasiewicz pueden apliarse a la creación de lógicas con un número cualquiera de valores de verdad, desde 3 hasta infinitos. Si queremos por ejemplo una lógica con 7 valores de verdad, sólo tenemos que asignar a cada valor de verdad el valor numérico de 1/6: 0 - 1/6 - 2/6 (1/2) - 4/6 - 5/6 - 6/6 (1)

De esta forma nació la lógica polivalente, más conocida con el nombre de Lógica Borrosa, que se aplica en el campo de las máquinas electrónicas. La mayor parte de conmutadores son de sí/no o de encendido/apagado. Pero ahora se pueden usar conmutadores con más de 2 posiciones. Y también tiene implicaciones en el campo de la inteligencia artificail. Supongamos que queremos un sistema rápido de recuperación de información, como un buscador en la red. El buscador será mejor cuanto mayor sea su capacidad de reconocer lo que buscamos a partir de la lista de palabras que le proporcionamos. Con el cálculo proposicional clásico, nuestro buscador sólo hallará los sitios que coincidan con las palabras suministradas. Cualquier mínima variación ortográfica supone una NO coincidencia. Sin embargo, con la lógica borrosa hallará sitios que coincidan con las palabras en grados variables, y proporcionarnos más información de la deseada.

En general la lógica borrosa es más útil a la hora de reconocer patrones, con máquinas que nos digan cuándo una cosa es imilar a otra. La red neuronal es un dispositivo que funciona con lógica borrosa.

miércoles, 16 de diciembre de 2009

El intuicionismo


Una de las primeras alternativas a la lógica clásica vino de la mano de L. E. J. Brouwer (1881-1966). Éste se oponía la proyecto de Frege y Russell de reducir las matemáticas a la lógica. Pensaba que las matemáticas descansan en "intuiciones" básicas acerca de lo que son ciertas entidades matemáticas elementales (como el número y la línea). De ahí que su concepción se conozca como "Intuicionismo". Intentó mostrar que las demostraciones matemáticas funcionan simplemente de modo diferente al de las lógicas. En particular, mostró que en algunos casos, en matemáticas, no funciona la ley del tercio excluso. Es decir, en matemáticas ¬¬p no siempre es lo mismo que p.

Brouwer se centró sobretodo en casos de conjuntos y series infinitos. Por ejemplo: El conjunto de todos los números positivos y la serie de dígitos que comprende números irracionales como Π y la raíz cuadrada de 2. El argumento podría expresarse así:

Puedo demostrarles lógicamente que la secuencia 666 debe aparecer en algún lugar del despliegue de cualquier número irracional como Π. Decir que no figura es decir que, para todos los dígitos de Π, no es el caso de que la secuencia 666 aparezca en ellos, lo cual no puede demostrarse matemáticamente. Incluso si llenamos todo el papel del mundo con los dígitos, seguirá habiendo infinitamente más dígitos que no habremos revisado. Pero si no es cierto que todos los dígitos de Π no contienen la secuencia 666, entonces por la ley del tercio excluso, es cierto que la secuencia aparece en algún lugar. Es lo que se conoce como el argumento del diablo. Este argumento no puede tolerarse, de tal forma que la ley del tercio excluso no puede palicarse a los conjuntos o series infinitas en matemáticas.

El argumento de Brouwer también puede mostrar que algunas ramas de las matemáticas también funcionan conforme a una lógica distinta. Algunos desarrollaron incluso una lógica tal e intentaron mostrar que se trata de la lógica de todas las matemáticas. La denominaron "lógica intuicionista". Lo esencial es que no incluye la regla ¬¬p = p. A menos que exista algún método claro para demostrar que ¬¬p es verdadero. Esto nos permite usar esta regla en casos de conjuntos finitos, por ejemplo, pero excluye el caso de conjuntos y series infinitos.

Una característica de la lógica intuicionista es que en ella no funciona el método de la reductio de Leibniz. Con la reductio demostramos un enunciado matemático suponiendo su opuesto y llegando a una contradicción. Pero el paso de "su negación es falsa" a "es verdadero" se basa en la ley del tercio excluso. El método de la reductio no nos proporciona una construcción de la expresión matemática a partir de los axiomas de alguna rama de las matemáticas, tal como se supone que funcionan las matemáticas. Sin ofrecer una demostración de la expresión la reductio quiere mostrar que debe ser verdadera porque su negación es falsa. Esto no existe en la lógica intuicionista. El problema es que muchos enunciados matemáticos fundamentales, que todo el mundo está dispuesto a aceptar, sólo se han demostrado mediante la reductio.

Durante la década de los 30 esto condujo a una nueva moda matemática: Hallar demostraciones para algunas expresiones matemáticas elementales y de uso frecuente mediante la lógica intuicionista. Se encontraron muchas de ellas. Hasta Gödel se interesó por el asunto.

El sorites


Otra famosa paradoja no autorreferente es el sorites o la paradoja del montón. Era muy del agrado de los estoicos, quienes la usaban para demostrar la debilidad de la razón. Se basa en la imprecisión de varias palabras de nuestro lenguaje, como "montón". En ciertos casos no existen reglas nítidas para decir cuándo pueden aplicarse de forma correcta: Tenemos un montón de arena.

- Si quitara un grano de arena, ¿seguiría tratándose de un montón?
- Claro. ¿Qué diferencia puede suponer un solo grano de arena?
- Pero si quitase otro grano de arena, ¿seguiría siendo un montón?
- Por supuesto.
- ¿Y otro?

Finalmente nos queda un solo grano de arena. ¿Se trata de un montón?. Difícilmente. Sin embargo en cada fase me limitaba a quitar un grano, y según se nos decía eso carece de importancia... Esta paradoja se sirve de que no hay reglas que determinen cuántos granos de arena son un montón. Es una auténtica paradoja, ya que, al seguir los pasos lógicos que admitimos como verdaderos en cada caso, llegamos a una contradicción de que un solo grano de arena es y no es un montón.

La paradoja del sorites puede aplicarse a casi todo aquello en lo que podemos realizar cambios insignificantes. El filósofo Peter Unger publicó un artículo titulado "I do not exist" donde se aplica a sí mismo la paradoja del sorites, quitándose una célula cada vez. El sorites no afecta a la lógica formal, en la que lo importante es la pura manipulación de símbolos. Pero si intentamos atribuir significado a dichos símbolos, esta paradoja deviene en muy importante, porque muchas palabras cotidianas como poco o mucho, grande, pequeño, colores y sonidos, pueden emplearse para generar una paradoja del sorites.

Los filósofos se entusiasmaron con la combinación de conjuntos y lógica con el fin de analizar el lenguaje. Una idea común es que a los predicados de nuestro lenguaje les corresponden conjuntos. Así, al predicado "es un montón" le corresponde el conjunto de todos los montones. Lo que el sorites nos dice es que siempre habrá algún caso en que resulte discutible si algo es o no es un montón. Si no disponemos de solución, entonces el intento se vuelve muy cuestionable.

Aparte de amenazar el intento de usar conjuntos para analizar predicados de nuestro lenguaje, el sorites pone también en duda que el cálculo proposicional y de predicados sea capaz de describir el modo de ser del mundo. Por ejemplo, la ley de identidad (a = a) y la ley de no contradicción son 2 axiomas fundamentales de los sistemas lógicos, y ambos quedan desafiados por el sorites. Desafía a la ley de identidad porque parece sugerir que algo que es un montón al mismo tiempo no es un montón. POr lo mismo desafía a la no contradicción.

Se han ofrecido muchas soluciones posibles, en general pertenecientes a 3 categorías.

  1. Para algunos, el problema reside en la aplicación de conceptos imprecisos al mundo.
  2. Para otros la imprecisión es sólo aparente.
  3. Otros pocos creen que lo mejor es librarse de las constricciones de la lógica proposicional y de predicados. Para Frege, no deberían existir términos imprecisos en la argumentación lógica: El cometido de la lógica es la precisión científica, y las palabras imprecisas sólo sirven de ficciones útiles en el habla cotidiana.
"Ulises es sabio"
"Patrick Stewart es calvo"

Ambas frases tienen sentido para nosotros, pero así como no existe Ulises, tampoco existe la propiedad de la calvicie. Para Frege, se han de desechar los nombres carentes de referencia, y, análogamente, desechar predicados que no logren atribuir propiedades explícitas.

Otros pensadores optan por negar la imprecisión, ya que es sólo una falta de conocimiento. Así, un montón lo formaría un número determinado de granos de arena, aunque desconozcamos de cuál se trata. El problema no son las leyes de la lógica, sino las palabras y conceptos que empleamos. Sugiere que no sabemos qué significan realmente la palabras, pero esta solución niega que dispongamos de todo el conocimiento.

Lógica borrosa: Dado que ninguna de estas soluciones resulta concluyente ni exenta de problemas, hay filósofos que han aceptado el resultado de la paradoja. Renuncian a la vieja idea de que los enunciados sean verdaderos o falsos: Se pasa a considerar las oraciones como "muy verdaderas", "bastante verdaderas", "razonablemente falsas", "completamente falsas", etc... Se crea así una familia de lógicas conocida como "lógica borrosa". Tiene la ventaja de que permite manejar valores comparativos de verdad. Es más verdadero decir del óvalo que "es redondo" que decirlo de un rectángulo, incluso cuando ninguno es de verdad redondo. La verdad es como una escala contínua. Este recurso no es una solución, sino una sumisión al sorites que no nos permite librarnos del todo de él:

- Si algo es muy verdadero, ¿qué sucede si es un 0.000001% menos verdadero?
- ¿Sigue siendo muy verdadero?

Podríamos decir que algo es válido si preserva la verdad completa o si preserva el mismo grado de verdad. Pero el otro asunto es cómo dar cuenta de la validez en la lógica borrosa. ¿Cómo podemos decir si un enunciado se sigue de otro? Sólo podemos inferir válidamente que algo es verdadero si se sigue de un enunciado completamente verdadero. Pero no está claro si podríamos llegar a conocer la verdad de nuestros enunciadosy llegar así a hacer una inferencia válida.

La historia de la lógica está plagada de paradojas. Es como una lucha entre 2 bandos: Los constructores de sistemas y los autores de paradojas. Los primeros buscan sistemas, formas precisas de analizar nuestros conceptos. Para ello emplean la lógica para deducir todos los enunciados verdaderos de un modo claro y preciso. Por contra, una buena paradoja desafiará la capacidad de la lógica para lograrlo, poniendo en duda nuestra capacidad de distinguir o deducir enunciados falsos y verdaderos, o de brindar definiciones claras para nuestros conceptos. El cálculo de predicados, pese a su ingeniosidad, se halla en sí mismo libre de paradojas, pero en el momento en que intentamos usarlo para responder preguntas sobre el mundo, no tardan en salir problemas. Dadas estas limitaciones en el cálculo de predicados, los lógicos al final trataron de apartarse de él y desarrollar nuevos sistemas de lógica. La lógica borrosa es una de estas lógicas "no clásicas".

Las paradojas



Como sucede en la mayoría de las cosas en lógica, la teoría de la demostración parece árida y oscura. La vertiente práctica de sus aplicaciones como método de demostración lógica es limitada. Pero constituye el armazón de buena parte de nuestra ciencia, las matemáticas y la tecnología computacional. Una de las virtudes de la demostración es la capacidad de garantizar la repetición de un mismo resultado cada vez que se aplica a una secuencia particular de símbolos, más de lo que puede decirse de la mayoría de los experimentos científicos. No obstante, si la secuencia de símbolos contiene una contradicción, el método pierde su eficacia, pues de una contradicción se siguie cualquier cosa. Así, cuando Russell descubió una paradoja en el sistema de Frege hizo que todos rechazasen el sistema. La paradoja era una contradicción inevitable en el seno del sistema. Frege sirvió de lección a los lógicos quienes tratan desde entonces de evitar las paradojas.

Una paradoja es un enunciado que implica su negación, una pesadilla para los lógicos porque, con independencia de que consideremos verdadera o falsa la oración, siempre llegamos a una contradicción. Esto hace imposible aferrarse a la ley de no contradicción.

"Paradoja" procede del griego. En la antigua Grecia
los escépticos deseaban mostrar que la razón no podía conducir al conocimiento absoluto, y la paradoja era su arma principal. El más célebre de estos réprobos fue Zenon de Elea (495-430 a.C). Creó esta paradoja:

Esta oración es falsa.

Si la oración es cverdadera, entonces es falsa. Pero si es falsa, entonces ha de ser verdadera. Suponer que es verdadera o falsa implica llegar a una contradicción. Es la más célebre de una serie de paradojas autorreferentes.


Un intento de evitar la paradoja del mentiroso pasa por excluir de los sistemas lógicos toda oración autorreferente, pero esto nos lleva a 2 problemas:

  1. Ciertas oraciones autorreferentes son inocuas, como por ejemplo: "Esta oración consta de seis palabras".
  2. Podemos construir un aparadoja que funcione como la del mentiroso sin ser autorreferente: "La siguiente oración es falsa. La oración anterior es verdadera".
La paradoja de Russell contra Frege es como la del mentiroso, pero en el lenguaje de la teoría de conjuntos. Russell compuso una compleja maquinaria lógica para abordar el problema, que llamó la "Teoría de tipos". Deberíamos distinguir diferentes tipos de conjuntos: Conjuntos cuyos miembros son objetos; Conjuntos cuyos miembros son conjuntos, y así sucesivamente. Podemos proseguir indefinidamente para obtener conjuntos cuyos miembros son conjuntos de conjuntos, y cosas por el estilo. Análogamente, podemos usar predicados referidos a objetos y predicados referidos a predicados, como "ser bella es peligroso".

Según Russell, si prohibimos los cruces entre tipos se resuelve su paradoja. El conjunto problemático es un conjunto de conjuntos, por ello es un tipo diferente al de los conjuntos que lo integran.No hay paradoja porque implicaría cruzar tipos.

Lamentablemente, aplicar esta solución a la paradoja del mentiroso no nos basta. Al analizar "esta oración es falsa", Russell pensó que constaba de 2 oraciones:
  1. Esta es una oración.
  2. Esta oración es falsa.
Así, "esta oración es falsa" es un predicado que dice algo acerca de una oración, es decir, acerca de un predicado y de su objeto. Para la teoría de tipos el problema estriba en que el mentiroso tiene 2 predicados de diferentes tipos, una situación de la que no puede dar cuenta. Da una solución al problema pero a costa de volver el problema aún más difícil de manejar. El nuevo sistema impide tantos cruces entre tipos que llegó a ser imposible demostrar hasta las proposiciones más elementales de la teoría de conjuntos.

La solución que aportó Tarski fue mediante su distinción entre el lenguaje "sometido a estudio" y el "metalenguaje". Según Tarski, "es verdadero" y "es falso" son predicados del metalenguaje.

Cuando el mentiroso dice "esta oración es falsa" esta haciendo un uso indebido del predicado "es falsa". Lo trata como si fuese parte del lenguaje objeto, pero en realidad es aplicable sólo al metalenguaje. Una oración no puede contener su propio predicado de verdad. "esta oración es falsa" no forma parte del lenguaje objeto en mayor medida de lo que "la nieve es blanche" forma parte del castellano.

Esta solución es similar a la de Russell, si bien no permite que las oraciones del mismo tipo hablen de su propio valor de verdad. Así como hay infinitos tipos, también hay lenguajes que estudian lenguajes que estudian el metalenguaje, y así indefinidamente.

Pero una pardoja como "La oración siguiente es falsa. La oración anterior es verdadera" para Tarski es un problema. Una de las oraciones parece pertenecer tanto al metalenguaje como al metalenguaje con respecto al metalenguaje:

  • "La oración siguiente es falsa" habla de una oración, así que como míniumo pertenece a un metalenguaje.
  • "La oración anterior es verdadera" debería ser el objeto de discusión, pero dice algo sobre la oración del metalenguaje. En resumidas cuentas, parece pertenecer a 2 lenguajes a la vez.
El mentiroso aún atormenta a filósofos y lógicos, que de cuando en cuando aportan nuevas soluciones.

También tenemos las Heterologías: Son palabras que no son lo que dicen. POr ejemplo, "largo" no es largo, "grande" no es grande, etc. Esto nos lleva a si "heterológico" es heterológico o no. Si no es heterológico, entonces es lo que dice ser. Pero dice de sí misma que es heterológica. Y si lo es, entonces no es lo que dice, pero de nuevo nos dice ser heterológica. Luego es y no es heterológica. Podemos decir que es una paradoja.

La más influyente de las paradojas autorreferentes es el segundo teorema de la incompletitud de Gödel, del que ya he hablado antes.

Y nos queda la paradoja del movimiento de Zenon. Parece que el hombre estaba bastante creativo en esto de las paradojas... Zenon deseaba mostrar la imposibilidad del movimiento. Cuando vemos moverse algo, nuestros sentidos nos engañan. El principal argumento de Zenomn consistía en que, si existiese el movimiento, nos llevaría a una contradicción: Par que Aquiles (famoso en la antiguedad por sus "pies ligeros") alcanzase a una tortuga, de proverbial lentitud, primero debería recorrer la MITAD de la distancia que le separa de la tortuga. Luego debería recorrer la mitad de la distancia restante, y así hasta el infinito. Por tanto, llevaría una cantidad infinita de tiempo alcanzar a la tortuga.



Zenon llegaba a esta conclusión partiendo de premisas verdaderas. ¿Quién negaría que para llegar de A a B recorremos primero la mitad?. Pero nuestros sentidos nos dicen que alcanzamos y pasamos lugares todo el tiempo. Por tanto, hemos de concluir que nuestros sentidos nos engañan. La paradoja depende de un supuesto de los matemáticos anteriores a Newton y Leibniz. Suponen que toda suma de un número infinito de números positivos resultaría infinita. Es facil pensar algo así: La paradoja de Zenon es sumar 1/2 + 1/4 + 1/8 + 1/16.... Esto sería infinito, y jamás llegaríamos al lugar deseado. Pero Newton y Leibniz descubrieron casi a la vez es que la suma de un número positivo de enteros NO es igual a infinito. Ciertos cálculos infinitos tienen la propiedad de convergir en los límites, así que con cada adición subsiguiente nos vamos acercando a un número particular. Dado un número infinito de cálculos, podemos llegar finalmene a un número. Y lamentablemente para Zenon, la suma de 1/2 + 1/4 + 1/8... es un cálculo de este tipo. Con el nuevo método puede mostrarse fácilmente que la suma final de este cálculo es 1. Costó 2000 años, pero Aquiles acabó por ganar a la tortuga. Vaya carrera....

sábado, 12 de diciembre de 2009

Historia de la lógica: Gödel


En términos generales, el método de Hilbert se basa en la idea de que podríamos establecer de manera incuestionable la consistencia de, por ejemplo, la geometría, si pudiéramos demostrar que no podemos derivar de sus axiomas algo como "1=0", que es un disparate matemático. Hilbert,como Leibniz, usaba como principal herramienta la reductio.



Sus esfuerzos por encontrar un mecanismo para demostrar la consistencia sólo condujeron a resultados preliminares,pero llamaron la atención de otro joven austríaco, Kurt Gödel (1906-1978), el mayor lógico del siglo XX. A los 23 años demostró que todas las proposiciones del cálculo de predicados de Russell son verdaderas, pero también que todo enunciado verdadero es demostrable en dicha lógica. POr decirlo en jerga: Es "tanto consistente como completa".



La más influyente de las paradojas autorreferentes modernas es el segundo teorema de la incompletitud de Gödel. Cuando estaba estudiando con Hilbert, le ayudó en su proyecto de hallar demostraciones de la consistencia aritmética mediante su método recursivo. Para su sorpresa, decubrió que era imposible obtener tales pruebas. Gödel sugirió codificar los enunciados lógicos y matemáticos como números. Asignó un número a cada símbolo de la lógica de Russell y luego insertó los números en una fórmula matemática que generaba un único número para cada secuencia posible de símbolos de dicha lógica. En su sistema podemos traducir del siguiente modo:

p 112

v 2

¬ 1

p 112


Así se muestra que a l fórmula del sistema completo de Russell que dice "esta fórmula es indemostrable" le corresponde un número particular. Entonces hay 2 caminos:




  1. Suponemos que la oración es verdadera. Tenemos un enunciado verdadero de la lógica de Russell que no puede demostrarse. POr tanto, la lógica de Russell es incompleta.


  2. Si la oración es falsa, entonces es demostrable, pero entonces es demostrable un enunciado falso, por lo que es inconsistente.

Nada de todo esto resultaba atractivo a Russell ni a Hilbert, que buscaban un sistema que produjese todas las oraciones verdaderas de las matemáticas y sólo esas. Ahora se daban cuenta de que ese objetivo era inancanzable. Gödel muestra que las ramas básicas de la matemática pueden formalizarse mediante un conjunto de axiomas conforme al programa de Hilbert. Pero las conclusiones de su teorema son también aplicables a ellas. Así, la matemática elemental es incompleta o inconsistente: O bien hay un cálculo verdadero que no puede probarse o bien puede probarse uno falso.



El Teorema de Gödel puede generalizarse para abarcar cualquier lenguaje formal suficientemente complejo en el que exista un cierto orden entre las diferentes oraciones. Pero luego demostró que las matemáticas son incompletas: Ningún repertorio de axiomas es capaz de dar cuenta de todas las verdades de la aritmética. Que haya oraciones verdaderas de las matemáticas que no pueden demostrarse es alarmante para quien esté interesado en dotar a las matemáticas de una base firma. Enterró el sueño decimonónico de deducir todas las matemáticas a partir de un simple y riguroso conjunto de axiomas. La lógica ya no tiene esperanza de fundamentar la matemática. Eso sí, siempre que los matemáticos muestren que sus sistemas son consistentes al precio de ser incomletos pueden continuar generando expresiones matemáticas.



El teorema de Gödel nos muestra algo muy similar cuando se aplica a la computación. Empleando su sistema de numeración, toda demostración matemática formal puede transformarse en un cálculo numérico relativamente simple. Así, a cada fórmula le corresponde un número particular. Entonces, si existe una fórmula que no puede demostrarse, existe un número que no puede calcularse. Mediante un ardid puramente matemático demostró que su computadora ideal no podía calcular la mayoría de los números: Son más los números irracionales como Pi que los racionales como 7. El teorema de la incompletitud es aplicable a las computadoras. Los números incomputables se corresponden en cierto modo con programas que nunca dan resultados. El teorema de la incompletitud de Gödel implica que no puede haber un programa que emplee un número finito de pasos para comprobar si un programa alcanzará la conclusión o quedará interrumpido: El problema de la interrupción. Tal programa equivaldría a un sistema en el que poder computar sistemáticamente todos los números, lo cual es imposible.



El Límite de la demostración de Gödel: No ofrece su método garantías absolutas de que no podamos usar el método de Hilbert para probar la consistencia y l acompletitud de la aritmética, sólo de que tal prueba no es susceptible de representación en el seno de la aritmética. Ahora bien, nadie hasta hoy sabe qué aspecto debería tener tal demostración ni cómo elaborarla.



No puede usarse para decir que la intuición misteriosa debe reemplazar la demostración convincente, ni es una prueba de que existan límites inherentes al razonamiento humano, ya que nadie sabe si éste cae bajo las reglas de Hilbert. Ello no implica que renunciemos a toda esperanza de explicar el pensamiento en términos físicos, pero sí pone en duda la posibilidad de cualesquiera sistemas de reglas que formalicen cualquier posible oración.

jueves, 10 de diciembre de 2009

Historia de la logica: D. Davidson y Tarski


Partiendo desde la idea de Hilbert, Donald Davidson (1917) ha sugerido que podríamos aplicar esta idea a cualquier lengua natural, llenando los espacios en blanco con un modelo semántico. . Deberíamos darnos cuenta de cómo los significados de las oraciones dependen de los significados de las palabras. A menos que pudiera darse cuenta de ello para un lenguaje particular, no lograríamos explicar que podamos aprender el lenguaje: No se podría explicar que, a partir de un vocabulario finito y de unas reglas enunciadas de manera finita, produzcamos y comprendamos cualquier oración de la potencial infinitud de ellas ("Verdad y significado", 1967).

Lenguas como el castellano son potencialmente infinitas, siempre que aplicamos "y". El número de reglas que gobiernan cada posible uso de la palabra "y" es o bien finito, o bien infinito. Si las reglas fuesen infinitas, no podríamos aprenderlas. Pero si existe un número finito de reglas, entonces pueden aprenderse.

Debemos aplicar las reglas de manera recursiva para generar un número potencialmente infinito de oraciones. Según Davidson, cualquier lengua que usemos podría describirse como un enorme modelo. Así, la palicación de los lenguajes formales a los naturales logra la aplicación filosófica.

Si Davidson está en lo cierto, entonces el lenguaje es una especie de Lego que se compone de bloques (palabras) que deben combinarse en la forma correcta. Las instrucciones para encajar un bloque con otro proporcionarán las instrucciones para construir cualquier posible estructura del Lego. Lo que interesa de verdad a Davidson es cómo contribuye al significado de la oración el significado de cada palabra individual.

"Yo andaba despacio" puede analizarse como "hay un acontecimiento en el que yo andaba y el acontecimiento ocurrió despacio".

O lo que es lo mismo: Vx (Ax Λ Dx)

Es un análisis construido mediante la conjunción de 2 enunciados simples que constan de sujeto y predicado. La explicación de Davidson tiene 2 virtudes:

  1. Satisface las condiciones que él señala para que algo pueda aprenderse.
  2. Ofrece una explicación del lenguaje que preserva en buena medida nuestra comprensión intuitiva del lenguaje natural. Por ejemplo, "ando" se sigue de "ando despacio" poruq en la teoría de la demostración "Ax" se sigue de Ax Λ Dx".
Davidson considera todos los adjetivos, adverbios y proposiciones como predicados ensartados. Esto contrasta con el análisis russelliano de estos términos lingüísticos: Para Russell "fui a esquiar con un amigo" es un único predicado que dice algo sobre 2 sujetos, pues "fui a esquiar con" sólo tiene sentido como predicado si hay 2 sujetos conectados. Pero en realidad "fui a esquiar con un amigo" implica en realidad que "fui a esquiar". Y no sólo eso, sino que en castellano podríamos extender infinitamente la frase como "fui a esquiar con un amigo en invierno a los alpes, donde hace frío...". Para Russell necesitaríamos un nuevo predicado para cada acción subsiguiente, con un número potencialemtne infinito de predicados, imposible de aprender. Pero a la manera de davidson, con una serie de predicados diferentes ligados mediante conjunciones basta con una simple regla recursiva para dar cuenta de todas ellas.

En el fondo, Davidson busca entender el idioma como un lenguaje formal. Para ello precisa un modo de decidir bajo qué condiciones son verdaderas las oraciones. Adoptó así la interpretación de verdad en los lenguajes formales de Alfred tarski, que distinguía entre lenguaje formal y el lenguaje usado para hablar acerca del lenguaje formal (el metalenguaje).

Tarski (1902-1983) estableció un conjunto de condiciones muy simple que nos permiten decir cuándo es verdadera una oración de un lenguaje formal dado. "O" es verdadera si y sólo si "p". En su esquema, "o" es una oración de un lenguaje formal y "p" es la traducción de "o" al metalenguaje. Si este es el castellano y el lenguaje formal contiene oraciones en castellano, podemos decir que "la nieve es blanca" si y sólo si la nieve es blanca.

Tal esquema es menos trivial si lo usamos para establecer las condiciones de verdad de una lengua extranjera: "La neige est blanche" es verdadera si y sólo si la nieve es blanca. Podemos usar el esquema para obtener el significado de la oración en francés. El predicado "ser verdadero" no se aplica formalmente en el lenguaje formal, sino que dice algo sobre las oraciones de ese lenguaje formal.

Davidson piensa que nuestra comprensión del castellano puede explicarse mediante la compresión de una serie de oraciones construidas según el esquema de Tarski. Disponer de esta lista es todo cuanto se requiere para dar cuenta de nuestra comprensión de nuestro lenguaje natural, porque si conocemos las condiciones mediante las cuales es verdadera una oración, comprenderemos cómo usar dicha oración. Así, algo tan simple como:

<"La nieve es blanca" es verdadera si y sólo si la nieve es blanca>

es todo lo que se requiere para comenzar a hacer las veces de una teoría del significado. Cuando esto se combina con la tentativa de Davidson de mostrar que las condiciones de verdad de las oraciones dependen de las condiciones de verdad de sus partes, entonces se pueden establecer las condiciones de verdad de toda posible oración del castellano o del inglés.

La gran ventaja de la semántica formal reside en nuestra capacidad de fabricar máquinas que respondan a un lenguaje formalmente definido: Los ordenadores son máquinas de este tipo. Cualquier lenguaje computacional está compuesto por un vocabulario y unas reglas que describen el modo de generar enunciados bien formados en dicho lenguaje. Todos los programas escritos en el lenguaje constan de tales enunciados bien formados.

La moderna física de partículas opera también con lenguajes formales con el modelo provisto por la teoría cuántica, con electrones que nunca se han observado directamente: Sus propiedades definen lo que son y configuran su identidad formal en los modelos científicos. Las interacciones entre partículas son como reglas sintácticas que gobiernan su comportamiento. El logro de la física estriba en mostrar que sus modelos se corresponden con los resultados experimentales.

todas las posibles fórmulas bien formadas en un lenguaje se generan a partir de las siguientes reglas:

  1. Para predicados monádicos: Oración = nombre, predicado.
  2. Para predicados diádicos: Oración = nombre, predicado, nombre.
  3. Para las conectivas: Oración = oración simple, conectiva, oración simple.
Con esto hay un número potencialmente infinito de oraciones.

En los lenguajes computacionales el vocabulario y la gramática vienen predefinidos. Empero, en lenguajes como Prolog se le permite a la computadora desarrollar su propia programación: La máquina podría tener habilidades de aprendizaje, autocorrección y comunicación, la base de una inteligencia artificial (IA). Se dota a la computadora de un modelo de lenguaje. El vocabulario está formado por palabras para su uso e instrucciones para su ejecición. A la computadora se le pueden plantear entonces tareas específicas basadas en este vocabulario, pero puede identificar elementos de vocabulario que no posee y preguntar por ellos.

Historia de la logica: Wittgenstein


Russell dominó la filosofía hasta que llegó un judío austríaco, Ludwig Wittgenstein, que renunció a la carrera de ingeniería para convertirse en alumno suyo en 1912. En pleno conflicto bélico, la Gran Guerra, escribió el Tractatus Lógico-Philosophicus, donde concibe la filosofía como un análisis de la estructura lógica oculta, con ataques definitivos a Russell y Frege. Su interés principal era comprender la relacion entre lenguaje, lógica y mundo, si vemos el lenguaje como una FIGURA del mundo.

Lo que cualquier figura ha de tener en común con la realidad para ser capaz de representarla es la forma lógica: La forma de la realidad. Si el lenguaje puede usarse para representar el mundo es sólo porque tiene algo en común con él. Así, si nuestras oraciones poseen un significado es sólo gracias a la lógica. Una figura sin forma lógica no representa nada en absoluto. Inventó un método de representar las conectivas lógicas mediante una simple tabla; Así ahorré a todos la molesta de usar el verboso mecanismo de Frege.

Supongamos que representamos "el cielo está gris" como "p", y "llueve" como "q". Cada una de ellas puede ser verdadera o falsa, por lo que tenemos en total 4 posibilidades que pueden representarse como
sigue:

p q
v v
v f
f v
f f


Podemos ampliar la tabla para mostrar la conectiva "Λ" en "pΛq":

p q pΛq
v v v
v f f
f v f
f f f

Si p es verdadera y q es verdadera, entonces pΛq será verdadera. Si una o ambas son falsas, la oración compleja no puede ser verdadera. De esto se desprenden 2 cosas, una importante para los lógicos y la segunda para la vida cotidiana. Los lógicos emplean las tablas de verdad para representar la verdad de cualquier serie lógicamente conectada de oraciones. Pero más importante para la visa cotidiana es que estas conectivas se hallan en buena parte de la electrónica moderna. Para ello basta con conocer cómo funcionan las conectivas:

p q pvq
v v v
v f v
f v v
f f f

Esta conectiva, traducida como "o" es verdadera si p o q son verdaderas, y sólo es falsa si ambas son falsas.

La otra conectiva es
"¬", que se traduce como "no", y su tabla de verdad es:

p ¬p
v f
f v

Los símbolos lógicos pueden combinarse, lo cual nos ayuda a calcular las condiciones de verdad de cualesquiera oraciones lógicamente complejas. Por ejemplo, "pV¬p" genera la siguiente tabla de verdad:

p ¬p pV¬p
v f v
f v v

Cuando una fórmula sólo tiene "v" bajo ella en una tabla de verdad, significa que es verdadera en todas las ocasiones. Por ejemplo, "o llueve, o no llueve". No puede ser falsa. Es lo que llamamos una TAUTOLOGÍA. En una tautología una verdad se sigue de otra por necesidad, tan sólo en virtud de la sintaxis lógica. Por tanto, cualquier oración con la misma sintaxis lógica siempre será verddera y es una base sólida desde la que probar que un argumento lógico es válido.

La electrónica adoptó rápidamente este sistema en base a interruptores que dejan pasar la corriente eléctrica o no, con una base binaria. Toda la electrónica se basa en puertas con los mismos conectores que las tablas de verdad de Wittgestein.

miércoles, 9 de diciembre de 2009

La teoría de la demostración

La lógica moderna se divide en 3 proyectos emparentados:

  1. Lógica matemática: Continúa el proyecto de unir las matemáticas y la teoría de conjuntos. Con ella, los matemáticos aspiran a unificar diferentes campos matemáticos descubriendo sus propiedades comunes.
  2. La lógica simbólica es la investigación pura de la manipulación de símbolos. Estos símbolos no tienen que corresponderse con nada, sino que se trata de entidades abstractas cuyas interacciones se expresan mediante definiciones.
  3. La lógica filosófica, que trata de aplicar la lógica a conceptos concretos. En lugar de símbolos puros se ocupa de la interacción de conceptos reales como probabilidad y creencia.
El elemento de conexión entre estas ramas de la lógica es su dependencia de la teoría de la demostración, aquella que nos permite decir si un enunciado se sigue de otro.

El primer método oficial de la historia de la lógica es el axiomático, basado en que podemos deducir todas las tautologías lógicas a pàrtir de 2 ó 3 enunciados simples que se consideran verdaderos. Debe sus orígenes a Euclides (325-265 a.C). Todos los enunciados de su famoso libro de geometría se siguen de 5 enunciados simples que consideró como fundamentales y verdaderos, los AXIOMAS.

Su sistema aún se enseña en las escuelas. Su sistema es como una "bomba de verdad", pues hace fluir la verdad de los axiomas a los enunciados comprobados. La verdad de cada enunciado comprobado viene garantizada por la verdad de los axiomas.

A Aristóteles no le gustaban demasiado las matemáticas. Es por ello que en nuestra cultura occidental, que tanto le debe, el método de Euclides se usase poco fuera del campo matemático. Galileo fue el primero en aplicarlo a la física y después Descartes a la filosofía.

Historia de la logica: Hilbert


Los intentos de Frege y Russell de reducir las matemáticas a la lógica y la teoría de conjuntos forman parte de las múltiples tentativas de comienzos del siglo XX de fundamentar la matemática sobre sólidas bases lógicas.

Otro intento fue el de David Hilbert (1862-1943), iniciador de la teoría de la demostración o metamatemática.

A Hilbert le interesaba lo que tenían en común las diferentes ramas de la matemática. Toda rama matemática parte de unos axiomas o enunciados cuya verdad se da por supuesta, y a partir de los cuales pueden demostrarse todos los demás enunciados de dicha rama. En la medida en que los axiomas no se contradigan entre sí, podrán usarse para construir una posible rama de las matemáticas. Buscaba encontrar un modo de demostrar la consistencia de cualquier lista de axiomas.

De cualquier rama de las matemáticas que superara la prueba de Hilbert quedaría demostrado que descansa sobre una base sólida.

En términos generales, su método se basa en la idea de que podríamos establecer de manera incuestionable la consistencia de la geometría si pudiéramos mostrar que nopodemos derivar de sus axiomas algo equivalente a 1 = 0, que es un disparate. Digamos que es una nueva versión de la reductio. Buscaba una versión matemática de la teoría de la demostración. En aritmética, cualquier fórmula bien formada puede ser la base para cualquier otra fórmula bien formada, siempre que se sigan las reglas. Partiendo de 1 + 1 podemos llegar a 1 + 1 + 1.

En este sentodo, en el castellano podemos continuar una frase aplicando palabras como "y": Puedes traerme unas uvas ... y lejía ... y pan ...?

Esta aplicación continuada se denomina recursividad y resulta vital para la construcción de modelos. Nos permite construir un número infinito de oraciones a partir de unas pocas reglas sencillas y un vocabulario finito.

Hilbert tenías una concepción de las matemáticas que denominaba formalismo. La idea es que las cosas de las que hablan las matemáticas no son más que símbolos. Estos símbolos carecen de significado por sí mismos: Lo sabemos todo sobre ellos cuando comenzamos a manipularlos. Estableció reglas recursivas para explicar sus posibles interacciones.

La más célebre entidad matemática es el número. Todos los números enteros positivos pueden construirse a partir de 2 sencillas reglas:

- 1 es un número.
- Cualquier número + 1 es un número.

Dado que los matemáticos ya saben construir todo número con la ayuda de los enteros positivos y cero, sólo precisamos estas 2 reglas para construir cualquier número. Las reglas de Hilbert son a la par simples y efectivas: Tratan las matemáticas como un lenguaje formal compuesto de un vocabulario y una sintaxis. La sintaxis nos permite crear oraciones del lenguaje sin saber lo que significan. El vocabulario no es más que unos espacios en blanco con propiedades gramaticales: Nombres, verbos y demás. Igual que sabemos poner un nombre junto a un verbo para formar una oración completa en castellano, aún sin saber de quién es dicho nombre.

Consideremos un lenguaje modelo formado sólo por los siguientes términos:

- Predicados: Evolucionó a
- Nombres: Homo sapiens, homo sapiens sapiens, homo erectus, homo habilis.

Y las sencillas reglas gramaticales:

- Oración = nombre, predicado, nombre
- Oración = oración, "el cual", predicado, nombre.

La primera regla muestra cómo construir una fórmula bien formada con la secuancia nombre, predicado, nombre, como "el homo erectus evolucionó a homo sapiens".

La segunda regla muestra cómo construir una nueva fórmula partiendo de una oración preexistente y añadiendo la secuencia "el cual", predicado, nombre: "El homo erectus evolucionó a homo sapiens, el cual evolucionó a homo sapiens sapiens".

Con este modelo podemos construir un número infinito de oraciones mediante la aplicación de la segunda regla. Sólo unas pocas de estas oraciones serán verdaderas, pero lo importante es el entendimiento de este esquema.

Historia de la logica: El Círculo de Viena


Desde Frege, la lógica ha ido de la mano del problema de la fundamentación de las matemáticas y de la resolución de problemas lingüísticos. Con Rudolf Carnap (1891-1970) el énfasis recayó principalmene en la ciencia. Originalmente alumno de Frege pero muy influido por Wittgenstein, Carnap fue una de las estrellas del Círculo de Viena, un grupo de filósofos y científicos que deseaban purgar la filosofía de todo cuanto no fuese ni científicamente verificable ni una ley lógica.

Carnap desplegó su habilidad lógica intentando desarrollar una interpretación rigurosa de cualquier lenguaje formal posible. Es el paso previo para la únioca forma legítima de investigación filosófica: El análisis lógico. Lamentablemente, esta idea restringía el lenguaje hasta tal punto que al Círculo de Viena le resultaba a menudo difícil expresar sus concepciones: "Uno de nosotros se encargaba de gritar "M" (de Metafísica) cuando, en nuestra discusión, alguien pronunciaba una frase ilegítima. Tanto gritaba "M" que acabamos por hartarnos, y entonces le hacíamos gritar "noM" cada vez que proferíamos algo legítimo".

La lectura del Tractatus Lopgico-Philosophicum de Wittgenstein le incitó a pensar que podía derivar todas las oraciones significativas sólo a partir de la logica y de la experiencia sensible, aunque esa no era la idea de Wittgenstein. Y la tentativa de Carnap de reducir todo lenguaje comenzó a irse a pique casi tan pronto como empezó a sopesar sus consecuencias. En su madureez, habiendo escrito ya la Aufbau para defender su radical enfoque, moderó su concepción en Logical Syntax.

Su contribución más importante a la historia de la lógica y los lenguajes formales es la introducción del "principio de tolerancia", según el cual no existe una sino muchas lógicas. Cualquier expresión lingüística es aceptable en tanto en cuanto existan suficientes reglas que rijan su aplicación lógica.

Historia de la logica: Russell


La paradoja de Russell

Un joven inglés llamado Bertrand Russell señaló que el uso fregeano de los conjuntos conduce a una contradicción:

- ¿Es posible que un conjunto pertenezca a otro?
- Sí, el conjunto de los números 1 y 2 está contenido en el los números 1, 2 y 3.
- ¿Los conjuntos pueden pertenecer a sí mismos?
- Sí. Todo miembro del conjunto es un miembro del conjunto. El primer y el segundo conjunto son el mismo, por la ley de Leibniz.
- ¿Podemos tener también el conjunto de los conjuntos, como el conjunto de los conjuntos con más de 3 miembros? Si la respuesta es sí, entonces qué pasa con el conjunto de todos los conjuntos que no son miembros de sí mismos?

Según Russell, si el conjunto es miembro de sí mismo, por definición no puede ser miembro de sí mismo. Pero si no es miembro de sí mismo, entonces ES miembro de sí mismo. Luego es y no es miembro de sí mismo, lo cual es una contradicción.

No obstante Russell concedió mérito a la obra de Frege. Con Whitehead trató de fundamentar las matemáticas en los conjuntos y en la lógica evitando contradicciones como las de Frege. En la filosofía el problema era el propio lenguaje, pues la gramática superficial de las oraciones oculta su auténtica forma lógica. La gramática superficial (la escolar de nombres, verbos y adjetivos) esconde la verdadera forma de la oración. Reintrodujo los predicados en el cálculo y desarrolló la concepción fregeana de los cuantificadores. Esto le permitió distinguir “todos/as” de “algunos/as” y eliminó la necesidad de analizar la existencia com predicado, lo cual causaba muchos problemas. Formalizó el cuadrado de las oposiciones formulando las relaciones entre cuantificadores.

Decir “todas las aves tienen alas” y que “no hay una sola cosa que sea un ave y no tenga alas”, es decir lo mismo. “Todos/as” y “hay al menos un/a” son intercambiables con símbolos de negación en los lugares pertinentes.

Tomemos esta oración: “El actual rey de Francia es calvo”.

¿Es verdadera o falsa? Podría ser verdadera, falsa o ninguna de las dos cosas. Pero si es falsa, ¿significa que el actual rey de Francia no es calvo?. Por supuesto, si no es ni verdadera ni falsa entonces la oración no declara nada en absoluto, no dice nada acerca del mundo.

Russell pensaba que esta oración está compuesta en realidad por 3 afirmaciones:

1. Hay un actual rey de Francia.
2. Hay exactamente un actual rey de Francia.
3. El actual rey de Francia es calvo.

Esta afirmación combinada sólo será verdadera si las 3 afirmaciones lo son. Sabemos que la primera condición es falsa, así que la afirmación combinada es también falsa. Pero esto no convierte en verdadera la afirmación opuesta, ya que puede analizarse así:

1. Hay un actual rey de Francia.
2. Hay exactamente un actual rey de Francia.
3. El actual rey de Francia NO es calvo.

Y esto es también falso.

Reglas para las conectivas:

La aplicación del método axiomático alcanzó su madurez en los Principia Mathematica. El sistema de este libro supone un serio aspirante a fundamentar la matemática en la teoría de conjuntos. El problema es que muchos de los axiomas que emplea son complejos; Algunos son menos evidentes de lo que intentan demostrar, por ejemplo: 1 + 1 = 2. Hoy sigue vigente una versión refinada del método aquí empleado bajo el nombre de "deducción natural". Podemos construir cualquier fórmula lógica bien formada si conocemos las circunstancias en las que podemos introducir o eliminar una nueva conectiva a partir de "^", "v" y "¬".

De esto a un conjunto de reglas que establezcan cuándo es lícito introducir una conectiva sólo hay un paso. Cada conectiva tiene una regla para su introducción y una para su eliminación. Por ejemplo, dada una proposición q, si podemos mostrar que considerarla verdadera lleva a una contradicción (el método de la reductio), podemos introducir "¬" para convertirla en "¬q". Eliminamos una negación si llegamos a una doble negación, pues ¬¬p (no es el caso de que no es el caso de que el cielo sea gris) es lo mismo que decir p (el cielo está gris).Pese a sus evidentes virtudes, el cálculo de la deducción natural sigue sin poder mostrar por qué es válido el primero de los silogismos aristotélicos, ya que transforma enunciados completos en símbolos. Así, "todos los hombres son mortales" se convierte en "p". Dado que la relación lógica entre enunciados depende de los términos concretos de las oraciones, no hay modo de mostrar la dependencia lógica entre los 3 símbolos del primer silogismo. En una tabla de verdad no obtendríamos una tautología. Por ello, Russell reintroduce la distinción tan aristotélica entre sujetos y predicados: Los objetos y lo que se dice sobre ellos. Lo que reflejan los símbolos lógicos no son las palabras completas sini la estructura de las oraciones.

Cálculo de predicados. Las letras minúsculas representan objetos: a, b, c...Son objetos con nombre propio. Miestras x, y, z representan objetos aún no especificados. Las mayúsculas representan predicados.

También usa símbolos especiales para representar cuantificadores: "^x" representa a "todos/as" y "Vx" representa a "hay al monos un/a". El resto de conectivas se comportan como lo hacían en el cálculo proposicional. Así podemos dar cuenta de cualquier silogismo:

- Ningún humano es mortal. Sócrates es humano. Sócrates es mortal.

Se traduce como:

- ^x ¬(Hx ^¬Mx), Hs, Ms

podemos demostrar este silogismo, pero no podemos construir tablas de verdad para comprovbar fórmulas del cálculo de predicados: No están equipadas para captar la relación entre la verdad de los enunciados generales y la verdad de los subsumibles en ellos.

Biblioteca de Umberto Eco

Se podrá disfrutar en Bolonia. Al parecer estimó que podía ser difrutada así durante los próximos 90 años. Es su biblioteca personal, que te...