Diferencia entre revisiones de «Usuario:Sophivorus/Taller»

Contenido eliminado Contenido añadido
Sophivorus (discusión | contribs.)
Sin resumen de edición
Sophivorus (discusión | contribs.)
Página reemplazada por «= Tareas = * Traducir Wikidebate * Ampliar Huerta = Definiciones semi-formales = 0x Px — Existen exactamente cero Px 1x Px — Existe exactamente un Px…»
Línea 4:
* Ampliar [[Huerta]]
 
=Solución a la paradoja del cuervo=
Cuando Hempel introduce la [[w:Paradoja_del_cuervo|paradoja del cuervo]] en su artículo de 1945, en la sección 5.12 considera brevemente una posible solución, que luego descarta. La misma consiste en la observación de que quizás el dominio de discurso (''field of application'') se deba restringir al conjunto de todos los cuervos. En tal caso, un zapato blanco no sería una confirmación de la hipótesis de que todos los cuervos son negros, porque no entraría dentro del dominio de discurso. A esto Hempel contesta que en la ciencia nunca se especifica un dominio de discurso, que la introducción de uno sería bastante arbitraria, y que, además, las hipótesis se aplican efectivamente a casos aparentemente irrelevantes para las mismas. Por ejemplo, al encontrar un ave cualquiera, podríamos determinar que no es un cuervo, porque no es negro.
 
Tales son las objeciones de Hempel, pero me parecen muy débiles. Para empezar, aunque las hipótesis no suelan ir acompañadas de la especificación de un dominio, la práctica científica muestra que sí hay uno, porque por ejemplo, los zoólogos o taxónomos o cualesquiera científicos que quieran confirmar una hipótesis como «todos los cuervos son negros», no salen al campo a buscar cóndores, gorriones, zapatos o cualquier otra cosa, sino cuervos y solo cuervos. Si su hipótesis no hablara acerca de cuervos, sino de animales, entonces saldrían a buscar animales. De modo que sí es plausible que haya un dominio de discurso ''implícito'' para las hipótesis científicas, e incluso que haya un criterio no arbitrario para determinarlo. Claro que esta cuestión está ligada al problema más general de la determinación del dominio de cuantificación en todo tipo de contextos, no solo científicos.
 
En cuanto a la segunda objeción, de que los científicos aplican las hipótesis a casos irrelevantes, concedido, pero eso es muy distinto a que busquen confirmación en casos irrelevantes, lo cual es evidente que no sucede. Cabría hacer una distinción, por lo tanto, entre el contexto de confirmación y el contexto de aplicación. El primero se restringiría a los cuervos, mientras que el segundo podría no estar restringido de ninguna manera.
 
Esta solución también explica por qué parece haber una paradoja. La paradoja surge porque cuando alguien dice que «todos los cuervos son negros», es fácil errar y pensar que está hablando acerca de algo más que de cuervos.
 
Un científico que propone una hipótesis como «todos los cuervos son negros», ¿afirma algo acerca del mundo, acerca de los animales en general, o acerca de los cuervos? Creo que hay razones para creer que la hipótesis es acerca de los cuervos y no del mundo o los animales en general.
 
Por supuesto que cuando el dominio de cuantificación es más grande que el conjunto de todos los cuervos, entonces la paradoja resurge. Pero mi opinión es que esto no tiene por qué ser una preocupación. En la práctica, la restricción impuesta sobre el dominio no permite que surja la paradoja.
 
Hay que agregar una condición más a la lista para que surja la paradoja: el dominio de cuantificación tiene que ser más grande que el conjunto de Fs (efes). Y esta es, creo, la condición que se debe atacar.
= Definiciones semi-formales =
 
Línea 36 ⟶ 22:
Las categorías de «fin» y de «medio» son una fusión de la causalidad con la voluntad y el poder.
 
Un '''fin''' es un estado de cosas que alguien quiere. Solo existen fines para alguienseres que tengacon voluntad. Pero como voluntad viene del latín ''volo'', «querer», digo que los fines solo existen para quienes puedan querer algo.
 
Un '''medio''' es una causa de ese estado de cosas. En el mundo existe la causalidad. Luego, todo lo que es, o es causa o es efecto.
Línea 70 ⟶ 56:
* para todo ''x'', ''p'' = no existe un ''x'' tal que no ''p''
 
También existen otras maneras de interdefinir conceptos. Debería haber una manera de llamar a cada uno de estos grupos. Supongo que el nombre más obvio sería el que sigue la tradición aristotélica del cuadrado de oposiciones, al menos para las interdefiniciones de mis ejemplos. El primer grupo serían los contradictorios. El [[w:Cuadro de oposición de los juicios#Oposici%C3%B3n%20en%20l%C3%B3gica%20modal|cuadro de oposiciones modales]] muestra, creo, que la relación entre los conceptos interdefinidos en el segundo grupo no tiene un nombre clásico en el cuadrado de oposiciones. ¿Existe algún nombre obvio para la relación que hay entre la necesidad y la posibilidad, por ejemplo? ¿Complementarios tal vez? ¿Acaso toda verdad es o bien necesaria o bien posible? No, porque toda verdad necesaria es además posible. Eso también descarta que sean incompatibles. ¿Hay un nombre para la relación?
 
= Juego para mostrar que el significado es el uso =
Una manera de dar apoyo, popularizar y atraer el estudio de la ''use theory of meaning'' (que no sé cómo traducir) es encontrando un simple juego de lenguaje en el que las palabras intercambiadas no tengan valor de verdad, y luego formalizar ese juego y agotar el significado de las palabras (sería capturar la extensión de una palabra que no contribuye al valor de verdad de nada). Es decir, algo parecido a lo que hice con el ajedrez, pero con un juego donde las expresiones no tengan valor de verdad y no formen parte de oraciones con valor de verdad.
 
Luego habría que ver si todavía queda alguna diferencia especial entre las expresiones con valor de verdad, y todas las demás que no tienen.
 
Hay que notar que muchas de las expresiones sin valor de verdad (si no todas) que tienen significado, pueden ser parafraseadas por expresiones que sí tienen valor de verdad. Por ejemplo, el grito de «¡Auxilio!», que es un pedido (request) sin valor de verdad puede ser parafraseado: «yo necesito auxilio» («I request help!»), que sí tiene valor de verdad. Esto muestra, tal vez, que el significado de todas las expresiones podría ser explicado por una ''truth theory of meaning'', aunque de manera un poco forzada. Pero esto quiere decir que si logro construir los juegos de los que hablé más arriba, y luego definirlos en términos que sí tengan valor de verdad, habré encontrado otro punto a favor de mi propuesta.
 
Lo que necesito es un juego de lenguaje lo suficientemente complejo como para que no sea trivial, y lo suficientemente simple como para que sea abarcable. Necesito el ejemplo perfecto. Necesito, además, que el juego sea abstracto, de manera que no haya intervenciones de factores externos. Luego podrá pasarse a juegos más concretos. Además, es importante que las expresiones utilizadas en este juego sean completamente desconocidas al lector (inventadas), de manera que éste no tenga prejuicios sobre el significado de las mismas.
 
El significado completo de una expresión (¿sin valor de verdad?) son todos sus usos posibles, en todos los juegos de lenguaje donde se la utiliza. Así por ejemplo, quizás nos parece que en el ejemplo de Wittgenstein de los albañiles, el significado de la palabra «losa» no queda completamente capturado por el uso que se le da en ese juego de lenguaje. Pero podría argumentarse que eso se debe a que en nuestro lenguaje, la palabra «losa» tiene muchos otros usos que no están capturados por el ejemplo de Wittgenstein. Si la palabra «losa» fuera exclusiva de ese juego de lenguaje, y de ningún otro, entonces quizás sea cierto que el significado completo de la expresión sea su uso en ese juego de lenguaje. Por ejemplo, la expresión «envido» en el juego de cartas Truco, no pertenece al español corriente. Su único uso es en ese juego, y por lo tanto su uso en ese juego agota su significado.
 
Realmente, si en el Truco hubiera otra expresión que se usara en exactamente la misma manera que la expresión «envido», entonces no sé cómo podrían diferir en significado. Si ambas expresiones se usaran en las mismas situaciones y con los mismos efectos, entonces parece obvio que significan lo mismo.
 
{| class="wikitable"
|
|
| colspan="2" |Mengano
|-
|
|
|C
|D
|-
| rowspan="2" |Fulano
|A
|2,3
| 5,8
|-
|B
|1,2
|5,2
|}
 
Dado un juego cualquiera como el de arriba, me pregunto si haciendo uso solo de los componentes del juego, será posible dar el significado de cada jugada (por ejemplo, de la jugada A). Esta es una pregunta interesante porque las jugadas de los juegos pueden ser actos de habla, como por ejemplo el canto de «envido».
 
Lo que estoy pensando es en una respuesta como: el significado de A es, que si se da esta y esta situación, entonces si Fulano juega A, obtendrá 2 como resultado. O algo así.
 
Lo que no hay que olvidar es que A es algo que solo se utiliza en este juego. Esto es clave para que el argumento sea persuasivo y plausible.
 
Y luego, si esa misma jugada existe en otro juego, ¿qué relación existe entre ambas? ¿Qué criterios usamos para decir que son la misma jugada? O quizás deba decir: ¿qué criterios usamos para decir que ambas jugadas significan lo mismo?
 
Quizás el primer paso sea aprender de teoría de juegos (y de filosofía del lenguaje), incluyendo la estructura formal de los mismos.
 
= Indexicales como nombres temporarios =
Los problemas relacionados con la [[w:Indicidad|indexicalidad]] («esto», «eso», «ahora» etc.) se pueden reducir a los problemas con los nombres propios, si solo consideramos a los demostrativos como nombres propios temporarios. Esto incluso se amoldaría bastante bien con la teoría causal de la referencia, pues podríamos decir que cada vez que decimos algo como «eso es una locomotora», estamos haciendo un nuevo «bautismo» (''dubbing'', o ''redubbing'') y el nuevo «nombre» de la cosa se puede transmitir como siempre a través de una cadena causal. Por ejemplo, cuando un padre le dice al hijo «eso es una locomotora», el nuevo referente del nombre «eso» le llega al hijo, y luego tal vez a la madre, cuando el hijo le dice: «papá me dijo que eso era una locomotora».
 
Al pensar en ciertos nombres, generalmente les asociamos una interpretación determinada. Por ejemplo, al nombre «Platón» generalmente le asociamos la interpretación que le asigna como referente al filósofo griego fundador de la Academia. En algunos contextos, sin embargo, podemos asociarlo con otra interpretación que le asigna otro referente (por ejemplo, el bar frente a la facultad). Los demostrativos como «él», «eso» y «esto» se podrían pensar como nombres a los que no asociamos ninguna interpretación estándar. En cada contexto, la interpretación cambia y se define un nuevo referente. Pero no por eso dejan de ser nombres. Un oración como «él es mortal» se debería formalizar, por lo tanto, como ''Me''. Los demostrativos serían nombres «comodines», semejantes a las expresiones como «Fulano» y «Mengano», nombres que sirven para cualquier caso en que no se tenga un nombre más apropiado, es decir un nombre cuya interpretación estándar sea aquello a lo que queremos referir.
 
A veces dos entidades distintas tienen el mismo nombre, como en el caso del filósofo griego y del bar frente a la facultad, y que por lo tanto al hablar de «Platón» en distintos contextos el referente pueda variar. Pero que un mismo nombre tenga dos referentes es una contingencia. Los demostrativos, en cambio, van variando su referente sistemáticamente con cada contexto.
 
= Mundos posibles como conjuntos maximales consistentes de proposiciones =
 
Si se trata a los mundos posibles como conjuntos maximales consistentes de proposiciones, entonces es fácil especificar la condiciones de verdad para las fórmulas atómicas. Si ''p'' es una fórmula atómica cualquiera y ''w'' un mundo posible, entonces:
 
:V(''p'',''w'') = 1 si y solo si ''p'' pertenece a ''w''
 
Esto solo es posible si se trata a los mundos posibles como conjuntos. De otro modo, no tendría sentido decir que proposición pertenece a un mundo, y habría que especificar otra relación entre proposiciones y mundos, que difícilmente se pueda presentar en términos de la teoría de conjuntos o de la lógica.
 
Un problema con la interpretación de los mundos posibles como conjuntos maximales consistentes de proposiciones es que dado un mundo posible cualquiera, siempre es posible generar un conjunto mayor, compuesto por la conjunción de algunas de las proposiciones que componen el conjunto. Es decir, no se puede construir un conjunto maximal consistente porque siempre se puede agregar nuevas proposiciones al conjunto. La solución que se me ocurre a este problema es simple: redefinir a los mundos posibles como conjuntos maximales consistentes de proposiciones atómicas. Esto, me parece, quita un poco de sentido al adjetivo «maximal consistente». Quiero decir, si todos los elementos del conjunto son proposiciones atómicas, entonces no tiene sentido exigir que sean consistentes; y quitada esta restricción, tampoco tiene sentido exigir conjuntos máximales, porque siempre será posible agregar nuevas proposiciones a los conjuntos. Antes de discutir las virtudes de esta propuesta, no puedo evitar notar un problema: según esta definición, podría haber un mundo posible compuesto solamente por la proposición «llueve». ¿Tiene sentido un mundo así? Quizás podría exigirse que los mundos posibles sean conjuntos infinitos de proposiciones atómicas. ¿Pero qué argumento hay en favor de que en un mundo posible cualquiera (el mundo actual, para empezar) hay infinitos hechos? En cualquier caso, cualquiera de estas dos definiciones evitaría el problema que mencioné antes, porque dado un conjunto de proposiciones atómicas cualquiera, es imposible construir otro conjunto más grande de proposiciones atómicas. Además, esta propuesta también permite mantener las condiciones de verdad que especifiqué antes: V(''p'',''w'') = 1 si y solo si ''p'' pertenece a ''w'', y V(''p'',''w'') = 0 si y solo si ''p'' no pertenece a ''w''. Habría que reflexionar, sin embargo, sobre el estatus de las proposiciones como ''p''→''q''. Al parecer, mi propuesta implica que las proposiciones como esta no son hechos. Pero esto no es del todo anti-intuitivo. Se estaría diciendo, en otras palabras, que «es de día» es un hecho que describe el mundo, pero «si está soleado, entonces es de día» no. Y lo intuitivo de esto es que la segunda clase de proposición parece ser algo más artificial, más humano, que la primera.
 
En la lógica modal, decir que <math>p \lor \lnot p</math>es una verdad necesaria es decir que es verdadera en todos los mundos posibles. Ahora, si se restringen los elementos de los mundos posibles a las proposiciones atómicas, entonces podría parecer que esta, al igual que todas las otras verdades lógicas, caen fuera de la definición de verdad necesaria. Pero esto no es cierto: la manera de solucionarlo es dándose cuenta que aunque estas proposiciones no pertenecen a ningún mundo posible tal como estos fueron definidos, sí son verdaderas en todos ellos, dadas las definiciones de verdad mencionadas arriba. Es decir, dado un mundo posible cualquiera ''w'', en ese mundo, esta proposición es verdadera, no si pertenece a él, sino si ''p'' pertenece a él o ''p'' no pertenece a él. De modo que con la caracterización de los mundos posibles que propongo, se conserva la verdad de las verdades lógicas clásicas. Todavía más: hay una cierta verosimilitud en decir que las verdades lógicas no son verdades de los mundos propiamente dichas, sino de nuestra manera de hablar de ellos (o algo así) y mis definiciones parecen rescatar mejor esta manera de hablar. Algo similar debe ocurrir, me imagino, con las verdades matemáticas, pero mostrar esto me llevaría bastante más trabajo.
 
La fórmula □p' es verdadera para la interpretación M' en el mundo posible w' si y solo si la fórmula p' es verdadera en la interpretación M' en todos los mundos posibles accesibles desde w'.
 
Una fórmula es una tautología cuando es verdadera bajo todas las interpretaciones, M<nowiki>', M'', M'''</nowiki>, etc. En cambio, una fórmula es (lógicamente) necesaria cuando, dada una interpretación cualquiera, cualquier valor de verdad que la interpretación pudiera arrojar a las fórmulas atómicas, hace verdadera a la fórmula.
 
Pero supongamos una fórmula cualquiera, p. Según la lógica modal tradicional, esa fórmula podría ser necesaria en w', pese a no ser una tautología, si es verdadera en todos los mundos posibles accesibles desde w'. ¿Cómo se traduce esto a mi propuesta?
 
¿Cuánto es lo mínimo en que pueden diferir dos mundos posibles? ¿Acaso en la valuación de una fórmula en una interpretación? En el fondo, si se están considerando siempre las mismas interpretaciones (todas), solo que arrojando distintos valores de verdad, entonces si se cambia una valuación en una interpretación, la interpretación resultante será idéntica a otra, a menos que se cambie también esa otra, y luego otra, etc. De modo que dos mundos posibles difieren en las valuaciones que arrojan todas las interpretaciones.
 
¿Cuándo es una fórmula p' verdadera en un mundo posible w' bajo una interpretación M'? Cuando M'(p')=1 ∈ w'.
 
Un mundo posible es un conjunto de valuaciones. Y tiene sentido, porque cuando decimos que un mundo posible es una manera en que el mundo podría haber sido, significa que en distintos mundos posibles, las mismas oraciones bajo las mismas interpretaciones tienen valores de verdad distintos.
 
¿Cuál es la diferencia entre un mundo posible y otro? Que en un mundo posible, una oración puede ser verdadera bajo una interpretación, y en otro, bajo esa misma interpretación, esa misma oración puede ser falsa. Es decir, que bajo la misma interpretación M', en uno la función de valuación arroja 1, y en el otro 0.
 
w' difiere de w<nowiki>''</nowiki> en que en w', M'(p)=1, mientras que en w<nowiki>''</nowiki>, M'(p)=0. Luego, podemos decir que todo lo que nos importa acerca de w' y w<nowiki>''</nowiki> es que en uno M'(p)=1, y en otro M'(p)=0. Luego, si p fuera todo nuestro lenguaje, podríamos decir que w' = {M'(p)=1} y que w = {M'(p)=0}, o para ser precisos, w' = {M'(p)=1, M<nowiki>''</nowiki>(p)=0} y w<nowiki>''</nowiki> = {M'(p)=0, M<nowiki>''</nowiki>(p)=1}, porque aunque en el lenguaje haya una sola fórmula, siempre habrá como mínimo dos interpretaciones. (Esto ilustra, además, eso que dije más arriba de que un mundo posible no puede diferir de otro solo en el valor de verdad de una fórmula bajo una interpretación. AMPLIAR.)
 
Una tautología es una verdad porque dada una interpretación cualquiera de las fórmulas atómicas, cualquier valuación que se haga de dichas fórmulas, la fórmula completa es verdadera. Es decir, no solo no importa la interpretación que se considere, sino que tampoco importa la valuación que se haga dentro de cada interpretación.
 
Los mundos posibles difieren entre sí por el valor de verdad que le dan a las formulas cuando son consideradas bajo una misma interpretación. Si consideramos dos fórmulas y dos valores de verdad, entonces podemos dividir a los mundos posibles en 2<sup>2</sup> = 4 grupos, según el valor de verdad que asignen a cada una de las fórmulas.
 
Definiendo:
 
NLp : p es lógicamente necesario
 
NMp : p es metafísicamente necesario
 
NFp : p es físicamente necesario
 
Y además:
 
PLp : p es lógicamente posible
 
PMp : p es metafísicamente posible
 
PFp : p es físicamente posible
 
Entonces:
 
NLp -> NMp -> NFp
 
PFp -> PMp -> PLp
 
Si L son los mundos lógicamente posibles, M los metafísicamente posibles y F los físicamente posibles, entonces:
 
L > M > F
= Lógica deóntica =
Así como hay una función V que evalúa el valor de verdad de las proposiciones, podría también haber una función M que evalúe su valor moral. La función podría devolver valores entre 1 y 0, 1 siendo «bueno» y 0 siendo «malo». El problema está en definir las condiciones bajo las cuales la función devuelve qué. En el caso de la función V, se suele escribir que:
 
:V(''p'') = 1 si y solo si ''p''
 
Pero para esta nueva función, habría que escribir algo como:
 
:M(''p'') = 1 si y solo si ''p'' es bueno
 
Lo cual sospecho que no sirve de mucho. En cualquier caso, una función así se podría admitir si resulta fértil. Quizás se puedan redefinir los operadores modales de la lógica deóntica con ayuda de esta función, y así iluminar la relación entre lo bueno y lo obligatorio (y las otras nociones definibles a partir de ellas), lo cual no sería nada menor. Sin embargo, todavía no encuentro una relación entre ambas nociones que sea intuitivamente verdadera. Probé lo siguiente:
 
:V(''w'',O''p'') = 1 si y solo si en todos los mundos posibles accesibles desde ''w'', M(''p'') = 1
 
Esto es: una proposición es obligatoria en un mundo posible ''w'', si y solo si es buena en todos los mundos posibles accesibles. Pero esto no parece demasiado intuitivo. Por otra parte, creo que la semántica estándar de la lógica deóntica tampoco captura demasiado bien el significado de los operadores deónticos. Por ejemplo, si mal no recuerdo la definición de obligación estándar dice:
 
:V(''w'',O''p'') = 1 si y solo si en todos los mundos posibles admisibles desde ''w'', V(''p'') = 1
 
Aunque no estoy seguro de cómo entender la noción de admisibilidad, sí me parece que aún con la idea intuitiva de lo que significa, la definición no tiene nada que ver con lo que intuitivamente entendemos por obligación. A mi entender, un estado de cosas puede ser perfectamente obligatorio en un mundo ''w'', y que luego haya otro mundo ''w''* en donde ese estado de cosas no sea el caso, y que sin embargo el mundo ''w''* sea admisible desde ''w''. Pues las obligaciones cambian, y podría ser que en ''w''* las cosas sean tan distintas, y a la vez tan buenas, que cualquiera en el mundo ''w'' considere a ''w''* un mundo admisible, aún cuando no se cumpla ''p''.
 
Las oraciones normativas se pueden interpretar con ayuda de mundos permisibles, de manera que, por ejemplo, «es obligatorio que ''p''» signifique «''p'' es verdadera en todos los mundos permisibles», y así con los demás operadores deónticos, de manera análoga a los operadores modales. El problema recaería, por supuesto, en la legitimidad de la noción de mundos permisibles, pero quizás pueda argumentarse que el problema no es muy distinto al del estatus de los mundos posibles. En mi opinión, la noción de mundo posible es menos oscura y más intuitiva que la de mundo permisible, pero eso es solo una opinión sin ningún argumento para sustentarla.
 
= Lógica doxástica =
Algo que sería muy útil y valioso para todas las ramas de la filosofía, sería un tratamiento formal de la subjetividad, especialmente de su semántica. Es decir, una estructura formal que capture lo que quiere decir: «para x, y». De lograrlo, entonces sería posible, por ejemplo, definir lo que es una creencia a través del siguiente esquema: «para x, p». Hasta ahora, lo único que tengo más o menos claro es que la expresión «para» indica una relación entre un individuo i, y una proposición p: R(i,p). Además, tengo la sospecha de que la expresión en cuestión es un operador modal, en el sentido de que califica la verdad de una proposición, al hacer de dicha verdad subjetiva. Otra cosa que vale mencionar es que hay una diferencia entre que algo sea subjetivo, y que algo sea relativo. Que la verdad de p sea relativa a i, es algo que puede formalizarse muy fácilmente en los siguientes términos: p <-> i. Pero esto quiere decir que la verdad o la falsedad de la proposición depende de i, como si i fuera el mundo, que hace verdaderas o falsas a las proposiciones. Cuando decimos que i cree que p, no estamos diciendo que la verdad o la falsedad de p dependa de i, sino algo más modesto.
 
En realidad, quizás todo esto no sea necesario, porque para razonar correctamente quizás baste con postular un conjunto Ci que represente todas las creencias de i, de modo que el significado de «para i, p» sea: p pertenece a Ci.
 
¿Se podría construir una lógica en primera persona para tratar los razonamientos relacionados con la percepción y semejantes? Se me ocurre que quizás el lenguaje de la lógica de predicados sea útil para este propósito, siempre y cuando se ponga cuidado en hacer ciertas modificaciones, como que toda función proposicional debe tener como primer argumento al individuo que está razonando. Si no fuera así, no sería una lógica en primera persona. En segundo lugar, quizás haya que agregar que toda fórmula cerrada bajo una interpretación debe ser un teorema del sistema, pues es una intuición tradicional del conocimiento en primera persona, que es infalible. Esto, sin embargo, trae la amenaza de que la lógica en cuestión sea trivial, tal como lo son los sistemas inconsistentes, donde todas las fórmulas son teoremas.
 
Pero si las creencias de un individuo son solo un conjunto de proposiciones, ¿entonces qué las diferencia de un mundo posible? Se me ocurren dos posibilidades: una, que a diferencia de los mundos posibles, las creencias de un individuo no son un conjunto maximal consistente. De hecho, pueden ser un conjunto muy pequeño, o contradictorio (en el caso de un razonador inconsistente), o incluso vacío (en el caso de un nihilista). Un problema sería que quizás haya algunos razonadores que crean en un cierto número de proposiciones, y luego afirmen que para toda otra proposición, no creen en ella. De este modo, sus creencias serían un conjunto maximal consistente, y no sería posible distinguirlas formalmente de un mundo posible. La otra solución que se me ocurre, es que se puede postular que las creencias de un individuo son una propiedad del mismo. Así por ejemplo, si el individuo i cree que p, q y r, y llamamos a este conjunto de creencias Ci, entonces decimos que Ci pertenece a i. Esto sin duda distinguiría a las creencias de los mundos posibles.
 
Para definir formalmente una creencia, el primer paso es reconocer que «Fulano cree que ''p''» es equivalente a «''p'' es verdadera para Fulano. Esto deja algunas cosas más claras, pero el problema reside ahora en la expresión «para».
 
La siguiente estructura podría servir para dar una definición precisa de lo que significa creer en ''p'', o en otras palabras que ''p'' es verdad para Fulano sii:
 
{| class="wikitable"
|
|
| colspan="2" |Mundo
|-
|
|
|''p''
|¬''p''
|-
| rowspan="2" |Fulano
|''p''
|1
| -1
|-
|''q''
|0
|0
|}
 
Esta estructura describe una situación donde el sujeto, Fulano, obtiene su mejor recompensa si afirma ''p'' y ''p'' es verdadero, y su peor recompensa si afirma ''p'' y ''p'' es falso. Además, la estructura provee una vía de escape, ''q'' por la cual el sujeto puede obtener una recompensa intermedia entre la mejor y la peor. Si bajo estas circunstancias, Fulano afirma ''p'', entonces decimos que Fulano cree que ''p'', y si afirma ''q'', entonces decimos que Fulano no cree que ''p'' (que no es decir que Fulano cree que ¬''p'').
 
Esta definición está escrita en términos de la teoría de la decisión (decision theory), no de la teoría de juegos, y se puede formalizar en términos de conjuntos. De lo que no estoy seguro es de cómo se expresa con el vocabulario de la teoría de conjuntos que Fulano toma la decisión ''p''.
 
Sospecho, por otra parte, que esta definición puede estar suponiendo alguna noción de conocimiento, y con ella alguna noción de creencia.
 
¿Se pueden demostrar algunas propiedades metateóricas de un sistema de lógica doxástica que incorpore este tipo de semántica? Hacer eso sería un punto muy a su favor. Para cualquier postura, el mejor argumento a su favor es su fertilidad.
 
¿Se podrá demostrar, una vez traducido todo al lenguaje de la teoría de conjuntos y de la lógica, que si se da cualquiera de estas situaciones, entonces Fulano cree que él existe <math>\exists x \ x = f</math>?
 
A esta estrategia alguien podría querer objetarle lo siguiente: si una persona fuera muy cristiana, y alguien la amenaza de muerte a menos que niegue su fe, si bajo esas circunstancias la persona niega, por ejemplo, la existencia de su Dios, entonces la teoría predice que la persona no cree en la existencia de Dios, y eso es obviamente falso. Pero esta objeción está confundida, porque la decisión que determina cuándo alguien cree en algo, solo sirve cuando las recompensas dependen de que ese algo sea el caso o no sea el caso, y no de las amenazas de un amenazador.
 
Aunque es cierto que para muchos, y posiblemente la mayoría, de nuestras creencias no se nos presenta nunca una decisión como la que describo, esto no es importante, porque lo que se está diciendo aquí es que sí se da tal situación, entonces el sujeto actúa de tal manera. Y si nunca se da esa situación, entonces el condicional es cierto, tanto si el sujeto afirma ''p'' como ¬''p'' en cualquier otra circunstancia.
 
Esta aproximación encuentra algo de apoyo empírico en los juegos de preguntas y respuestas. Se podría decir, por lo tanto: si en un juego de preguntas y respuestas un sujeto se juega al doble o nada y afirma ''p'', sabiendo que al decir ''q'' (me retiro) se hubiera retirado del concurso con el dinero obtenido hasta ese momento, entonces podemos afirmar que el sujeto cree que ''p''. Si el sujeto afirmara ''p'', pero no lo creyera, y lo hiciera solo por la posibilidad de estar equivocado en la creencia, entonces entramos en el campo de los grados de certeza. Porque si un sujeto estuviera 100% seguro de que ''p'' no es el caso, entonces nunca jugaría ''p''.
 
Esta definición sirve para una lógica doxástica bivalente, es decir una en la que los sujetos o creen que ''p'', o no creen que ''p''. No hay lugar para algo así como que un sujeto cree que ''p'' con un grado de certeza de 0,7. Para lograr expresar esto, quizás se pueda adaptar lo que propongo a la estrategia que describe Paenza en el cuarto libro de ''Matemática... ¿estás ahí?'', bajo el título: «99% de certeza».
 
Esta definición tampoco provee un método para decidir en la vida cotidiana si una persona cree en algo o no. Para eso lo mejor es ir y preguntar. Esto es una definición de lo que significa creer en algo.
 
La estructura más general del juego que propongo sería la siguiente:
 
{| class="wikitable"
|
|
| colspan="2" |Mundo
|-
|
|
|''A''
|¬''A''
|-
| rowspan="2" |Sujeto
|''A''
|''a''
|''c''
|-
|''B''
|''b''
|''b''
|}
 
donde ''a'' > ''b'' > ''c'', y donde ''B'' es una proposición cualquiera distinta de ''A''. Y a partir de esto se puede decir, si ''s'' es el sujeto:
 
:V(''A'',''s'') = 1 si y solo si para todo juego con esta estructura, ''s'' juega ''A''
:V(''A'',''s'') = 0 si y solo si para todo juego con esta estructura, ''s'' juega ''B'' (no juega ''A'')
 
Una vez definidas las condiciones de verdad de las proposiciones atómicas, las condiciones de verdad de las proposiciones moleculares se pueden definir de la manera tradicional.
 
Lo que me hace dudar de esta estrategia es que estos juegos parecen capturar las consecuencias de nuestras creencias, y no las creencias en sí. ¿Qué significa creer en algo? Significa que si nos encontramos en una situación tal, elegimos ese algo y no otra cosa. Quizás no deba pensar en esto como una definición realista de lo que es una creencia, sino como una estrategia formal para capturar extensionalmente el significado de las creencias. Quizás se puedan demostrar ciertas propiedades útiles de la lógica doxástica con esta definición.
 
Otra aproximación totalmente distinta a la definición de una creencia es:
 
:''s'' cree que ''p'' si y solo si ''p'' pertenece a ''s''
 
Lo cual por supuesto implica definir a los sujetos como conjuntos de creencias. Estos conjuntos, por otra parte, se podrían caracterizar como incluyendo necesariamente la creencia en su propia existencia (es decir <math>s = \{ \exists x \ x = s, ... \}</math>o dicho de manera más abreviada <math>s = \{ \exists s, ... \}</math>) lo cual tendría la ventaja de volver la creencia en la propia existencia una verdad lógica.
 
Cuando se trata de creencias, la afirmación y la negación cumplen un papel análogo a la verdad y la falsedad en las oraciones acerca del mundo. Si una oración ''p'' describe una creencia de un sujeto ''s'', entonces ''s'' afirma que ''p''. Del mismo modo, si una oración ''p'' describe un estado de cosas del mundo, entonces ''p'' es verdadera. O dicho de una manera más formal y precisa: supongamos que el conjunto ''S'' = {''p'',''q'',...} describe las creencias de ''s''. Entonces, ''s'' afirma que ''p'' si y solo si ''p'' pertenece a ''S''. Análogamente, supongamos que w* = {''p'',''q'',...} es una descripción del mundo actual w*. Luego, ''p'' será verdadera si y solo si ''p'' pertenece a w*.
 
La observación de Moore de que no es posible afirmar consistentemente «llueve, pero yo no lo creo», queda mejor iluminada por el hecho de que es perfectamente aceptable que llueva, y que sin embargo alguien no lo crea. Esto muestra que lo que hace que la proposición «llueve, pero yo no lo creo» sea contradictoria, es el hecho de que el que afirma que llueve es el mismo que el que afirma que no cree que llueve. Y eso muestra (o al menos sugiere) que afirmar que algo es verdadero es exactamente lo mismo que creer en ese algo. Luego, una creencia se puede definir como aquello que es verdadero para un agente.
 
El hecho de que ''s'' afirme que ''p'', o que ''s'' crea que ''p'', es en sí mismo una verdad. Quiere decir que si «''p'' pertenece a ''S''», entonces «''p'' pertenece a ''S''» pertenece a su vez a w*. La otra es una observación que ya hice más arriba: se puede intentar una definición de conocimiento de la siguiente manera: el sujeto ''s'' conoce que ''p'' si y solo si ''s'' cree que ''p'', y ''p'' es verdadera. Es decir, ''s'' conoce que ''p'' si y solo si ''p'' pertenece a ''S'', y a la vez ''p'' pertenece a w*. Esto dejaría lugar, por supuesto, a los casos de suerte epistémica como casos de conocimiento, pero este problema se puede evitar si negamos el axioma de la lógica epistémica que dice que si sabemos algo, entonces sabemos que sabemos ese algo.
 
Así como no hay que confundir a las descripciones del mundo con el mundo en sí, tampoco hay que confundir a las descripciones de las creencias con las creencias en sí.
= Lógica del conocimiento directo =
La lógica epistémica quizás sirva para analizar los razonamientos en torno al conocimiento directo (''knowledge by acquaintance'') que se expresa por oraciones como «conozco a Fulano». No veo ninguna dificultad sintáctica en que ''sKp'' signifique «''s'' conoce a ''p''» en vez de «''s'' conoce que ''p»''. Podrían surgir dificultades en el plano semántico, pero de todas formas todavía no me convence la semántica estándar de la lógica epistémica. ¿Pero cuál sería un ejemplo de un razonamiento en torno al conocimiento directo? Se me ocurre lo siguiente:
 
# Sócrates conoce al padre de Nicómaco
# Aristóteles es el padre de Nicómaco
# Por lo tanto, Sócrates conoce a Aristóteles
 
Este argumento parece tener la siguiente forma:
 
# ''sKp(n)''
# ''a = p(n)''
# Por lo tanto, ''sKa''
 
Al parecer, hasta el más mínimo razonamiento con individuos requiere incluir predicados y, en este caso, functores, de modo que al incluir individuos en la semántica, más valdría incluir también a todo el aparato de primer orden. Porque de lo contrario, los únicos argumentos que se podrían hacer serían trivialidades del tipo:
 
# Sócrates conoce a Platón y a Aristóteles
# Por lo tanto, Sócrates conoce a Platón
 
¿Pero se puede demostrar que este argumento es válido? En el plano sintáctico, bastaría con incluir a las cadenas de caracteres del tipo ''sKa'' como fórmulas bien formadas. Pero en el plano semántico, habría que definir condiciones de verdad. Sería deseable que la lógica epistémica sea tan flexible como para permitir analizar razonamientos que involucren tanto al conocimiento proposicional como al conocimiento directo. Como ya indiqué más arriba, sospecho que adaptar la sintaxis es fácil, pero no así la semántica, y la pregunta es si existen axiomas y reglas de inferencia que capturen el comportamiento de los operadores tanto cuando se aplican a proposiciones como cuando se aplican a individuos. Si la distinción entre conocimiento proposicional y conocimiento directo se puede expresar formalmente, entonces sería un punto muy a su favor.
 
En lógica epistémica, es obviamente falso que si un agente a conoce un conjunto de proposiciones, entonces conoce también sus consecuencias lógicas. Es decir, no es cierto que:
 
<math>aKp, \ p \to q \vdash aKq</math>
 
Lo que sí parece verdadero es lo siguiente:
 
<math>aKp, \ aK(p \to q) \vdash aKq</math>
 
Conocer el significado de una expresión no basta para conocer su extensión, aún cuando todos los factores relevantes estén presentes, por así decirlo, ante quien juzga. Si bien yo entiendo lo que significa «2120911 + 129215», no sé cuál es su extensión. ¿Pero conocer la extensión de una expresión no basta para conocer su significado?
 
Se me ocurre otra manera de elucidar el significado de la expresión «''a'' conoce que ''p''». Es a través de una semántica de mundos posibles: ''a'' conoce que ''p'' si y solo si en todos los mundos posibles accesibles donde ''a'' cree que ''p'', ''p'' es el caso. Este es un intento de acercar más el tratamiento formal del conocimiento a nuestras creencias comunes al respecto. Sin embargo, me parece que siempre cabe la posibilidad de la suerte epistémica. Por ejemplo, Newton cree que tiene una manzana. Supongamos que en todos los mundos posibles accesibles donde Newton cree que tiene una manzana, de hecho tiene una manzana. Pero supongamos también que en uno de esos mundos, la manzana en cuestión está hecha de cera, y dentro de la manzana de cera hay una manzana real. Luego, en todos los mundos accesibles donde Newton cree que hay una manzana, de hecho hay una manzana, pero si el mundo actual fuera aquel donde la manzana está dentro de la de cera, entonces está claro que al menos en un caso no hay conocimiento. De modo que la definición dada no garantiza que haya conocimiento, y por lo tanto no es satisfactoria.
 
= Lógica mnemónica =
'''Recordar''' es el operador modal primitivo.
 
'''Olvidar''' se define como «no recordar». ¿Pero acaso decir que yo no recuerdo haber escalado el Everest es equivalente a decir que yo olvidé haber escalado el Everest? Este punto es crucial. Sin dos operadores modales interdefinibles, difícilmente haya una lógica mnemónica. Pero sigamos.
 
Usamos las letras '''R''' y '''O''' para simbolizar recordar y olvidar, respectivamente.
 
Llamo '''recuerdos''' a las proposiciones recordadas, y '''olvidos''' a las proposiciones olvidadas.
 
Ahora se necesitan algunos axiomas:
 
RO''p''→R''p'' — Si alguien recuerda que olvida ''p'', entonces recuerda ''p''.
 
OR''p''→O''p'' — Si alguien olvida que recuerda ''p'', entonces olvida ''p''.
 
Veamos sus análogos en otras lógicas modales. En la lógica modal clásica, si N es el operador de necesidad y P el de posibilidad:
 
NP''p''→N''p'' — Si es necesario que ''p'' sea posible, entonces es necesario que ''p''. Esto obviamente no es cierto, de modo que el axioma no se sostiene.
 
PN''p''→P''p'' — Si es posible que ''p'' sea necesario, entonces ''p'' es posible. Esto tampoco se sostiene. Creo.
 
Y en la lógica deóntica:
 
OP''p''→O''p'' — Si es obligatorio que ''p'' sea permisible, entonces ''p'' es obligatorio. No se sostiene.
 
PO''p''→P''p'' — Si es permisible que ''p'' sea obligatorio, entonces ''p'' es permisible. Esto no sé si se sostiene.
 
Suponiendo que sea posible construir una lógica mnemónica, ¿tendría algún interés filosófico?
 
Es probable que una lógica mnemónica tenga que estar ligada a una lógica temporal.
 
= Propiedades algebraicas de los términos primitivos de la teoría de conjuntos =
¿Cuáles son las propiedades algebraicas de la relación de pertenencia? No es reflexiva. No es transitiva. No es simétrica.
 
Dado que el lenguaje de la teoría de conjuntos incluye el predicado primitivo «''x'' es un conjunto», los urelementos se pueden definir como todo aquello que no es un conjunto y que sin embargo pertenece a algún conjunto. Digo esto porque alguna vez los vi definidos como todo aquello que no contiene ningún conjunto y no es el conjunto vacío.
 
<math>\forall x \ \exists y \in x \to Mx</math>— Si no fuera por el conjunto vacío, esto podría ser un bicondicional y funcionar incluso como una definición de lo que significa ser un conjunto.
 
<math>\forall x \ \exists y \ (My \land x \in y)</math>— Esta es una verdad muy general acerca de los conjuntos y de la relación de pertenencia, inspirada en la ley de identidad. Lo que dice básicamente es que todo pertenece a al menos un conjunto. Gracias a la proposición anterior, esta otra se puede reducir a <math>\forall x \ \exists y \ (x \in y)</math>y luego demostrar que ''y'' es un conjunto.
 
¿Se puede deducir estas verdades de los axiomas de la teoría de conjuntos? Tal vez, pero más bien parecen axiomas adicionales que ayudan a fijar algebráicamente el significado del predicado primitivo «''x'' es un conjunto» y la relación primitiva de pertenencia.
 
Versiones abstractas:
 
<math>\forall x \ \exists y \ yRx \to Px</math>— Si existe algo que esta en la relación ''R'' con otra cosa, entonces esa otra cosa tiene la propiedad ''P''.
 
<math>\forall x \ \exists y \ xRy</math>— Todo está en la relación R con algo.
 
Claro que esto no alcanza para definir lo que es un conjunto o la relación de pertenencia. Agreguemos el axioma de extensionalidad:
 
<math>\forall x \forall y \ (Px \land Py \to \forall z \ ((zRx \leftrightarrow zRy) \to x = y))</math>— Si dos cosas tienen la propiedad ''P'' y una tercera está en la relación ''R'' con la primera si y solo sí lo está con la segunda, entonces las dos son idénticas.
 
Esto todavía parece demasiado abierto, con demasiados modelos.
 
= Conjunto paradójico similar al de Russell =
Existe un conjunto paradójico, en cierto modo similar al [[w:Conjunto de Russell|conjunto de Russell]], pero que produce contradicciones que no se pueden evitar por ninguna teoría de tipos. El conjunto es imposible de construir a partir de los axiomas de existencia y extensionalidad de Frege, y mucho menos a partir de los axiomas de Zermelo y Fraenkel, pero aún así es interesante estar al tanto de su posibilidad, aunque sea para futuros intentos de axiomatizar la teoría de conjuntos. El conjunto en cuestión es:
 
<math>C = \{ x \ | \ x \notin C \}</math>
 
Es decir: el conjunto C está compuesto por todas las entidades que no pertenecen a C. Es obvio que si existiera tal conjunto, produciría una contradicción para cualquier entidad que postulemos como elemento de él (y no solo para sí misma, como el conjunto de Russell). Por ejemplo, si postulamos que esta manzana pertenece a C, entonces significa que la manzana no pertenece a C, pues esa es la condición de pertenencia. Pero si en cambio postulamos que la manzana no pertenece a C, entonces se sigue que sí pertenece a C, otra vez por la condición de pertenencia. En consecuencia, la manzana pertenece a C si y solo si la manzana no pertenece a C, lo cual es una contradicción.
 
La razón por la cual el conjunto no se puede construir a partir de los axiomas, es porque para declarar la existencia de un conjunto, primero es necesario definirlo, y en el caso del conjunto C, para definirlo necesitamos suponer su existencia: C es el conjunto de todo aquello que no pertenece a C. Es decir, hay una circularidad en la definición.
 
Las contradicciones que produce este conjunto no se pueden evitar por ninguna teoría de tipos. Esto se debe a que las contradicciones surgen con todas las entidades de todos los tipos, y no solo con una cierta entidad de un tipo determinado, como en el caso de la paradoja de Russell.
= Ontologías del ajedrez =
''We can imagine that this complicated array of moving things which constitutes «the world» is something like a great chess game being played by the gods, and we are observers of the game.'' —Richard Feynman
 
Los ajedrecistas usan distintas notaciones (lenguajes) para describir una misma partida. ¿Cuál es la ontología de esas notaciones? ¿Coinciden? Es fácil inventar una nueva notación para el ajedrez, ¿pero una nueva ontología? Puedo imaginar una notación donde cada jugada se expresa con las coordenadas de salida y llegada de la pieza. En semejante notación no existirían las sustancias, y tendría por lo tanto una ontología diferente. Algunas notaciones usan los signos «!», «!!», «?», etc. para significar «buena jugada», «excelente jugada», «dudosa jugada», etc. Estas notaciones tienen por lo tanto juicios de valor.
 
En una partida de ajedrez, si hacemos abstracción de los jugadores y de las reglas y de todo lo que no sea el tablero y las piezas, se podría decir que lo que queda es un mundo en miniatura donde las partes se mueven como por arte de magia. Existen varias notaciones para describir estos movimientos, como la notación algebraica o la notación descriptiva. Mi pregunta es si será posible construir una notación similar a estas, pero que solo haga uso del vocabulario de la teoría de conjuntos. Por ejemplo, una partida se podría definir como un conjunto ordenado de jugadas, y una jugada, como un conjunto ordenado de posiciones. Es decir, cada jugada será un conjunto de sesenta y cuatro elementos ordenados siempre de la misma manera, donde cada uno representa una casilla del tablero. Para hacer las cosas más fáciles, digamos que el primer elemento de cada jugada corresponde con el espacio que normalmente llamamos A1, el segundo con A2, etc. Ahora: en la primera jugada, la pieza en A1 es siempre una torre blanca, y la pieza en A2 es casi siempre un caballo blanco (a menos que al jugador blanco lo mueva en la primera jugada). Supongamos que no lo hace. Luego, el primer elemento de la primera jugada será el conjunto llamado «A1», cuyo único elemento será el urelemento llamado «Torre blanca uno» (por ponerle un nombre). El segundo elemento de la primera jugada será el conjunto llamado «A2», compuesto por el urelemento llamado «Primer caballo blanco», etc.
 
Este proyecto no es una mera diversión teórica. En primer lugar, porque es un paso más en el acercamiento entre el mundo simbólico y el mundo físico. Pero esto es lo de menos. Lo que me parece más interesante es lo siguiente: tanto nuestro lenguaje natural, como las notaciones del ajedrez, como la teoría de conjuntos, todos tienen una carga ontológica. Pero de los tres, la teoría de conjuntos es la que menos supuestos ontológicos tiene. Luego, si los tres lenguajes son capaces de describir una partida de ajedrez, entonces, por la navaja de Occam, hemos de preferir la ontología del que menos entidades postule. En otras palabras, me parece que las entidades que hemos de aceptar como existentes en una partida de ajedrez, son las que postule el lenguaje que menos entidades requiera para describirlo. Y por supuesto, no quiero dejar de mencionar que esta reducción de la ontología del ajedrez a una más simple podría ser el primer paso de un proyecto de reducción más amplio.
 
Jugó(blanco,A(C2,C4)) significa: el jugador blanco jugó la pieza en C2 a C4.
 
En general, dado que hay 64 casillas, existen 64 × 63 movimientos posibles, aunque hay muchos que ninguna pieza puede realizar. La razón por la cual es 64 × 63, y no 64 × 64, es porque teniendo una pieza cualquiera en una casilla cualquiera, un movimiento exige que esa pieza termine en una casilla distinta de la que empezó, de modo que, por ejemplo, C4 a C4 no cuenta como un movimiento posible, y eso elimina 64 combinaciones.
 
= Interpretación modal de la potencialidad, actualidad y cambio aristotélicos =
Aristóteles, en la Metafísica (¿si?) y la Física (¿si?), introduce y utiliza las nociones de potencialidad y actualidad para dar cuenta del cambio. En sus palabras (traducción de...): «». En los últimos siglos, tales nociones han caído en desuso.
 
Este trabajo se divide en dos partes: en la primera defino las nociones de potencialidad y actualidad con ayuda de la lógica modal, y demuestro algunos teoremas sencillos en torno a ellas. En la segunda parte discuto la noción de cambio, construyo definiciones para los distintos tipos de cambio, y a partir de ello demuestro varios teoremas, incluyendo algunos que ligan al cambio con el paso de la potencialidad a la actualidad.
 
Si tengo éxito, espero reintroducir las nociones de potencialidad y actualidad al vocabulario de la filosofía, y ligarlas de manera más rigurosa a la noción de cambio.
 
POTENCIALIDAD Y ACTUALIDAD
 
Cuatro tipos de propiedades:
 
DEFINICIÓN 1. P es una propiedad esencial de a sii en todo mundo posible donde a existe, Pa es verdadero.
 
DEFINICIÓN 2. P es una propiedad accidental de a en w sii Pa es verdadero en w y en al menos un mundo posible accesible desde w donde a existe, Pa es falso.
 
DEFINICIÓN 3. P es una propiedad potencial de a en w sii a existe en w, Pa es falso en w, y en al menos un mundo posible v tal que wRv, Pa es verdadero.
 
DEFINICIÓN 4. P es una propiedad actual de a en w sii Pa es verdadero en w.
 
Una diferencia que vale la pena señalar entre las propiedades esenciales, por un lado, y las propiedades accidentales, potenciales y actuales, por el otro, es la siguiente: las propiedades esenciales no son relativas a un mundo posible, mientras que las demás propiedades sí. Es decir: si una propiedad es una propiedad accidental, potencial o actual de una entidad en un mundo posible, puede no serlo en otro; pero si una propiedad es una propiedad esencial de una entidad en un mundo posible, entonces lo es en todos los mundos posibles (¿donde esa entidad existe?).
 
TEOREMA 1. Si P es una propiedad potencial de a en w, entonces P no es una propiedad actual de a en w.
 
DEMOSTRACIÓN. Supongamos que P es una propiedad potencial de a en w. Luego, por la definición de propiedad potencial, Pa es falso en w. Luego, Pa no es verdadero en w. Pero entonces por la definición de propiedad actual, P no es una propiedad actual de a en w, pues P es una propiedad actual de a en w sii Pa es verdadero en w. QED
 
TEOREMA 2. Si P es una propiedad actual de a en w, entonces P no es una propiedad potencial de a en w.
 
DEMOSTRACIÓN. Supongamos que P es una propiedad actual de a en w. Luego, por la definción de propiedad actual, Pa es verdadero en w. Luego, Pa no es falso en w. Pero entonces por la definción de propiedad potencial, P no es una propiedad potencial de a en w, pues P es una propiedad potencial de a en w sii Pa es falso en w (y verdadero en al menos un mundo posible accesible desde w). QED
 
TEOREMA 3. Si P es una propiedad esencial de a, y a existe en w, entonces P es una propiedad actual de a en w.
 
DEMOSTRACIÓN. Supongamos que P es una propiedad esencial de a, y que a existe en w. Si P es una propiedad esencial de a, entonces Pa es verdadero en todos los mundos posibles donde a existe. Dado que a existe en w, se sigue que Pa es verdadero en w. Pero entonces por la definición de propiedad actual, P es una propiedad actual de a en w. QED
 
TEOREMA 4. Si P es una propiedad potencial de a en w, entonces P no es una propiedad esencial de a.
 
DEMOSTRACIÓN. Supongamos que P es una propiedad potencial de a en w. Luego, por la definición de propiedad potencial, a existe en w y Pa es falso en w. Pero entonces Pa es falso en al menos un mundo posible donde a existe. Luego, por la definición de propiedad esencial, P no es una propiedad esencial de a. QED
 
CAMBIO
 
Cambio temporal
 
Cambio en general
 
Cambio con respecto a una propiedad
 
Cambio temporal con respecto a una propiedad
 
Cambio metafísico
 
Cambio metafísico con respecto a una propiedad
 
Sea xRy una relación asimétrica, transitiva y conectada (en el sentido de Russell) entre momentos del tiempo, que se lea como «x precede a y». Sean t1 y t2 dos momentos cualquiera. Luego:
 
DEFINICIÓN 5. a cambia de t1 a t2 sii ∃t [t1Rt ∧ (tRt2 ∨ t = t2) ∧ ∃P V(Pa,t1) ≠ V(Pa,t)]
 
Generalizando la definición. Sea R una relación serial, es decir, asimétrica, transitiva y conectada, sobre un campo cualquiera (field, en el sentido de Russell). Una manera neutral de leer xRy es: «x precede a y». El campo puede ser un conjunto cualquiera. Por ejemplo, momentos del tiempo, puntos en una línea, números, regiones del espacio, personas, etc. Todo lo que se requiere del campo es que haya una relación serial sobre él. Sean c1 y c2 dos elementos cualquiera del campo. Luego:
 
DEFINICIÓN 6. a cambia de c1 a c2 sii ∃x [c1Rx ∧ (xRc2 ∨ x = c2) ∧ ∃P V(Pa,c1) ≠ V(Pa,x)]
 
Hasta ahora se viene definiendo al cambio en general. Pero también puede adaptarse la definición para definir al cambio con respecto a una propiedad particular:
 
DEFINICIÓN 7. a cambia de c1 a c2 con respecto a una propiedad P sii ∃x [c1Rx ∧ (xRc2 ∨ x = c2) ∧ V(Pa,c1) ≠ V(Pa,x)]
 
Estas definiciones también deberían poder aplicarse a las funciones matemáticas. Por ejemplo, tomemos a la función constante f(x) = 2 como entidad, al conjunto de los números naturales como campo, a la relación «x es menor que y» como relación serial, y al predicado «es mayor que 5». Dados dos números cualquiera x1 y x2, deberíamos obtener que la función no cambia de x1 a x2 con respecto al predicado «es mayor que 5». Reemplazemos pues, los datos en la definición:
 
f(x) cambia de x1 a x2 con respecto al predicado «ser mayor que 5» sii ∃y [x1< y ∧ y ≤ x2 ∧ V(f(x)>5,x1) ≠ V(f(x)>5,y)]
 
O lo que es lo mismo:
 
f(x) cambia de x1 a x2 con respecto al predicado «ser mayor que 5» sii ∃z [x1< z ∧ z ≤ x2 ∧ V(f(x1)>5) ≠ V(f(z)>5)]
 
Dado que para todo z, V(f(x1)>5) ≠ V(f(z)>5), se sigue que toda la parte derecha de la equivalencia es falsa, y por lo tanto que la función no cambia de x1 a x2 con respecto al predicado «ser menor que 5». QED.
 
Sin embargo, creo yo que Aristóteles no pretendía que las nociones de potencialidad y actualidad sirvieran para explicar cualquier tipo de cambio. Por ejemplo, cuando decimos que el paisaje de la Argentina cambia a medida que uno se mueve hacia el Sur, ¿diría Aristóteles que el paisaje argentino tiene ciertas propiedad potenciales que se actualizan a medida que uno se mueve hacia el Sur? Incluso aceptando que «el paisaje argentino» denotara una entidad con propiedades,...
 
TEOREMA 5. a cambia de w1 a w2 sii al menos una propiedad P es una propiedad potencial de a en w1 y es una propiedad actual de a en w2 (bajo el supuesto de que no tener una propiedad es también tener una propiedad: no ser rojo es ser no-rojo). Esto expresa la idea aristotélica de que el cambio es el paso de la potencialidad a la actualidad.
 
DEMOSTRACIÓN. Supongamos que a cambia de w1 a w2. Luego, existe al menos un mundo posible w (accesible desde w1 y que tiene acceso a w2 o es idéntico a w2), y existe al menos una propiedad P que a tiene en w1 pero no tiene en w2. Luego, existe al menos una propiedad que a tiene en w1 y no tiene en w
 
TEOREMA 6. a cambia de w1 a w2 con respecto a P sii P es una propiedad potencial de a en w1 y P es una propiedad actual de a en w2.
 
TEOREMA 7. Si a cambia de w1 a w2 con respecto a P, entonces P no es una propiedad esencial de a. Esto expresa la idea de que las entidades no cambian con respecto a sus propiedades esenciales.
 
DEMOSTRACIÓN. Supongamos que a cambia de w1 a w2 con respecto a P. Luego, por la definición de cambio con respecto a una propiedad, existe al menos un mundo posible w (accesible desde w1 y con acceso a w2 o idéntico a w2) donde a existe, tal que Pa es falso en w y verdadero en w1, o verdadero en w y falso en w1. En cualquier caso, existe al menos un mundo posible donde a existe y Pa es falso. Luego, por la definición de propiedad esencial, P no es una propiedad esencial de a. QED
 
Tres ejemplos de potencialidad que usa Aristóteles son:
 
# Una persona durmiendo tiene la potencia de caminar.
# Una persona vidente con los ojos cerrados tiene la potencia de ver.
# Un pedazo de materia sin forma tiene la potencia de tener forma.
 
Todos estos ejemplos, me parece, puede traducirse sin pérdida ni adición del siguiente modo:
 
# Sea a una persona durmiendo. a tiene la potencia de caminar sii en algún mundo posible accesible, a camina.
# Sea a un persona con los ojos cerrados. a tiene la potencia de ver sii en algún mundo posible accesible, a ve.
# Sea a un pedazo de materia. a tiene la potencia de tener forma sii en algún mundo posible accesible, a tiene forma.
 
¿La potencialidad es una propiedad de las entidades, de las propiedades, o es una relación entre las entidades y sus propiedades? ¿De qué decimos que «está en potencia»? Me parece que de las propiedades. ¿Serán la potencialidad y la actualidad dos modalidades de las propiedades? ¿Podría decirse que la potencialidad y la actualidad son modos de ser de las propiedades? Me parece que sí. Y así como un estado de cosas es posible o necesario siempre en relación a un mundo posible, una propiedad es potencial o actual siempre en relación a una entidad.
 
¿Pero es esto cierto? ¿Acaso no decimos que si Sócrates tiene los ojos cerrados, entonces es Sócrates el que tiene la propiedad de ver en potencia? Aunque la cuestión pueda parecer (un poco) confusa, encuentro que tras pensarla un poco resulta bastante clara. Es Sócrates el que tiene la propiedad de ver en potencia, pero es la propiedad la que está en potencia. Decir de Sócrates que está en potencia significaría, tal vez, que Sócrates no existe y sin embargo puede existir.
 
Esta semilla es una planta en potencia, diría Aristóteles. Llamemos s a esa semilla, y P a la propiedad de ser una planta. Ps sería verdadera, entonces, si s fuera una planta. Pero es obvio que s no es una planta, pues hemos supuesto que s es una semilla, y todo lo que es una semilla no es al mismo tiempo una planta.
 
Pero si las condiciones de verdad de «ser una planta es una propiedad potencial de s» y «es posible que s sea una planta» son las mismas, ¿es la potencialidad aristotélica algo más que una mera manera de hablar de la posibilidad? Que dos cosas tengan las mismas condiciones de verdad no significa que sean la misma cosa. Encuentro que entre la posibilidad y la potencialidad hay una diferencia importante: mientras en el primer caso la modalidad se predica de estados de cosas, en el segundo caso se predica de propiedades.
 
PPa ↔ ~Pa & ♢Pa
 
PPa es verdadera en w* sii Pa es falsa en w* y para al menos un w tal que w*Rw, Pa
 
Parece que la potencialidad involucra siempre una relación entre una propiedad y una entidad. Una propiedad no puede ser potencial si no es en relación a una entidad. No tiene sentido algo así como una propiedad «en potencia» sin algo de lo cual sea una propiedad en potencia. De modo que:
 
La relación entre una entidad y una propiedad potencial suya no es como la que puede haber entre dos entidades.
 
Otra noción que podría definirse con las herramientas aquí presentadas es la noción de proceso.
 
¿Se puede dar una definición de la noción de evento a partir de mi definición de cambio a través del tiempo?
 
= Contra la relación de satisfacción =
 
== El problema ==
Nadie puede quedar satisfecho con la relación de satisfacción. Una fórmula abierta es como un nombre: no debería tener valor de verdad. ¿Desde cuándo una expresión como «''x'' es rojo» tiene valor de verdad?
 
El problema con las variables libres es el siguiente: por un lado, queremos que la interpretación asigne a las variables de individuo un único elemento del dominio, para así poder definir la verdad para fórmulas como ''Pxa'' diciendo: ''Pxa'' es verdadera para una interpretación dada si y solo si el par ordenado formado por la interpretación de ''x'' y la interpretación de ''a'' pertenece a la intrepretación de ''P''. Pero por otro lado, no se puede interpretar a las variables de individuo como a las constantes de individuo, porque entonces la fórmula ''Px'' no sería verdadera cuando todo elemento del dominio pertenezca a la interpretación de ''Px'' por la interpretación pertenezca a la interpretación de ''P'' (es decir, en exactamente las mismas circunstancias en las que la fórmula ''Pa'' es verdadera). Esto es: por un lado queremos que la interpretación asigne a las variables un único elemento, pero por otro lado queremos que les asigne todos.
 
== La solución mediante la relación de satisfacción ==
La solución parecería ser la siguiente: que les asigne todos los elementos, uno por uno. Es decir, que los haga «desfilar» uno por uno. Y esto es lo que se logra con el aparato técnico de la satisfacción.
 
Supongamos la oración «''x'' es pariente de Abel», cuya formalización es ''Pxa''. ¿Cuándo queremos que esta fórmula sea verdadera? Intuitivamente, cuando todos los elementos del dominio sean parientes de Abel. O más precisamente, cuando todos los pares ordenados construidos a partir del dominio, y que tengan a la interpretación de ''a'' como segundo elemento, pertenezcan a la interpretación de ''P''. ¿Cómo se puede escribir eso formalmente? Quizás se podría decir: «''Pxa'' es verdadera bajo la interpretación ''I'' si y solo si para todo elemento ''x'' del dominio, el par <''x'',''I''(''a'')> pertenece a la interpretación de ''P''». Sin embargo, para poder formular esta definición de manera general, sería necesario saber siempre la aridad de las fórmulas bajo consideración, y los nombres y las posiciones de las variables libres. O quizás se pueda decir: ''P''(''t''<sub>1</sub>...''t<sub>n</sub>'') es verdadera para ''I'' si y solo si la secuencia <''s''<sub>1</sub>...''s<sub>n</sub>''> pertenece a la interpretación de ''P'', donde ''s''<sub>1</sub>...''s<sub>n</sub>'' son: si ''t<sub>i</sub>'' es una constante de individuo, entonces ''s<sub>i</sub>'' es la interpretación de ''t<sub>i</sub>''; pero si ''t<sub>i</sub>'' es una variable de individuo, entonces ''s<sub>i</sub>'' es...
 
(que es lo que queremos), sino cuando el elemento del dominio asignado a
 
== Otra solución ==
¿Cuándo es verdad que «''x'' > 3»? ¿Acaso cuando todo ''x'' es mayor que 3? Intuitivamente me parece que no. Intuitivamente, me parece que esta oración no es ni verdadera ni falsa, sino que está incompleta. Por lo tanto, creo que se la debería considerar una fórmula mal formada. ¿Por qué deberíamos introducir tantas complicaciones para definir condiciones de verdad para este tipo de fórmulas? ¿Acaso no sería mejor dejarlas fuera de la definición de fórmula bien formada, y consecuentemente de las definiciones de verdad? Esto se podría lograr si se identifica a las fórmulas bien formadas con las fórmulas cerradas.
 
Teniendo la definición de fórmula bien formada como fórmula cerrada, se puede definir interpretación así: una interpretación es una tupla <''D'',''I''>, donde ''D'' es un conjunto no vacío e ''I'' es una función tal que:
 
# Si ''p'' es una letra proposicional, ''I'' le asigna un valor de verdad (1 o 0)
# Si ''a'' es una constante de individuo, ''I'' le asigna un elemento del dominio
# Si ''f'' es un functor, ''I'' le asigna una función sobre los elementos del dominio
# Si ''P'' es una letra de predicado ''n''-ádica, ''I'' le asigna un conjunto de ''n''-tuplas del dominio
 
Luego, las definiciones de verdad son:
 
#''p'' es verdadera para ''I'' si y solo si la interpretación le asigna el valor de verdad 1
#''P''(''t''<sub>1</sub>...''t<sub>n</sub>'') es verdadera para ''I'' si y solo si la interpretación de ''t''<sub>1</sub>...''t<sub>n</sub>'' pertenece a la interpretación de ''P''. (Recordando que ''P''(''t''<sub>1</sub>...''t<sub>n</sub>'') es una fórmula cerrada.)
# ¬A es verdadera para ''I'' si y solo si A es falsa para ''I''
# (A→B) es verdadera para ''I'' si y solo si A es falsa para ''I'' o B es verdadera para ''I''
# ∀''x'' (A) es verdadera para ''I'' si y solo si para todo elemento ''x'' del dominio, A es verdadera para ''I''. (Dado que ∀''x'' (A) es cerrada, se sigue que A es cerrada o tiene a ''x'' como única variable libre.)
 
Con estas modificaciones, las fórmulas como ''Px''→''Px'' dejan de ser teoremas (por estar mal formadas). ¿Pero acaso es tolerable que las fórmulas abiertas no sean consideradas fórmulas bien formadas? ¿Representa esto alguna pérdida real? ''Px''→''Px'' se podría interpretar como «si ''x'' es pobre, entonces ''x'' es pobre» Esto puede parecer una obviedad y por lo tanto un buen candidato a teorema, pero no si recordamos que ''x'' no es una entidad cualquiera, sino más bien un «lugar vacío». A veces incluso se dice que las expresiones como ''Px'' expresan propiedades, en vez de entidades con propiedades. ''Px'' no tiene contrapartida en el lenguaje natural. Lo más cercano sería: «es pobre», que si bien se puede considerar como una expresión con sentido, difícilmente se le pueda atribuir un valor de verdad. Frente a la afirmación «es pobre», la reacción más natural es: «¿quién?». Lo mismo que cuando alguien afirma: «x > 3». Frente a estas expresiones, nadie responde: «es cierto» o «es falso», sino que nos preguntamos de quién o de qué se está hablando.
 
Supongamos el caso más propicio posible. Estamos hablando acerca de un grupo de personas, todas las cuales son padres. De pronto alguien afirma: «es padre». ¿Diríamos que ese alguien dijo una verdad? Creo que no. Sin embargo, dado que todas las secuencias enumerables que podemos construir a partir del dominio de discurso satisfacen todas la fórmula ''Px'', nuestra semántica predice que «es padre» es una verdad. Supongamos otro caso: estamos leyendo acerca de los números naturales, y de pronto nos encontramos con la afirmación «''x'' > 3». Recordando que «''x'' < 0» es distinto de «∃''x'' (''x'' < 0)», ¿qué habremos de pensar al respecto? ¿Es «''x'' < 0» una falsedad? Según la semántica estándar, lo es, porque ninguna de las secuencias enumerables que se pueden construir a partir del dominio satisfacen la fórmula.
 
¿Pero acaso no encontramos fórmulas como «''x'' = 2» todo el tiempo? ¿Cómo es posible que sean fórmulas mal formadas? Por ejemplo, cuando resolvemos ecuaciones elementales:
 
2''x'' + 3 = 7
 
''x'' = 2
 
Lo cierto es que esta resolución nunca afirma que «''x'' = 2». He aquí su traducción a un lenguaje de primer orden un poco más explícito: ∀''x'' ( (2''x'' + 3 = 7) → (''x'' = 2) )
 
= Formalización del argumento de Frege contra el referencialismo puro =
Diccionario:
 
#''Cx'' se lee «el contenido informativo de ''x''»
#''Sx'' se lee «el significado de ''x''»
#''Rx'' se lee «la referencia de ''x''»
 
Argumento:
 
# ∀x∀y(Rx = Ry → Sx = Sy) — Tesis del referencialismo puro
# Ra = Rb — Premisa
# Sa = Sb — Modus ponens entre (1) y (2)
# ∀x∀y(Sx = Sy → C(x = x) = C(x = y)) — Tesis controversial (creo que es la que ataca Kripke)
# C(a = a) = C(a = b) Modus ponens entre (3) y (4)
# C(a = a) ≠ C(a = b) — Premisa
# C(a = a) = C(a = b) & C(a = a) ≠ C(a = b) — Introducción de la conjunción entre (5) y (6)
# ¬∀x∀y(Rx = Ry → Sx = Sy) — Introducción de la negación desde (1) hasta (7)
 
= Formalización del argumento de Frege en favor de los pensamientos como sentido de las oraciones =
Diccionario:
 
#''Px'' se lee «el pensamiento contenido en ''x''»
#''Sx'' se lee «el sentido de ''x''»
#''Rx'' se lee «la referencia de ''x''»
#''p'' se lee «la estrella matutina es un cuerpo iluminado por el Sol»
#''q'' se lee «la estrella vespertina es un cuerpo iluminado por el Sol»
 
Argumento:
 
# \forall x (Px = Sx ⋁ Px = Rx) —Premisa
# \forall x (Px = Rx) — Supuesto para llegar a una contradicción
# Pp = Rp — Particularización desde (2)
# Pq = Rq — Particularización desde (2)
# Rp = Rq — Premisa apoyada en el principio de composicionalidad
# Pp = Pq — Transitividad de la identidad entre (3), (4) y (5)
# Pp != Pq — Premisa
# Pp = Pq AND Pp != Pq — Introducción de la conjunción entre (6) y (7)
# \forall x (Px = Rx) — Introducción de la negación desde (2) hasta (8)
# \forall x (Px = Sx) — Silogismo disyuntivo entre (1) y (9)
 
= Interpretación modal de la probabilidad =
Quizás sea posible mostrar que las distintas interpretaciones de la probabilidad que se presentan en el artículo de la SEP ''Interpretations of probability'' de Alan Hájek se pueden entender (no se si todas, pero sospecho que varias) como versiones restringidas de la siguiente —verdadera— interpretación de la probabilidad:
 
La probabilidad de que un evento E suceda es igual a la cantidad de mundos posibles (¿accesibles?) donde se da ese evento, dividido la cantidad de mundos posibles (¿accesibles?) totales.
 
Así por ejemplo, la probabilidad de que esta moneda salga cara la próxima vez que la tire es igual a la cantidad de mundos posibles accesibles en que sale cara, dividido la cantidad de mundos posibles accesibles. ¿Pero cuántos son los mundos en los que sale cara, y cuántos son los mundos posibles en total? ¿Cómo calcularlo? En principio, es imposible. Pero esto no es importante para los fines de la definición. La definición nos da una interpretación de lo que es la probabilidad. Esta interpretación no es práctica, es cierto, pero para eso están las interpretaciones clásicas, que son deformaciones de esta interpretación, con el fin de ser más prácticas, a costa de ser estrictamente falsas. De ahí derivan muchos, si no todos, sus problemas.
 
Por ejemplo, consideremos la interpretación clásica. Según ésta, la probabilidad de que una moneda salga cara la próxima vez que la tire es igual a la cantidad de casos favorables, uno, sobre la cantidad de casos posibles, dos; es decir, 1/2. A partir de la interpretación que propongo, la interpretación clásica puede traducirse del siguiente modo: la probabilidad de que la moneda salga cara es igual a la cantidad de clases de mundos posibles accesibles donde la moneda salió cara, dividido la cantidad de clases de mundos posibles accesibles con respecto la moneda (es decir, dos clases de mundos posible: aquellos donde la moneda salió cara, y aquellos donde la moneda salió ceca). El resultado de esta división es obviamente 0,5. Ahora bien: uno de los problemas de la interpretación clásica es que no deja lugar a la posibilidad de que la moneda quede sobre el borde. Esta es también una posibilidad, de modo que si la probabilidad fuera simplemente casos favorables sobre casos posibles, la probabilidad de que salga cara tendría que ser 1/3, lo cual es un resultado ridículo. Mi propuesta es que este problema no es más que la consecuencia indeseable que implica la simplificación de la verdadera interpretación (la que propongo). En mi interpretación, hay una cantidad a de mundos posibles accesibles donde la moneda cayó en cara, una cantidad b de mundos posibles accesibles donde la moneda cayó en ceca, y una cantidad c de mundos posibles accesibles donde la moneda quedó sobre el borde. La probabilidad de que caiga en cara es, pues, a dividido a + b + c, que quizás no sea 0,5. Dado que sabemos por experiencia que la moneda casi nunca queda sobre el borde, y que si no está cargada, tiende a caer tantas veces en cara como en ceca, simplificamos, y en vez de contar mundos posibles, contamos clases de mundos posibles, excluyendo la clase donde la moneda queda en el borde, por mucho más pequeña que las otras dos.
 
Otro problema de la interpretación clásica es que su definición de probabilidad como casos favorables sobre casos posibles no deja lugar a cuando la moneda está cargada. Si está cargada, podría ser que 6 de cada 10 tiros salgan cara. ¿Cómo dar cuenta de eso? Con la definición clásica, la probabilidad de que salga cara sigue calculándose como casos favorables sobre casos posibles, es decir 0,5. Pero es falso que esta sea la probabilidad de que la moneda caiga en cara. Si consideramos la interpretación que propongo, esto se explica por el hecho de que los mundos posibles donde la moneda cae en cara, son más que los mundos posibles donde la moneda cae en ceca. El cálculo de que la moneda salga en cara, por lo tanto, puede ser perfectamente 6/10. La interpretación clásica puede pensarse como una simplificación de lo que realmente es la probabilidad, con el fin de posibilitar el cálculo práctico de la probabilidad. Pero en tanto simplificación, tiene sus limitaciones, que si se evalúan desde la interpretación que propongo, resultan predecibles.
 
Sospecho que la interpretación de la probabilidad como frecuencias también puede entenderse como una simplificación, con fines prácticos, de la interpretación que propongo. La idea básica de la interpretación como frecuencia es que la probabilidad de que una moneda salga cara es idéntica a la cantidad de veces que salió cara, sobre la cantidad de veces que se la tiró.
 
Suponiendo que pueda mostrar todo lo que me propongo, la conclusión sería: tenemos una interpretación satisfactoria de lo que es la probabilidad (similar a como tenemos una interpretación satisfactoria de lo que es la necesidad). Sin embargo, esta interpretación nos imposibilita calcular de manera práctica la probabilidad de que suceda casi cualquier evento. Pero, por suerte contamos con métodos prácticos para aproximar la probabilidad, aunque todos ellos tienen limitaciones que derivan del hecho de que definen a la probabilidad de una manera que no es. Cada método tiene ventajas y desventajas, y en cada caso tendremos que elegir cuál es el más adecuado, es decir, cuál es el que más se acercará a la verdadera probabilidad del evento (la que arroja la verdadera interpretación).
 
Se podría demostrar, incluso, que la interpretación clásica de la probabilidad es equivalente a la interpretación que recurre a clases de mundos posibles. Esto ayudaría a establecer que la interpretación clásica es una especie de versión limitada de la interpretación que propongo.
 
Una manera de pensar la relación entre mundos posibles es mediante un árbol.
 
Sea w un mundo posible que alguna vez fue actual. Sea W1 el conjunto de todos los mundos posibles accesibles desde w. Sea W2 el conjunto de todos los mundos posibles accesibles desde cualquiera de los mundos en W1. En general, sea Wn el conjunto de todos los mundos posibles accesibles desde cualquiera de los mundos en W(n-1).
 
Sea w<nowiki>' el mundo posible que es el futuro inmediato de w. Es decir, dado el mundo w, hay un mundo posible accesible desde w que es su futuro inmediato (un instante después). Sea w' ese mundo. Análogamente, sea w'' el futuro inmediato de w', y w''' el futuro inmediato de w''</nowiki>, etc.
 
Dadas estas definiciones, es obvio que w<nowiki>' estará en W1, w'' en W2, w''' en W3, etc. (si la relación de accesibilidad es transitiva, entonces w' también estará en W2, y w' y w''</nowiki> estarán en W3, etc.).
 
La interpretación frecuentista de la probabilidad se puede entender del siguiente modo: según el frecuentista, la probabilidad de un evento E es la cantidad de mundos posibles accedidos desde w donde se dio E, dividido la cantidad de mundos posibles accedidos desde w donde se dio E o no se dio E.
 
DEFINICIÓN. Un mundo-modelo de ''A'' es un mundo posible donde ''A'' es verdadera.
 
DEFINICIÓN. La probabilidad de que ''A'' sea verdadera en ''w'' es igual al cociente entre la cantidad de mundos-modelo de ''A'' accesibles desde ''w'' y la cantidad total de mundos posibles accesibles desde ''w''.
 
COMENTARIO. Es obvio que la probabilidad debe ser relativa a los mundos posibles. Pues por ejemplo, la probabilidad de que mi primer hijo sea varón, en el mundo actual (donde no tengo hijos) es de 0,5 (casi). En cambio, la probabilidad de que mi primer hijo sea varón, en un mundo donde yo ya tuve mi primer hijo, es de 0 o de 1, dependiendo de si fue varón o mujer.
 
TEOREMA. ''A'' es posible en ''w'' sii la probabilidad de que ''A'' sea verdadera en ''w'' no es 0.
 
DEMOSTRACIÓN. Ida. Supongamos que ''A'' es posible en ''w''. Luego, según la definición de posibilidad, en al menos un mundo posible accesible desde ''w'', ''A'' es verdadera. Luego, el conjunto de mundos posibles accesibles desde ''w'' donde ''A'' es verdadera no es vacío, y por lo tanto su cardinalidad no es 0. Ahora: la probabilidad de que ''A'' sea verdadera en ''w'' es igual al cociente entre la cardinalidad ''m'' del conjunto de mundos posibles accesibles desde ''w'' donde ''A'' es verdadera y la cardinalidad ''n'' del conjunto de todos los mundos posibles accesibles desde ''w'', es decir ''P''(''A'',''w'') = ''m'' / ''n''. Pero ''m'' / ''n'' = 0 sii ''m'' = 0. Pero m ≠ 0, pues dijimos que existe al menos un mundo posible accesible desde ''w'' donde ''A'' es verdadera. Luego, ''P''(''A'',''w'') ≠ 0.
 
Vuelta. Supongamos que la probabilidad de que ''A'' sea verdadera en ''w'' no es 0. Luego, ''m'' ≠ 0; es decir: la cardinalidad del conjunto de mundos posibles accesibles desde ''w'' donde ''A'' es verdadera no es 0. Luego, hay al menos un mundo posible accesible desde ''w'' donde ''A'' es verdadera. Pero esto significa, por la definición de posibilidad, que ''A'' es posible en ''w''. QED
 
COMENTARIO. Este teorema expresa la idea intuitiva de que si ''A'' es posible, entonces hay alguna probabilidad de que suceda, y por otro lado, que si hay alguna probabilidad de que A suceda, entonces tiene que ser posible que suceda.
 
TEOREMA. ''A'' es necesariamente verdadera en ''w'' sii la probabilidad de que ''A'' sea verdadera en ''w'' es 1.
 
DEMOSTRACIÓN. Ida. Supongamos que ''A'' es necesariamente verdadera en ''w''. Esto significa que en todos los mundos posibles accesibles desde ''w'', ''A'' es verdadera. En otras palabras, todos los mundos accesibles desde ''w'' son mundos-modelo de ''A''. Luego, como los mundos-modelo son un subconjunto de los mundos posibles, se sigue
 
TEOREMA. Si ''A'' y ''B'' son equivalentes, entonces tienen la misma probabilidad de ser verdaderas en ''w''.
 
DEMOSTRACIÓN. Supongamos que ''A'' y ''B'' son equivalentes. Luego, todos los mundos-modelo de ''A'' son mundos-modelo de ''B'', y viceversa.
 
TEOREMA. No es el caso que si ''A'' y ''B'' tienen la misma probabilidad de ser verdaderas en ''w'', entonces son equivalentes. Formalmente:
 
<math>\lnot \ ( \forall A \ \forall B \ \forall w \ [ P( A, w ) = P( B, w ) \to ( A \leftrightarrow B ) ] )</math>
 
DEMOSTRACIÓN. Esto se puede demostrar mediante un simple contraejemplo. Consideremos las fórmulas <math>p \lor q</math> y <math>p \to q</math>.
 
DEFINICIÓN. Probabilidad condicional. <math>P(A|B,w)</math>
 
La probabilidad de que ''A'' sea verdadera en ''w'', dado que ''B'' es verdadera en ''w'', es igual al cociente entre la cantidad de mundos-modelo de ''A'' y ''B'' accesibles desde ''w'', dividido la cantidad de mundos-modelo de ''B'' accesibles desde ''w''.
 
EJEMPLO. Supongamos que tenemos dos dados de seis caras. Tiramos el primer dado y sale un 4. ¿Cuál es la probabilidad de que al tirar el segundo dado, la suma de ambos sea 8? Claramente 1/6, pues el único resultado que nos sirve es un 4. ¿Cómo se traduce esto?
 
INTERPRETACIÓN DE LOS AXIOMAS DE KOLMOGOROV
 
Sea S un conjunto de fórmulas de un lenguaje formal. Luego:
 
# No negatividad: <math>P(A) \ge 0</math>para cualquier fórmula ''A'' en ''S''.
# Normalización: si ''T'' (¿en ''S''?) es un teorema, entonces ''P''(''T'') = 1.
# Aditividad finita: <math>P(A \lor B) = P(A) + P(B)</math> para cualesquiera dos fórmulas ''A'' y ''B'' en ''S'' que sean lógicamente incompatibles.
 
A partir de estos axiomas se debería poder demostrar lo siguiente:
 
TEOREMA. <math>P(A) \le 1</math> para cualquier fórmula ''A'' en ''S''.
 
TEOREMA. Si ''C'' es una contradicción, entonces ''P''(''C'') = 0.
 
Interpretados, los axiomas se entienden así:
 
# No negatividad: para cualquier proposición ''A'' en ''S'' y cualquier mundo posible ''w'', si ''m'' es la cardinalidad del conjunto de mundos-modelo de ''A'' accesibles desde ''w'', y ''n'' es la cardinalidad del conjunto de todos los mundos posibles accesibles desde ''w'', entonces ''m'' / ''n'' ≥ 0.
# Normalización: para cualquier verdad lógica ''T'' en ''S'' y cualquier mundo posible ''w'', si ''m'' es la cardinalidad del conjunto de mundos-modelo de ''T'' accesibles desde ''w'', y ''n'' es la cardinalidad del conjunto de todos los mundos posibles accesibles desde ''w'', entonces ''m'' / ''n'' = 1.
# Aditividad finita: para cualquier mundo posible ''w'' y cualesquiera dos proposiciones ''A'' y ''B'' en ''S'' que sean lógicamente incompatibles, si ''m'' es la cardinalidad del conjunto de mundos-modelo de <math>A \lor B</math> accesibles desde ''w'', ''a'' es la cardinalidad del conjunto de mundos-modelo de ''A'' accesibles desde ''w'', ''b'' es la cardinalidad del conjunto de mundos-modelo de ''B'' accesibles desde ''w'', y ''n'' es la cardinalidad del conjunto de todos los mundos posibles accesibles desde ''w'', entonces ''m'' / ''n'' = ''a'' / ''n'' + ''b'' / ''n''.
 
Es posible demostrar que bajo estas interpretaciones, los tres axiomas resultan verdaderos. DEMOSTRACIÓN. Sea ''M'' el conjunto de los mundos-modelo de ''A'' accesibles desde ''w'' y sea ''m'' su cardinalidad. Sea ''N'' el conjunto de todos los mundos posibles accesibles desde ''w'' y sea ''n'' su cardinalidad. Dado que <math>M \subseteq N</math>, es obvio que <math>m \le n</math>. Pero como las cardinalidades de los conjuntos finitos es siempre un número natural, es obvio que <math>m / n > 0</math>. QED
 
INTERPRETACIÓN CLÁSICA
 
Dada una fórmula con ''n'' tipos de fórmulas atómicas, esa fórmula define 2''n'' clases de mundos posibles. Ahora decimos:
 
DEFINICIÓN. Dada una fórmula cualquiera ''A'' y una interpretación ''I'', la '''probabilidad''' de que ''A'' sea verdadera bajo la interpretación ''I'' es el resultado de dividir la cantidad de clases de mundos-modelo de ''A'' por la cantidad de clases de mundos posibles definidos por ''A''.
 
Así por ejemplo, consideremos la fórmula <math>((p \land q) \to r)</math>. Esta fórmula tiene 3 tipos de fórmulas atómicas, de modo que define 2<sup>3</sup> = 8 clases de mundos posibles: los mundos posibles donde ''p'', ''q'' y ''r'' son verdaderas, los mundos posibles donde ''p'' y ''q'' son verdaderas, pero ''r'' no, etc. Dadas estas ocho clases de mundos posibles, y las interpretaciones clásicas de las conectivas lógicas, podemos calcular cuáles clases de mundos posibles son también clases de mundos-modelo de la fórmula:
 
Este tipo de razonamiento se puede comparar con el siguiente: supongamos que alguien muestra dos bolsas en apariencia iguales, y dice que cada bolsa tiene canicas verdes (no necesariamente la misma cantidad) pero que en una de las dos bolsas hay una única canica roja (el mundo actual). ¿Cuál es la probabilidad, si elijo una bolsa, de elegir aquella que tenga la canica roja? Me parece claro que 0.5. Supongamos que ahora yo supiera que una de las bolsas tiene, digamos, veinte canicas, mientras que la otra tiene diez. ¿Cambia eso de alguna manera mi probabilidad de acertar? Claro que no.
 
TEOREMA 4. Dada una fórmula con la forma <math>\forall x \ A(x)</math> y una interpretación con un dominio infinito, si la fórmula no es necesariamente verdadera, entonces su probabilidad de verdad tiende a 0.
 
TEOREMA 5. Dada una fórmula con la forma <math>\exists x \ A(x)</math> y una interpretación con un dominio infinito, si la fórmula no es necesariamente verdadera, entonces su probabilidad de verdad tiende a 1.
 
Demostrar que, con solo postular que cada mundo posible solo tiene acceso (directo) a un mundo posible, se sigue que la probabilidad de cualquier cosa es 1. Esto significa que aquellos filósofos que defiendan el determinismo pueden utilizar también mi interpretación de la probabilidad para exponer su postura.
 
DEFINICIÓN. Un mundo posible ''w'' tiene '''acceso directo''' a un mundo posible ''v'' (distinto de ''w'') sii ''w'' tiene acceso a ''v'', y no existe ningún mundo posible ''u'' (distinto de ''w'' y de ''v'') tal que ''w'' tenga acceso a ''u'' y ''u'' tenga acceso a ''v'' (es decir sii no existe ningún mundo posible «entre» ''w'' y ''v''). ¿La definición debe permitir que los mundos posibles tengan acceso directo a sí mismos?
 
DEFINICIÓN. Determinismo es cuándo para cualquier mundo posible w, solo existe un mundo posible v (distinto de w) accesible directamente desde w.
 
TEOREMA. En el determinismo, para cualquier proposición A y cualquier mundo posible w, la probabilidad de que A sea verdadera en w es 1.
 
DEFINICIÓN. Un conjunto de mundos posibles U es un universo sii existe exactamente un mundo posible w en U, tal que para todo v en U, w tiene acceso a v.
 
Supongamos que me dispongo a tirar una moneda y me pregunto cuál es la probabilidad de que salga cara. ¿Debo considerar todos los mundos lógicamente accesibles, o solo los mundos físicamente accesibles? Intuitivamente, parecería que los segundos. (Esto me conviene, pues no está tan claro que los mundos físicamente posibles y accesibles sean infinitos.)
 
Un mundo posible es un estado de cosas. En tanto tal, es algo estático: el cambio y el movimiento se dan al pasar de un mundo posible a otro, no dentro de cada mundo posible. Un mundo físicamente posible ''w'' tiene acceso a otro mundo ''v'' sii ''v'' tiene las mismas leyes físicas que ''w'' y ''v'' tiene como condiciones iniciales al estado de cosas en ''w''.
 
¿Es posible que en algún momento yo sea presidente? Si existe algún mundo posible accesible desde el actual donde yo soy presidente, entonces sí. ¿Pero qué probabilidad hay de que yo, en algún momento, sea presidente? Para responder eso, tendría que considerar todos los mundos físicamente posibles accesibles, y ver en cuantos soy presidente, y en cuántos no.
 
= Sobre los agregados =
En el mundo físico no hay conjuntos. Los conjuntos, si existen, no existen en el espaciotiempo. Pero en el mundo físico hay agregados, y los agregados se comportan de manera muy similar a los conjuntos. Por supuesto que hay diferencias importantes entre los agregados y los conjuntos. Por mencionar un par, los agregados tienen peso, mientras que los conjuntos no, y los agregados ocupan espacio, mientras que los conjuntos no. Pero así como hay diferencias, también hay coincidencias, y son esas coincidencias las que permiten que los agregados constituyan modelos de la teoría de conjuntos. El [[w:Axioma de extensionalidad|axioma de extensionalidad]], por ejemplo, dice que si ''x'' e ''y'' tienen los mismos elementos, entonces son el mismo conjunto. Formalmente:
 
<math>\forall x \ \forall y \ \forall z \ (Mx \land My \to ((z \in x \leftrightarrow z \in y) \to x = y))</math>
 
Los agregados también tienen esa propiedad. El agregado compuesto por el Sol y la Luna es el mismo que el compuesto por la Luna y el Sol, y es el mismo que el compuesto por el Sol, el Sol, el Sol y la Luna. Por eso, si interpretamos ''Mx'' como «''x'' es un agregado» en vez de «''x'' es un conjunto», y <math>x \in y</math> como «''x'' compone a ''y»'' en vez de «''x'' pertenece a y», entonces el axioma de extensionalidad es verdadero.
 
Quizás alguien quiera objetar que los agregados, a diferencia de los conjuntos, tienen un requisito adicional de proximidad espacial: para que haya un agregado, los componentes deben estar lo suficientemente cerca los unos de los otros. Así, aunque exista el conjunto del Sol y la Luna, el agregado del Sol y la Luna podría no existir, por falta de proximidad espacial. Pero creo que eso es insostenible. En primer lugar, sería arbitrario fijar una distancia para que un agregado deje de ser un agregado. Y en segundo lugar, si yo preguntara por la masa combinada del Sol y la Luna, o del Sol y la estrella más lejana conocida, la pregunta tendría perfecto sentido, y tendría una respuesta determinada. Pero en esencia, lo que estaría preguntando es por la masa del agregado del Sol y la Luna, o del Sol y la estrella más lejana conocida. De modo que preguntar por el agregado de dos cuerpos lejanos tiene perfecto sentido.
 
Definamos algunas nociones sobre agregados que sean análogas a nociones sobre conjuntos:
 
<math>x \sqcup y =_{def} [ z : z \sqsubset x \lor z \sqsubset y ]</math>
 
<math>x \sqcap y =_{def} [ z : z \sqsubset x \land z \sqsubset y ]</math>
 
<math>\square =_{def} [x : x \ne x]</math>
 
<math>0 =_{def} \square</math>
 
<math>1 =_{def} [ \square ]</math>
 
<math>2 =_{def} [ \square, [ \square ] ]</math>
 
<math>3 =_{def} [ \square, [ \square ] , [ \square, [ \square ] ] ]</math>
 
Entiendo que alguien podría tener dudas sobre la existencia del agregado vacío. En ese caso, todo lo que habría que hacer sería definir cada número... Como el cero no se podría definir, se seguiría que ningún agregado tiene cardinalidad 0. Pero eso no es problema, porque si negamos la existencia del agregado vacío, es obvio que ningún agregado tiene cardinalidad 0, porque si un agregado tuviera cardinalidad 0, sería el agregado vacío, pero el agregado vacío no existe.
 
Una vez hecho todo esto, ¿por qué es cierto que si tengo una manzana, y agrego dos más, tengo tres manzanas? Sea ''M''<sub>1</sub> el agregado compuesto por la primera manzana, y ''M''<sub>2</sub> el agregado compuesto por las otras dos manzanas. Luego:
 
<math>M_1 + M_2 = M_1 \sqcup M_2</math>
 
= Rombo de Pascal =
Se empieza con un uno en el centro, y todo el resto ceros. Luego, para cada celda, se suman los números de las ocho celdas que la rodean y se construye una imagen nueva. El resultado tras 3 generaciones es el siguiente:
 
1 3 6 7 6 3 1
 
3 1 2 3 2 1 3
 
6 2 1 1 1 2 6
 
7 3 1 1 1 3 7
 
6 2 1 1 1 2 6
 
3 1 2 3 2 1 3
 
1 5 6 7 6 3 1
 
Y tras cuatro generaciones:
 
01 04 09 16 19 16 09 04 01
 
04 01 03 06 07 06 03 01 04
 
09 03 01 02 03 02 01 03 09
 
16 06 02 01 01 01 02 06 16
 
19 07 03 01 01 01 03 07 19
 
16 06 02 01 01 01 02 06 16
 
09 03 01 02 03 02 01 03 09
 
04 01 05 06 07 06 03 01 04
 
01 04 09 16 19 16 09 04 01
 
Si a cada número se le da un valor en escala de grises, ¿qué imagen se forma? ¿Un rombo pero redondeado? ¿Un círculo que crece?
 
= Semillas =
 
== Ética ==
 
* El problema de la existencia del [[w:Libre albedrío|libre albedrío]] se podría historizar. Un mundo determinista que llega a producir un ser que duda, quiere y puede, podría «perder control» sobre dicho ser. Necesito una metáfora, o incluso un mito, para explicar mejor esta intuición.
*La buena o mala intención no hace al autor de una acción bueno o malo, pero es un atenuante o agravante. La evaluación moral de un agente por sus acciones se debe realizar, primero, en relación a las consecuencias de sus acciones (consecuencialismo) y luego en relación a sus intenciones. Dicha evaluación se puede pensar, por lo tanto, como una función.
*Vive de manera tal que nunca tengas que mentir.
*El cambio climático es un problema mucho más grave que la guerra, el hambre, la pobreza, la desocupación, la superpoblación, o la extinción de las especies. Debemos unirnos o perecer. La vida precede a la libertad, la justicia, etc.
 
== Metafísica ==
 
*El mundo es —y nada más. Cualquier intento por decir algo más sobre el mundo supone alguna dudosa ontología.
*Leer historia es análogo a reproducir una partida de ajedrez.
* La Tierra gira alrededor del Sol —decimos. ¿Pero en dónde existe la relación «girar alrededor de»? ¿En el espacio entre el Sol y la Tierra? ¿En el Sol y la Tierra mismos? ¿O acaso en nuestra mente, lenguaje, o cultura? ¿Y dónde está el conocimiento? ¿No es como preguntar dónde está la cultura?
*La naturaleza se comporta de manera regular —es una formulación del principio de inducción. Curiosamente, la matemática fue definida como la ciencia de lo regular, de los patrones. Esto sugiere una explicación de la relación entre matemática y naturaleza.
*El universo podría estar determinado de la misma manera que el desarrollo decimal de un número irracional o de un autómata celular. Es decir, está determinado pero es imposible de predecir sin hacer el cálculo.
*El ''Dasein'' de Heidegger es el ente que se hace la pregunta por el ser. Esto no es cuestionar lo que acaso hay, sino al ser mismo. Descartes y Heidegger no preguntan lo mismo.
*Las categorías son como agujeros. Pero los agujeros son nada.
*La teoría de conjuntos se amolda bastante bien al atomismo. En la ontología de la teoría de conjuntos, todo lo que hay son conjuntos (y a veces urelementos) agrupados de mil maneras para dar lugar a estructuras muy complejas que corresponden a cosas (abstractas) que a primera vista no parecen conjuntos (por ejemplo, números). De manera análoga, en el atomismo, todo lo que hay son átomos agrupados, y son estas agrupaciones las que corresponden a la infinidad de fenómenos que a simple vista nos parecen algo completamente distinto. Intuyo que es este tipo de razonamiento el que condujo al atomismo lógico.
*¿No se podría decir que los enunciados empíricos son aquellos que son contingentes (es decir, verdaderos en algunos mundos posibles y falsos en otros)? Digo esto en contraste a los positivistas lógicos que definieron los enunciados empíricos como aquellos que pueden, en principio, ser verificados mediante la observación.
*Pascal sugirió que los componentes mínimos del universo, los átomos, podrían ser otros universos en miniatura, y que nuestro propio universo podría ser un átomo en un universo superior. ¿Será posible que algunos fenómenos cuánticos se puedan explicar recurriendo a la teoría de la relatividad (la teoría de la gravitación universal), si pensamos en los átomos como universos, y no como átomos? Si asignamos a los átomos una fuerza gravitatoria proporcional no a la masa de un átomo, sino a la masa de un universo entero, entonces, ¿no se podrían explicar algunos fenómenos subatómicos? Richard Feynman dijo que si comparamos la fuerza electromagnética de un electrón con su fuerza gravitatoria, encontramos que la diferencia es gigantestca: tan grande como la diferencia que hay entre el tamaño de un electrón y el tamaño del universo entero. Más precisamente: que la fuerza gravitatoria de un electrón es de 1/4170000... (42 dígitos) de su fuerza electromagnética, y que si uno compara el tamaño de un electrón con el tamaño del universo, nos encontramos con un número de exactamente el mismo orden. Claro que la fuerza electromagnética tiene poco que ver con las fuerzas de las que se ocupa la teoría cuántica, pero esto solo me dice que quizás esta manera de pensar las cosas (pensar en los átomos como universos), sirva más bien para unificar la fuerza gravitatoria con la fuerza electromagnética, y no con las otras fuerzas. Sigo especulando: un problema (entre miles) que uno podría plantear a esta idea es: aún si pensáramos en los átomos como universos, ¿por qué habríamos de asignarles una fuerza gravitatoria similar a la que le asignamos a nuestro universo? ¿Acaso no son universos en miniatura, y como tales, tienen una fuerza gravitatoria en miniatura? Este problema me sugirió algo aún más improbable: que los átomos que componen nuestro universo sean... nuestro propio universo. Lo cual sería paradójico, por supuesto (por no decir contradictorio, o absurdo), pero inmediatamente recordé que una paradoja muy similar se da en (algunas versiones de) la teoría de conjuntos cuando pensamos en el conjunto universal (el cual, para ser tal, se debe contener a sí mismo). Yendo al punto: lo que esto me sugirió es que si adoptamos una matemática que acepte ciertas contradicciones (o paradojas) en la teoría de conjuntos, quizás se pueda teorizar sobre un universo que se contiene a sí mismo, de manera similar a como Einstein adoptó una geometría no euclidiana para teorizar sobre el espacio-tiempo, y en con un marco matemático tal, encontrar que la teoría de la gravitación universal es todo lo que se necesita para explicar fenómenos para los que hoy se recurre al electromagnetismo.
*¿Qué caracterización algebraica se puede dar de la relación de realización (de una función en una estructura)? ¿Cuáles son los ''relata''? Seguramente sea una relación de muchos a uno, de ahí la realizabilidad múltiple. Definir esta relación permitiría abordar los problemas de realizabilidad múltiple mediante demostraciones.
*Si consideramos a Marte como un conjunto de propiedades, entonces Marte pertenece a la extensión de «ser rojo», y «ser rojo» pertenece a la extensión de «Marte».
*La relación entre una propiedad y un predicado es la misma que entre una entidad y un nombre. El predicado «ser rojo» es el predicado que refiere a la propiedad de ser rojo, así como «Marte» es el nombre que refiere a la entidad Marte.
*En relación al problema con las oraciones como «Pegaso no existe», tal vez la lógica modal sea la herramienta adecuada para analizarlas. La oración «Pegaso no existe» se formaliza, en la lógica de predicados clásica, como <math>\lnot \exists x \ x = p</math>, que se lee: «no existe un ''x'' que sea idéntico a Pegaso». Pero si Pegaso no existe, entonces, ¿a qué no es idéntico ''x''? Este es el problema, y la solución de Russell fue proponer que se entienda a Pegaso como una abreviación para un conjunto de descripciones, etc. etc. Ahora, con la lógica modal, quizás sea posible resolver el problema de otra manera: cuando se afirma que «Pegaso no existe», y se pregunta qué es lo que no existe, la respuesta debe ser que el referente del nombre «Pegaso» es una entidad que existe en otros mundos posibles, pero no en el actual. En el fondo, esto no es muy distinto a decir que el referente es una entidad imaginaria. En vez de hablar de mundos imaginables, hablamos de mundos posibles, y en vez de entidades imaginarias, de entidades posibles. Es solo una diferencia terminológica, porque la estructura matemática que llamamos «mundos posibles» puede ser interpretada de varias maneras.
*¿Tengo yo la propiedad de no ser un árbol? ¿Existen las propiedades negativas? Un argumento en contra es que si existieran las propiedades negativas, entonces también habría que aceptar las «propiedades conjuntivas». Así como yo tengo la propiedad de ser humano, por un lado, y la propiedad de ser varón, por el otro, alguien podría sugerir que yo tengo además la propiedad de «ser humano y ser varón» (a eso me refiero con «propiedades conjuntivas»). Pero aceptar la existencia de tales propiedades parece ridículo. Sin embargo, no es muy diferente a aceptar propiedades negativas. En efecto, la única diferencia que veo es que para las propiedades conjuntivas se usa la conectiva «y», y para las propiedades negativas se usa la conectiva «no». Mi impresión es que las propiedades negativas son propiedades «construidas» (o «definidas»), en el mismo sentido en que lo son las propiedades conjuntivas (o disyuntivas, o condicionales, pero estas últimas son complicadas por todo el debate en torno a las propiedades disposicionales).
*Cuando percibimos un objeto, por ejemplo una manzana, es posible pensar de que en realidad percibimos un montón de colores, olores y otros universales, emanando de un solo objeto (la manzana). Nuestra experiencia se compondría de un montón de estas percepciones, agrupadas de distintas maneras para construir un mundo de objetos. Descubrir cuáles son las entidades que subyacen a estas percepciones, sería la tarea del científico y del filósofo en general.
*En la filosofía de la mente, el funcionalismo, según entiendo, propone que lo mental es algo que se puede instanciar por distintas cosas físicas. Por ejemplo, una creencia determinada, la creencia de que Venus es un planeta, se puede instanciar por varios estados de cosas distintos, como algún estado de cosas en mi cerebro y el de muchas otras personas, pero también un estado de cosas en el hardware de una computadora, y quizás en el universo mismo (un [[w:Cerebro de Boltzmann|cerebro de Boltzmann]]). Así, una creencia particular, y cualquier estado mental, parece ser una suerte de «estructura» que se puede instanciar de distintas maneras. ¿Pero qué clase de entidad es esta estructura? Se ha acusado al funcionalismo de no ser otra cosa que un dualismo sofisticado. Otra crítica fue que no se entiende dónde queda lugar para ciertas propiedades típicas de lo mental, particularmente la intencionalidad. En cualquier caso, si los estados mentales son conjuntos, que se pueden instanciar por distintas cosas en el mundo (al igual que las progresiones), pero que sin embargo tienen propiedades que les pertenecen en tanto conjuntos. No resuelve ningún problema, pero reduce dos problemas a uno.
*Yo puedo no saber qué estoy haciendo, o mejor dicho, qué está pasando en el mundo cuando decimos que hago lo que hago, pero de lo que no tiene sentido dudar es de que algo sucede.
*Todos creemos que en algún sentido, seguimos siendo los mismos que cuando éramos bebés, aún cuando nuestro cuerpo actual sea muy distinto del que tuvimos cuando nacimos. Incluso es posible que no haya ni un átomo en común entre mi cuerpo actual y el que tenía al nacer. Y aún cuando haya algunos átomos en común, nadie diría que son esos átomos los que determinan que ese bebé y yo seamos los mismos. Una respuesta a este problema son las doctrinas esencialistas, por ejemplo la del alma cristiana, que dice que lo que tengo en común con ese bebé es el alma, que se conserva y permanece idéntica. Otra respuestas es que nuestra identidad es un relato: lo que hace que las vivencias de ese bebé sean también las mías, es un relato que así lo dice, pues físicamente no hay nada (relevante) que las una. Pero lo que une los relatos, o descripciones, es que están todas referidas al mismo nombre (no a un mismo ente). Esta propuesta lleva el problema de la identidad personal al plano lingüístico. Y no hace ninguna diferencia el que en el futuro nos podamos cambiar el nombre, porque la única consecuencia de ésto sería que «Fulano = Mengano», de modo que todas las descripciones que antes referían a «Fulano» ahora también refieren a «Mengano», y viceversa (por la regla de transitividad de la identidad, tal vez). Ahora, si mi padre asigna un relato o una descripción a mi nombre, ¿qué razones tiene, bajo esta propuesta, para luego asignar otro relato al mismo nombre? ¿Por qué no lo asigna a otro nombre nuevo?
*Si entiendo bien el argumento de las realizaciones múltiples de Fodor y Putnam, el problema es que es muy improbable que alguien pueda especificar una propiedad física tal que cuando sea que se da tal propiedad, se da también dolor, de modo que se pueda decir que tal propiedad es idéntica al dolor. El problema es que esa propiedad tendría que ser condición necesaria y suficiente para el dolor no solo entre los humanos, sino también entre todos los organismos que sienten dolor, y más importante aún, entre todos los organismos posibles que puedan sentir dolor. Pero supongamos que en el planeta Tierra, luego de muchos años de investigación científica, se determina que tales y cuales propiedades físicas son necesarias y suficientes para que se de dolor en todos los animales conocidos. Supongamos ahora, que varios años después de alcanzado este descubrimiento, nos ponemos en contacto con una raza de extraterrestres inteligentes, y que estos extraterrestres sienten dolor, pero sin embargo no exhiben algunas de las propiedades físicas necesarias y suficientes. Según entiendo, esta es la preocupación de Fodor y Putnam. Pero yo me pregunto: ¿con qué derecho podemos decir que esos extraterrestres sienten dolor? A menos que aceptemos las qualia, podríamos perfectamente negar que los extraterrestres sientan lo mismo que nosotros, aún cuando se comporten de manera similar a la nuestra bajo condiciones que a nosotros nos causarían dolor. ¿Cómo aclarar esta situación? Todo lo que hay son fenómenos físicos. A algunos de ellos los llamamos «dolor». Pero el dolor no es un fenómeno natural (una clase natural) como los fenómenos físicos. Es solo un nombre que asociamos a una variedad de fenómenos físicos. Quizás los asociamos a todos con la palabra «dolor» porque se parecen en algún sentido, pero eso no los hace una clase natural. Los fenómenos físicos que asociamos a la palabra dolor podrían ser muy distintos los unos de los otros, y ser solo un capricho del lenguaje el que los asociemos a todos con la palabra «dolor». Si descubrimos una raza extraterrestre que no cumple con los requisitos para sentir dolor, pero sin embargo se comporta como si sintiera algo similar a nuestro dolor (o idéntico, si creemos en los qualia), entonces tenemos dos opciones: o negarle el nombre de «dolor» al sentimiento generado por esos procesos; o ampliar nuestra definición de dolor, e incorporar esos procesos a la disyunción que forma la definición.
*Los vectores velocidad en general se interpretan como propiedades de las partículas (en el sentido metafísico y de OOP). Pero también se puede prescindir de dicha propiedad, si en cambio uno se toma el trabajo de mirar en el pasado de cada partícula para determinar su velocidad actual. Quiero decir: asignar un vector velocidad tiene la (enorme) ventaja de que ahorra tener que mirar los estados anteriores al actual para deducir la velocidad de la partícula y deducir así su próxima posición, pero en principio se podría deducir el vector velocidad a partir de los estados anteriores, y así prescindir de una propiedad.
*Principio de conservación: todo se conserva, solo se transforma.
*Si dejamos la Tierra en una nave que viaje a velocidades cercanas a la luz, y volvemos un año después, en la Tierra habrán pasado miles o millones de años (dependiendo de cuánto nos hayamos acercado a la velocidad de la luz). Sin embargo, no hay ningún método conocido que nos permita ver el futuro antes de ir.Al observar las estrellas y otros objetos lejanos, estamos viendo cómo eran en el pasado, porque la luz tarda años en llegar a nosotros. Sin embargo, no hay ningún método conocido que nos permita viajar al pasado. Así que podemos viajar al futuro remoto pero no verlo, y podemos ver el pasado remoto pero no visitarlo.
*A medida que mapeemos el Cosmos en mayor y mayor escala, descubriremos que el Universo conocido hoy constituye sólo una parte de un ser mucho más grande, por ejemplo un ojo, y ese ser convive con otros seres de su escala, y así hasta mucho mayores niveles aún. Es una idea demasiado grande para siquiera pensar. Cuando la comprendí, sentí una sensación desconocida. Tales seres nos podrían estar observando, no a nosotros específicamente, quizás, pero sí a los seres de nuestra escala que los constituyen. Algo así como cuando nosotros observamos nuestras células.
*El número más común del Universo es el uno. Luego el dos. Luego el tres, etc.
*La realidad es lo único que todos tenemos en común. Hay muchas fantasías posibles, pero solo una realidad.
 
== Gnoseología ==
 
* El [[w:Problema de Molyneux|problema de Molyneux]] me parece análogo al caso de un sordo de nacimiento que aprende a reconocer una guitarra por la vista. Si un día recupera la audición, ¿podría reconocer la guitarra por el sonido que hace, sin mirar? Claro que no.
*Un argumento en contra del solipsismo dice que si yo estuviera solo en el mundo, entonces no se explicaría cómo es posible aprender cosas nuevas. La respuesta obvia del solipsista es que yo puedo tener conocimientos de los que no soy conciente, y el aprendizaje no sería más que un cobrar conciencia de estos conocimientos. Pero lo que quiero observar es que si se aplica ese contraargumento, entonces se está negando explícitamente el principio KK, que dice que si sé algo, entonces sé que lo sé. En otras palabras, el solipsismo es inconsistente con el principio KK.
*La definición clásica de conocimiento dice: conocimiento es una creencia verdadera y justificada. ¿Pero está justificada nuestra creencia en la definición clásica (más allá del [[w:Problema de Gettier|problema de Gettier]])? ¿Cuál es nuestra justificación para creer que el conocimiento es una creencia verdadera y justificada? ¿Acaso una inducción a partir de varios casos de creencias verdaderas y justificadas que llamamos conocimiento? Y los demás intentos de definir el conocimiento, ¿son conocimiento, según sus propios estándares? Por ejemplo, si el fiabilismo dice: conocimiento es una creencia producida por métodos confiables. Según esto: la doctrina fiabilista, ¿es conocimiento? Los métodos filosóficos hasta ahora nunca han sido muy fiables, de modo que no veo por qué habríamos de considerar conocimiento a la doctrina fiabilista.
*El conocimiento también se puede categorizar así: conocimiento en primera persona, conocimiento en segunda persona, y conocimiento en tercera persona. El primero refiere al conocimiento directo, el de las percepciones, recuerdos, etc. El tercero refiere al conocimiento objetivo, típico de las ciencias, tanto naturales, como sociales, como formales. El segundo es quizás el más interesante, y refiere al conocimiento de «el otro», al conocimiento empático, por ejemplo al conocimiento que expresa la oración «estás cansado». Las ventajas de esta clasificación son que es clara, natural, sistemática y positiva. Algunas preguntas tradicionales de la gnoseología pueden reelaborarse así: ¿cómo es posible el conocimiento en primera/segunda/tercera persona? Y esto sugiere esta otra reelaboración: ¿cómo determinar si una proposición en primera/segunda/tercera persona es verdadera?
*Algo interesante acerca de la distinción entre «ver» y «ver que», es que si bien ambas expresiones permiten construir proposiciones, por ejemplo «Newton ve una manzana» y «Newton ve que eso es una manzana», solo la segunda permite construir proposiciones con otras proposiciones dentro de sí («eso es una manzana»). La primera, en cambio, solo construye proposiciones a partir de palabras que por sí mismas no tienen valor de verdad («una manzana»). Es por eso que al presentar esta distinción, no se la puede ilustrar como la diferencia entre «ver ''p''» y «ver que ''p''», pues nunca se da el caso de «ver ''p''», pues nunca vemos proposiciones. Esta distinción y sus parientes («percibir» y «percibir que», etc.) me parecen de las más profundas e importantes de la filosofía toda, pues están estrechamente relacionadas con la teoría del conocimiento y la ontología. Además son claras, tajantes y generales (sin excepciones, hasta donde sé) y tienen la ventaja de ser pasibles de un análisis lógico.
*Cuando se trata de conocimiento proposicional, se dice que el conocimiento implica verdad. Cuando se trata de conocimiento directo, en cambio, se debería decir que el conocimiento implica existencia. Si yo sé que ''p'', entonces ''p'' es verdadero. En cambio, si yo conozco París, entonces París existe. Por otra parte, la aproximación correspondentista a la verdad, el que yo sepa que ''p'' también implica la existencia de aquello de lo cual se está hablando. Por ejemplo, si yo sé que París es la capital de Francia, se sigue que París existe.
*Para resolver el [[w:Problema de Gettier|problema de Gettier]] hay que abandonar la postura de que el conocimiento tiene que estar justificado. Para conocer, basta con una creencia verdadera. Un problema con esto es que da el título de conocimiento a lo que se suele llamar «suerte epistémica». Esto es, a las creencias que creemos sin una buena razón, pero que por casualidad resultan verdaderas. Esto es, por supuesto, intolerable, pero ahora viene la segunda parte de mi idea, que de alguna manera arregla esta incomodidad. En la lógica del conocimiento, llamada lógica epistémica, es un axioma bastante aceptado el que, si uno sabe algo, entonces sabe que sabe ese algo (Kp → KKp). Mi propuesta es negar este axioma, negar que cuando uno sabe algo, entonces sabe que lo sabe. Esto no es tan descabellado como al principio puede parecer. A fin de cuentas, ¿alguna vez pudimos estar completamente seguros de que una creencia que tenemos es verdadera? Hasta la ciencia más estricta se ha equivocado una y mil veces. Podemos creer en algo, y tal vez esa creencia sea verdadera, pero nunca lo vamos a saber. Si es verdadera, entonces es conocimiento. Si no es verdadera, entonces no es conocimiento. Y eso es todo lo que hay para decir sobre el asunto. En cuanto al lugar de la justificación, sostengo lo siguiente: tener razones para sostener una creencia siempre es bueno, porque aumenta las posibilidades de que esa creencia sea verdadera (del mismo modo que los casos particulares brindan apoyo a las proposiciones universales). Pero por muchas razones y justificaciones y casos particulares que tengamos, nunca será suficiente para que podamos concluir que nuestra creencia es verdadera, que tenemos conocimiento. El conocimiento del conocimiento es inalcanzable, tanto como lo son las proposiciones universales a partir de las particulares.
*¿Qué es la certeza? ¿Cuál es la diferencia entre el conocimiento y la certeza? Se dice que la certeza es conocimiento del que se está absolutamente seguro, del que no cabe ninguna duda. Pero entonces, esto implica la posibilidad de que haya conocimiento no seguro, del que sí quepa alguna duda. Pero esto es ridículo: el conocimiento no viene por grados (al menos en su concepción clásica). Entonces quizás la certeza sea una creencia sobre la que no se abriga ninguna duda: una creencia de grado 1. Las creencias si vienen por grados. Pero si la certeza fuera una creencia de grado 1, entonces habría que decir que un fundamentalista religioso, si está dispuesto a morir por una creencia (y por lo tanto la cree con grado 1), tiene certeza de esa creencia. ¿Es este el sentido intuitivo de certeza? ¿Acaso decimos: tal persona tiene la certeza de que tal dios existe? La pregunta clave es: ¿puede ser que haya certeza, y a la vez error? Si alguien puede tener certeza con respecto a algo, y a la vez estar equivocado, entonces está claro que la certeza es un grado de creencia, no de conocimiento.
*Una condición adicional que a veces se exige para pasar de la creencia verdadera al conocimiento es «si ''p'' no es el caso, entonces ''s'' no cree que ''p''». En el caso de la manzana de Newton, como la manzana real estaba dentro de la manzana de cera, entonces es de esperar que si la manzana real no estuviera dentro de la de cera, esto no cambiaría en nada la creencia de Newton. Luego, dada esta tercera condición, el caso de la manzana de Newton queda excluido como conocimiento. Habría que ver qué pasa con los demás contraejemplos típicos.
*La percepción de patrones era independiente del sujeto, hasta Kant.
*Meditaciones sobre una silla: podría ser el título de un texto de fenomenología acerca de todo lo que se puede filosofar acerca de un objeto cualquiera, por ejemplo una silla.
*El conocimiento es la causa y la solución de todos los problemas de la humanidad.
*La Internet es la red de redes de computadoras. Por ella se transmite todo tipo de información. La Internet es un mar de información. Entre medio de esa información está el conocimiento. Wikipedia es el mayor y mejor intento por extraer el conocimiento de la información. Pero Wikipedia no GENERA conocimiento. Solo lo compila. Entonces, ¿cuál es la mayor FUENTE de conocimiento, en Internet? ¿Acaso las revistas científicas? ¿Los millones de blogs? Supongo que muchas partes de Internet generan conocimiento.
*Datos < Información < Conocimiento < Sabiduría
*¿Por qué nos cuesta tanto aceptar que el conocimiento tiene límites? ¿Acaso no es transparente el argumento que lleva al trilema de Münchhausen (o Agripa)? Que la razón y el conocimiento tienen límites parece casi una cuestión de lógica elemental: no se puede producir una justificación última, no se puede definir todo. Esto vale incluso en las ciencias formales, ¿por qué no habría de valer en las otras ramas del conocimiento?
 
== Teoría de juegos ==
 
* Existen varios fenómenos sociales que se pueden modelar con teoría de juegos: el [[w:Panóptico|panóptico]], el dilema del prisionero, la mano invisible, el [[w:Juego de la gallina|juego del gallina]], etc. Trabajos como ''One for all: The logic of group conflict'', de Russell Hardin, parecen ir en esta dirección. Sin embargo, la teoría de juegos solo sirve cuando la ordenación o cardinalización son evidentes y no hay que forzar nada.
*En relación al [[w:Juego del ultimátum|juego del ultimátum]], se me ocurre que si las cantidades en juego fueran mucho más altas de lo que normalmente se tiene, entonces los jugadores seguramente actuarían de manera más racional. Por ejemplo, si la cantidad a dividir fueran diez millones de dólares, en vez de diez dólares, entonces es plausible que si el jugador que propone la división ofrece dos millones al otro jugador, el otro acepte. De hecho, esta tendencia probablemente sea común a todos los juegos. Es decir, a medida que las recompensas se vuelven más extremas, los jugadores tenderán a jugar más racionalmente. Esto puede tener que ver con la observación epistémica que subyace al invariantismo sensible, de Jason Stanley. Esta observación es que cuando hay mucho en juego, mucho que ganar o mucho que perder, si esta ganancia o pérdida dependen de saber o no saber algo, entonces los estándares de evaluación del conocimiento serán muy elevados, porque hay mucho en juego. Pero si en cambio no hay mucho en juego, entonces los estándares epistémicos se relajan.
 
== Economía ==
 
* Ser y parecer: en el mercado, la esencia es apariencia.
* El ''homo economicus'' cotidiano es miope.
* La historia del dinero me parece un ejemplo perfecto de evolución y selección cultural.
* Los datos sugieren que el espíritu del capitalismo es exponencial. La acumulación del capital se asemeja a una espiral que gira y crece exponencialmente en torno al tiempo.
*Modo de producción, medios de producción, relaciones de producción: es posible que estas categorías sean tan útiles para el estudio de la sociedad porque «modo», «medios» y «relaciones» son palabras a la base de nuestra ontología.
*El minimalismo es incompatible con el consumismo.
 
== Biología ==
 
* Quizás se pueda formalizar el proceso de selección natural así: sea la función Selección(''x''), o S(''x''), una función que toma un conjunto de entidades y devuelve un subconjunto de ese conjunto compuesto por todos los elementos que cumplen con cierta condición. El criterio de selección puede ir variando: por ejemplo, S(''x'') puede ser: S(''x'') = { ''y''∈''x'' : ''y''<10}. Es decir, S(''x'') toma un conjunto ''x'' (quizás de números) y devuelve un subconjunto de ''x'' compuesto por todos los elementos menores que 10. Así por ejemplo: S({3,4,10,12}) = {3,4}. Generalizando, S(''x'') = { ''y''∈''x'' : ''P''(''y'') }, donde ''P'' es una propiedad cualquiera (esta idea es la misma que expresa el axioma de comprensión de ZFC). Esta función captura la idea de selección, que se puede deber al ambiente (selección natural), a los hombres (selección artificial), o a otras cosas (selección cultural, por ejemplo). Los otros dos elementos importantes del proceso de selección natural son la variación aleatoria y la herencia. Estos aspectos también se pueden capturar mediante una función. La función debería tomar una entidad y devolver otra (la descendencia de la primera) con las mismas propiedades, pero ocasionalmente alguna distinta.
* Quienes argumentan que la autoconservación es un derecho, e incluso un deber, probablemente lo hagan desde la intuición de que es un instinto natural y necesario. Sin embargo, no es ni lo uno ni lo otro. No es cierto que las criaturas nacen natural y necesariamente con un instinto de supervivencia, sino que aquellas criaturas que no nacieron con ese instinto, ya no están entre nosotros. Probablemente hubo varias criaturas con mutaciones suicidas, por así decirlo, pero que por supuesto no sobrevivieron. De modo que el instinto de supervivencia no es natural ni necesario. De hecho, dado que la supervivencia tiene un factor azarozo, podría ser, en algún mundo posible, que todas las criaturas que haya carezcan, aunque sea extremadamente improbable, del instinto de supervivencia. En tal mundo, nadie argumentaría que tal instinto es un derecho o un deber, al menos no en base a su necesidad y naturalidad.
*Es increíble que tras más de cuatro mil millones de años de evolución bajo el Sol, todavía hoy la mayoría de los organismos no lo sobreviven. Muy pocos (si es que alguno) son capaces de vivir constantemente bajo el Sol. Claro que muy pocos lugares (si es que alguno) tienen Sol constante todo el día todos los días del año, pero eso no cambia el hecho (probable) de que sería una gran ventaja evolutiva poder sobrevivir al Sol sin descanso. Y sin embargo (¿casi?) ningún organismo tiene esa capacidad. Esto demuestra el enorme poder del Sol.
*Los sueños son simulaciones que nuestro cerebro corre mientras dormimos. ¿Para qué corre esas simulaciones? Quizás para aprender de ellas. Pero, ¿qué se puede aprender, si no son situaciones reales? Se puede aprender la reacción que tendría si se dieran determinadas situaciones, o situaciones análogas, o situaciones parecidas en algún sentido. Hay muchas razones para querer hacer eso, pero la más práctica es para aprender de sí mismo, para aprender a predecirse mejor, y por lo tanto para aprender a evitarlo cuando sea necesario. Si uno fuera un actor, esas simulaciones también podrían ayudar a conocer nuestras propias reacciones.
*El deseo de romper con los padres, y por lo tanto, el deseo de los jóvenes de romper con la generación anterior, es una característica evolutiva (''evolutionary treat'') que fue seleccionada para mantener a la especie en constante cambio.
*La especie humana, por ser la primera en alcanzar un cierto entendimiento acerca de la evolución, tiene y tendrá una excelente ventaja evolutiva por sobre las demás especies. Sin embargo, con el tiempo, si de verdad es una ventaja, nuevas variedades y luego nuevas especies inevitablemente surgirán, y algunas tendrán ventajas evolutivas sobre otras. Muchas de esas ventajas serán mejoras cerebrales, muchas de las cuales serán seleccionadas en contra. Así, eventualmente, los seres humanos pasarán a la historia de la evolución como la especie con el cerebro más primitivo que pudo comprender en alguna medida la su propio origen. A menos que controlemos la evolución humana. Hoy ya es una realidad, aunque incipiente. Cuando los humanos puedan producir mutaciones a voluntad, controladas, y tales mutaciones se hereden y entren así a la pileta genética, ya la selección natural estará controlada, o al menos si se vuelve práctica corriente. Tras ese punto, la humanidad ya no sufre (ni se beneficia de) la selección natural.
*Un cerebro es una computadora con una lógica sin supuestos, esculpida por la selección natural. El diseño del cerebro no tiene supuestos lógicos.
*Así como las células y bacterias se conectaron entre sí mediante neuronas en una entidad que hace muchas cosas pero sobre todo sobrevive, del mismo modo los humanos nos estamos interconectando mediante cables en una entidad que hace muchas cosas pero sobre todo ¿sobrevive? Y algún día, lo mismo podría pasar a nivel interplanetario, o interestelar, o intergaláctico, o interuniversal.
 
== Metodología ==
 
* Una metáfora puede arrinconar e iluminar un problema, ¿pero resolverlo? ¿Puede la metáfora ser un método? Imposible. Para hacer una metáfora, para decir que esto es como aquello, debo tener alguna precomprensión de los entes que comparo. Una metáfora no enseña el ente, pero lo ilumina con nuevas luces.
*En relación al ''cogito'', ¿es posible dudar de la imaginación o la memoria?
*Aunque la ilustración de Descartes dentro de una botella de Klein (por K. N. Pepper) es muy sugestiva, el ''cogito'' se representa mejor con Descartes dentro de una botella vacía y cerrada.
*No hay que subestimar el poder de las ciencias formales. La historia provee amplia evidencia sus aplicaciones en filosofía y ciencia. La lógica de predicados recibió varias aplicaciones filosóficas directas, incluyendo una objeción al argumento ontológico clásico para la existencia de Dios (mostrando que la existencia no es una propiedad, sino un cuantificador), la teoría de las descripciones de Russell, y la teoría de la explicación científica de Hempel. Algo parecido sucedió con la lógica modal, que permitió elucidar la naturaleza de las propiedades esenciales, las causas, y además dio origen a otras nociones útiles como los designadores rígidos. Es probable que se encuentren o que ya existan aplicaciones de igual importancia para otras lógicas menos principales, como la lógica temporal, epistémica, doxástica y deóntica. Con respecto a los fenómenos que todavía no se estudian con herramientas formales, quizás la mejor estrategia sea desarrollar las herramientas formales hasta que alcancen. Esta observación se aplica, en primerísimo lugar, a la filosofía. Los desarrollos en lógica de los siglos XIX y XX son evidencia de una revolución formal que —tengo pocas dudas— tarde o temprano habrá de dominar a toda la filosofía. Mi estrategia es, por lo tanto, concentrarme en desarrollar esas herramientas, y no ocuparme tanto de los asuntos filosóficos en sí, hasta tener las herramientas adecuadas. Quizás sea tiempo de llevar la filosofía analítica un paso más allá, y proponer sin reservas una filosofía formal (y ya se habla de una epistemología formal).
*Algunas preguntas deben ser plantadas.
*La búsqueda de brevedad y claridad tiene enormes consecuencias de estilo.
*¿Hasta qué punto la filosofía no puede ser empírica? Si en el futuro se pudiera construir una computadora que sea análoga a un cerebro humano, ¿no se habrían resuelto varios problemas gnoseológicos? Por ejemplo, aquella pregunta de cómo son posibles las representaciones de objetos concretos, tal vez se responda cuando una computadora logre hacer lo mismo. Si un robot avanzara con una cámara, haciéndose representaciones de lo que ve, interpretándolas y reaccionando como cualquier humano, ¿no diríamos que el problema gnoseológico correspondiente está resuelto? Este tipo de razonamiento me lleva a pensar que la ontología sí puede preceder a la gnoseología. Si logramos construir una máquina que conozca como nosotros, entonces la pregunta de cómo es posible el conocimiento quedaría respondida por nuestro conocimiento de qué es esa máquina (las partes que la componen, sus relaciones, etc.). Hay una cierta circularidad, es cierto, pero me parece que nadie diría que no podemos saber lo que la máquina es, hasta que no tengamos una teoría del conocimiento lo suficientemente buena. ¿Pues acaso no basta con haberla construido? Tal vez se diga que si bien sabemos cómo hacer la máquina, aún no sabemos qué es la máquina, pero de aquí se sigue que si bien no sabemos qué es el conocimiento, sí sabemos cómo producir conocimiento.
*Si los medievales arrastraron las barbas de Platón, nosotros arrastramos las de Occam.
*Una actividad a la vez.
*Organizar Wikipedia es también una manera de organizar mi mente.
*Algunos pensamientos vienen en español, otros en inglés. A veces cometo el error de traducirlos, pero puede haber una razón detrás de que "el pensamiento original" haya venido en determinado idioma y no otro. Nunca más. Además es una manera conveniente de no tener que decidir cada vez si escribir en inglés o español.
*Casi toda forma de publicación es vanidosa. Si alguna vez publico algo, será algo que realmente valga la pena, y no solo un artículo más entre miles. Y si nunca publico nada, al menos no habré contribuido a la pila infinita de papers inservibles y discusiones eternas con poco o ningún sentido. Estamos en una época de sobrecarga de información y creo que la única manera de combatirla es colaborando en crear pocos trabajos, en vez de cada uno agregar el suyo. Es decir mediante wikis.
*La verdad es la mejor fuente de elocuencia.
*La rutina es la clave del éxito.
*En cualquier habilidad hay una curva de rendimiento decreciente. Un momento tras el cual cualquier mejora lleva mucho tiempo. Por lo tanto, para obtener el mayor beneficio, conviene obtener la mayor cantidad de habilidades posibles, hasta ese punto.
*Uno de mis mayores obstáculos para continuar aprendiendo es que a veces olvido lo que ya aprendí! Tomar nota ayuda, pero sólo por un tiempo después de releerlas. Y no las releo muy seguido. Y no siempre tomo nota.
*Las ideas más íntimas no se escriben, se recuerdan.
*En este momento histórico particular, es más importante la difusión del conocimiento, que su producción.
*Tengo demasiadas ideas como para poder realizar todas. Tiene que ver, supongo, con la sobrecarga de información, aunque sin duda otra gente de otros tiempos tuvo el mismo problema. En cualquier caso, la solución es elegir unas pocas, las más valiosas, y realizar esas. O quizás compartir todo, para que personas con menos ideas las realicen.
*Quizás haya que dejar de hablar de ideas, y empezar a hablar de memes. Pero meme es un concepto más general que idea. Todas las ideas son memes, pero no todos los memes son ideas.
*Valores metodológicos: honestidad, sinceridad, introspección...
*El método científico como buenas prácticas
 
== Filosofía del lenguaje ==
 
* ¿Cómo se formula el problema del significado? ¿Acaso con la pregunta «¿qué es el significado?», o «¿qué significa el significado?»? Formular el problema de manera clara y precisa es una condición necesaria para su resolución.
*¿Cómo es posible que se utilicen marcas y ruidos para describir, pedir, valorar, etc? En un sentido, todos los lenguajes no son más que cosas físicas. Tenemos el lenguaje hablado, que consta de ruidos que salen de nuestras bocas. Tenemos el lenguaje escrito, que consiste en manchas en el papel u otros medios. Estas son las dos formas clásicas de expresión del lenguaje, pero también existen otras: por ejemplo lenguajes de señas o braille, y también es posible concebir otros: a través del olfato, del gusto, el tacto, etc. En principio, todo lo que se necesita son dos marcas distintas para dar lugar a un nuevo lenguaje. Incluso se podrían combinar marcas perceptibles por sentidos distintos: por ejemplo, una podría ser un sonido, y la otra un toque en el brazo. El segundo elemento del misterio es el intérprete. Sin alguien que interprete las marcas, éstas no serían más que manchas de tinta, sonidos en el aire, relieves u olores cualquiera. Y el tercer elemento, es el mundo. Ahora estoy pensando que, aunque suene ridículo, quizás el mundo no sea estrictamente necesario para que haya significado. Quizás baste con las marcas y el intérprete para poder decir algo (acerca de las marcas y del intérprete mismo, por supuesto). Quizás las ciencias formales se ocupen justamente de lo primero, y la fenomenología de lo segundo. Pero en cualquier caso, la gran mayoría de lo que decimos es acerca del mundo. Estos son los tres elementos del problema del significado.
*En la naturaleza no existen las flechas. El significado parece unir a los signos con la naturaleza, pero, ¿cómo están separados?
*¿La estatua es al bronce como el signo es a la tinta? ¿Es el mismo tipo de relación?
*El significado es una relación entre al menos tres partes: el lenguaje, el intérprete y el mundo. Otro elemento que quizás sea necesario es el contexto, y quizás también una comunidad de hablantes o intérpretes, como argumentó Wittgenstein.
*¿Cuál es la relación entre el lenguaje y el mundo? Las nociones de significado y referencia no son más que teorías para intentar explicar esta relación, y por lo tanto podrían estar conduciéndonos en una dirección equivocada. Esto, a menos que «referencia» y «significado» sean los nombres para las relaciones. Nunca hay que perder de vista la pregunta fundamental.
*Quizás el significado de distintos tipos de palabras se deba determinar con teorías distintas. Por ejemplo, el de los nombres con una teoría, el de los predicados con otra, el de las expresiones sin valor de verdad con otra, etc. Una teoría unificada del significado quizás sea demasiado. Por ejemplo, que el significado de toda expresión sea su uso.
*El ciego que cruza la calle cuando le digo que el semáforo está en rojo, ¿entiende lo que significa «rojo»? O mejor: ¿entiende lo que significo con «rojo»? Creo que Wittgenstein diría que en ese juego de lenguaje, sí entiende.
*Wittgenstein sugiere no solo que el significado es el uso, sino que usar una palabra es la única manera de saber si la entendemos. ¿Pero acaso la segunda tesis no implica la primera?
*Según Wittgenstein, el significado de un dibujo de mi casa, como el de la palabra «casa», no es mi casa.
*La palabra «pata» puede significar una parte de un animal, o un animal completo. ¿La ambigüedad en esta palabra es análoga a la del dibujo del pato-conejo?
*Quizás ayude a pensar el problema del significado la relación entre las pinturas y el mundo, y no solo entre las palabras y el mundo. ¿Una teoría del significado debería explicar también la relación entre las pinturas y el mundo?
*En la expresión «forma de vida» (''Lebensform'') de las ''Investigaciones filosóficas'' hay una alusión a la expresión «forma lógica» (''Logische Form'') del ''Tractatus logico-philosophicus''.
*Wittgenstein no es más que el más moderno expositor de la antigua filosofía: son todos unos charlatanes.
*<nowiki>:</nowiki>) :-) :( ;) — No hay ninguna característica que todas estas caras compartan, y sin embargo están emparentadas, forman una «familia».
*Los sustantivos y los verbos son dos universales del lenguaje. ¿Por qué? Hay quienes sugieren que son herencia de algún lenguaje primitivo, antepasado común de todos los lenguajes. ¿No habrá una explicación más metafísica?
*La estructura que de una oración depende de los fines con los que se lo analiza. Si es para descubrir patrones de razonamiento, entonces se le dará cierta estructura. Si se analiza un argumento con fines, digamos, poéticos, entonces la estructura será más bien silábica o fonética. No es obvio que la forma lógica de una oración sea su estructura real.
*En la ''truth-conditional semantics'' (de la variedad que recurre a mundos posibles) las expresiones que no tienen valor de verdad se pueden interpretar así: Fulano entiende el significado de la expresión «¡auxilio!» si y solo si Fulano sabe en qué mundos posibles es verdad que alguien solicita auxilio. Si entendí más o menos bien esta teoría, el significado de una expresión sería una función que va de la expresión hasta el conjunto de mundos posibles donde esa expresión es verdadera. La pregunta es cómo los hablantes saben a qué conjunto de mundos posibles mapear las expresiones.
*En relación al problema de la inescrutabilidad de la referencia que introdujo Quine, observo que la situación es similar a la de la interpretación de los símbolos primitivos en los sistemas axiomáticos. Quiero decir, que así como con los axiomas de Peano, por ejemplo, existe una cantidad potencialmente infinita de interpretaciones que a la vez son modelos, en la situación que propone Quine, también, el problema es que existen infinitos referentes posibles de «gavagai», todos los cuales pueden dar sentido al comportamiento de los nativos. Esta analogía me resulta muy iluminadora, y también sugiere la posibilidad de llevar algunos resultados de la teoría de modelos al campo de la teoría de la referencia, o incluso al de la teoría del significado.
*Hay una cierta semejanza entre el problema del significado y el problema mente-cuerpo: ambos se preguntan por la relación entre dos tipos de entidades que parecen ontológicamente distintas. Pero mientras en el problema mente-cuerpo predomina el monismo, en el problema del significado predomina el dualismo: por un lado el significado, por otro lado el mundo.
*Como objeción a la teoría causal de la referencia de Kripke, no todo lo que hoy tiene nombre recibió un «bautismo». Por ejemplo, el nombre «Acrópolis» refiere a una parte específica de la ciudad de Atenas, pero antes era una descripción definida que significaba «ciudad alta». No fue sino por un proceso gradual y probablemente inconsciente que pasó a ser un nombre propio. (Si en este caso me equivoco, y la Acrópolis sí recibió un bautismo, entonces es verosímil que haya otros muchos casos en donde mi argumento se sostenga.)
*Está claro que la oración «todos los hombres son mortales» tiene sentido y la comprendemos. Pero la oración «todos los hombres son grelatos», ¿tiene sentido? ¿La comprendemos? La oración no es un balbuceo azaroso, a diferencia de «grien les lemio nes aro». Además, puedo enunciar las condiciones de verdad de la oración: «todos los animales son grelatos» es verdadera si y solo si todos los animales son grelatos. Pero si no sé lo que es un grelato, ¿cómo puedo saber si estoy frente a un caso que refuta o corrobora la afirmación? Según la ''truth-conditional theory of meaning,'' ¿comprendemos la oración? ¿Tiene sentido? ¿Y qué pasa con la oración «todas las prialas son riletos»? ¿Tiene sentido? ¿La comprendemos? De nuevo, yo puedo decir que la oración es verdadera si y solo si todas las prialas son riletos; pero no tendría idea de cuándo estoy frente a una priala que además es un rileto. Y sin embargo, la oración no es todavía un balbuceo azaroso. Esto me recuerda el capítulo de Rayuela donde Cortázar cuenta una breve historia usando una cantidad de palabras inventadas, y el lector va deduciendo la historia por la estructura del texto y la repetición de palabras.
*Desviarse de las convenciones lingüísticas es costoso. La persona que se desvía entiende al resto, pero el resto no la entiende a ella, y a la larga sale perdiendo, pues los seres humanos dependen de los demás.
*Mientras que la expresión «Pegaso» refiere a un cierto animal mitológico, la expresión «'Pegaso'» (con dos pares de comillas) refiere a la palabra «Pegaso». En el segundo caso, como la referencia es de palabras a palabras, el análisis del significado debería resultar algo más fácil. Así por ejemplo, la oración «'Pegaso' tiene seis letras» es verdadera si y solo si «Pegaso» tiene seis letras. En cambio, la oración «Pegaso tiene cuatro patas» es verdadera si y solo si Pegaso tiene cuatro patas. La verdad o falsedad de la primera oración la puede determinar una computadora.
*En [[w:Lógica intensional|lógica intensional]], el significado de un predicado es el conjunto de todas las entidades a las que aplica ese predicado, en todos los mundos posibles. Es decir: si yo sé qué entidades son rojas, no solo en este mundo, sino en todos los mundos posibles, entonces sé qué significa rojo. Sin embargo, hay algunos predicados que aplican a exactamente las mismas entidades en todos los mundos posibles, pero que sin embargo difieren en significado. Por ejemplo, los predicados de «figura de tres lados» y «figura de tres ángulos». Pero los predicados matemáticos (y la matemática en general) son siempre un caso muy excepcional, que quizás se pueda analizar de otro modo. ¿Existe algún predicado no matemático que aplique necesariamente a las mismas entidades en todos los mundos posibles? Creo que no.
*Si el significado de una oración se puede definir como la función que va de la oración (¿caso?) al conjunto de todos los mundos posibles donde es verdadera, entonces una proposición se puede definir como el conjunto de todas las oraciones con el mismo significado. Por ejemplo, ''p'' significa { ''a''=''b'', ''b''=''a'' }
*¿A qué refiere la palabra «e», cuando la usamos en el sentido del nombre de la letra del abecedario? Parece que la palabra «e» refiere a «e», y por lo tanto hay una autorreferencia: «e» es el nombre de «e». Esto sugiere una distinción entre «e» como palabra y «e» como letra, de modo que la palabra «e» sea el nombre de la letra «e». Si el nombre de la letra «e» hubiera sido otro (por ejemplo «épsilon»), tal nombre no referiría a sí mismo. Esto quizás implica que «e» no es el nombre de sí mismo, sino de otra cosa: la letra «e». ¿La palabra «e» no es un [[w:Designador rígido|designador rígido]]?
*Así como las herramientas son algo más que la madera y el metal que las componen, así también los signos son algo más que la tinta que hay sobre el papel, o los ruidos que salen de mi boca. Pero lo que hace que una herramienta sea algo más que madera y metal parece ser su uso, mientras que con los signos, decimos que lo que los distingue de las manchas de tinta y de los ruidos, es que tienen significado. Algunos autores, como Wittgenstein, intentaron unificar estas dos explicaciones, reduciendo el significado al uso, y en consecuencia considerando a los símbolos como herramientas.
*En el paso de la materia a la energía se da el paso de la tinta al significado. Pensar el caso de las computadoras.
*El nombre «Pegaso» podría no referir a una entidad, sino a un conjunto de predicados o descripciones (entidades lingüísticas). Así pues, cuando escribimos ficción, no creamos entidades con propiedades, pero sí creamos nombres y les asignamos predicados.
*Sean ''p'' y ''q'' dos oraciones cualquiera, S(''x'') una función que se lee «el significado de ''x''» y V(''x'') otra función que se lee «el valor de verdad de ''x''». Luego: S(''p'')=S(''q'')→V(''p'')=V(''q''). Lo converso obviamente no se sostiene. Conocer el significado de ''p'' implica conocer el conjunto de mundos posibles donde ''p'' es verdadera, o más formalmente: KS(''p'') → K{ ''w'' : M(''w'',''p'') = 1 }.
*El significado es una función que toma como uno de sus argumentos (puede tener otros) expresiones caso. El lenguaje se presenta en forma hablada, escrita, etc. Uso la palabra «expresión» para referir a cualquier manifestación particular del lenguaje. Cuando digo «llueve» y luego vuelvo a decir «llueve», tenemos dos casos distintos de una misma oración-tipo con un mismo significado. Sin embargo, si dos personas distintas dicen «llueve», no es tan obvio que el significado sea el mismo. De modo que, si queremos una teoría general, debemos decir que la función toma casos y no tipos. En segundo lugar, el valor que la función devuelve para expresiones como «llueve» es un estado de cosas. Otras expresiones seguramente tendrán como valor otro tipo de entidades. Por ejemplo, dudo mucho que el valor de una expresión como «gracias» sea un estado de cosas. Pero no dudo que su significado se pueda analizar como una función que toma como uno de sus argumentos a la expresión caso «gracias».
*Si la teoría del significado por condiciones de verdad tiene una definición matemáticamente satisfactoria en términos de conjuntos y mundos posibles, entonces la categoría ontológica del significado sería la misma que la de los conjuntos y los mundos posibles.
*En las teorías formales, y por extensión en las teorías científicas, hay mucha semántica, pero no hay lugar para la pragmática.
* Hay muchas expresiones cuyo significado parece exclusivamente pragmático, por ejemplo «¡auch!», «¡ey!», «che», etc.
* Existen expresiones mixtas, con una dimensión semántica y otra pragmática, por ejemplo «hace frío» no solo describe un estado de cosas, sino que también puede ser un pedido para que cierren las ventanas. En este caso, tal vez la expresión no está siendo usada, sino mencionada. Decir «hace frío» sería, en este caso, como sacudir el cuerpo exageradamente imitando un calosfrío.
* El significado de las expresiones como «dame el paraguas», ¿se debe explicar por medio de la pragmática, la semántica, o qué? Según Edwin Mares, no hay razón para limitar el alcance de la semántica a las expresiones con valor de verdad, y hay maneras semánticas de abordar el significado de expresiones como «dame el paraguas». Sin embargo, definir a la semántica como el estudio del significado de las expresiones con valor de verdad, y a la pragmática como el estudio del significado de las expresiones sin valor de verdad, es prolijo y preciso.
*¿Una teoría del significado debería tener consecuencias prácticas en la pedagogía de la enseñanza del lenguaje? Y la pedagogía de la enseñanza del lenguaje, ¿no puede informar también una teoría del significado?
*Si alguien me pregunta el significado de la palabra «tiza», puedo responder con algo como «una tiza es algo se usa para escribir en una pizarra». Aunque esta descripción sea imprecisa e incorrecta en varios respectos, en general alcanza para que cualquiera que pregunte entienda lo que es una tiza. Pero si quien pregunta está aprendiendo español, y apenas sabe cómo preguntar lo que significa una palabra, entonces mi explicación no alcanza, porque no entiende ninguna de las palabras de la misma. En ese caso, una opción es mostrar una tiza y decir «tiza». Pero si mi interlocutor entonces señala la pared, que es blanca, y pregunta «¿tiza?», es obvio que no me entendió bien, y que pensó que «tiza» refiere al color blanco. Para resolver la cuestión, yo podría señalar la pared y decir «no tiza». Pero supongamos que luego mi interlocutor agarra un cigarrillo y pregunta «¿tiza?». En este caso, uno pensaría que entendió que «tiza» significa algo así como «cilindro». De modo que quizás baste con indicarle que eso tampoco es una tiza. Sin embargo, qué tal si mi interlocutor toma un lápiz y pregunta «¿tiza?». Otra vez, parece que la explicación por descarte no terminó de funcionar, y que mi interlocutor entendió que «tiza» significa algo así como «cosa para escribir». Supongamos que le indico que eso no es una tiza, pero que luego el aprendiz toma una tiza de otro color, la señala y dice «¿no tiza?». Esta vez, uno pensaría que entendió que «tiza» significa tiza blanca. Entonces yo, armándome de paciencia, podría tomar esa tiza y afirmar «tiza». ¿Pero terminará alguna vez este proceso? En esencia, creo que la tesis de la inescrutabilidad de la referencia viene a decir que no a esa pregunta.
*La filosofía es básicamente desatar nudos. Muchos son nudos de lenguaje, pero no todos.
 
== Filosofía de la ciencia ==
 
*Kemeny y Oppenheim decían que el rol de las teorías no es darnos nuevos hechos, sino organizarlos (ver ''[https://www.iep.utm.edu/red-ism/ Reductionism]''). Sin embargo, ¿cómo explican que algunas teorías hayan permitido descubrir nuevas entidades, como Neptuno o los nuevos elementos químicos?
* Los problemas formales con las definiciones reductivas de los términos disposicionales (aquellos de los empiristas lógicos) se pueden resolver con ayuda del condicional estricto. Por ejemplo, el término disposicional «frágil» se puede definir así: ''x'' es frágil sii es necesario que si ''x'' se golpea, ''x'' se rompe. El único problema formal que conozco con el condicional estricto es cuando en el consecuente hay una proposición necesaria. Pero esto aquí no puede ocurrir, porque los condicionales para definir términos disposicionales son proposiciones empíricas de ciencias empíricas.
* Quizás se pueda dar una caracterización satisfactoria de la noción de «verdad aproximada» para el debate realismo-antirrealismo por medio de la lógica difusa. Si V(''x'') es el grado de valor de verdad de ''x'', y el dominio son las distintas teorías astronómicas, entonces V(Ptolomeo) < V(Copérnico) < V(Kepler) < V(Newton) < V(Einstein). Claro que afirmar esto no nos dice nada sobre cuanto más verdadera es una teoría que otra, ni cuán cerca está cada una de la verdad absoluta. Pero es una manera matemáticamente precisa de decir lo que se entiende por progreso. Además, decir que una teoría es aproximadamente verdadera se puede entender como que su grado de valor de verdad es mayor a 0,5.
* Una diferencia entre los «sistemas naturales» y los «sistemas artificiales» es: si yo en el ajedrez dijera algo como «descubrí que los caballos se convierten en reina cuando llegan a la última linea de casillas del oponente», todos dirían que es absurdo. Pero si digo «descubrí que tal sustancia se transforma en tal otra cuando lo mezclo con tales otras», o algo por estilo, podría ser un descubrimiento científico. Sin embargo, en el ajedrez es posible hacer descubrimientos. Por ejemplo, en algún momento se descubrió el algoritmo para hacer jaque mate con una torre y el rey. Este descubrimiento es un descubrimiento, parece, no de una regla, sino de una consecuencia lógica de las reglas.
*Al caracterizar la relación de accesibilidad física, hay que tener en cuenta lo siguiente: un mundo posible ''w'' solo tiene acceso físico a otro mundo posible ''v'' si (¿sii?) ''w'' y ''v'' tienen las mismas leyes físicas y ''w'' constituye las condiciones iniciales de ''v''.
*Ninguna regularidad del universo es necesaria, porque el universo mismo es contingente.
*Las teorías matemáticas encuentran aplicación en el mundo físico porque ciertas entidades, propiedades y relaciones del mundo físico conforman modelos de las teorías matemáticas.
*Todas las verdades matemáticas son implicaciones materiales. Es decir, todas tienen la forma A→T, donde A es una conjunción de axiomas y T es un teorema. Pero una implicación material es verdadera aún si el antecedente es falso.
*Aunque la verdad de 1 + 2 = 3 depende de ciertos axiomas y definiciones, no depende de nada más, y eso incluye la existencia del Universo. Si el Universo no existiera, ¿1 + 2 seguiría siendo 3?
*La forma más respetable de filosofía, es la forma menos respetable de ciencia.
*Una función cuadrática ''f''(''x'') = ''ax''^2 + ''bx'' + ''c'' tiene su eje de simetría en -''b''/2''a''. Por lo tanto, si dividir por 0 fuera posible, las funciones lineales tendrían un eje de simetría allí donde ''a'' = 0. El absurdo de dividir por 0 es, pues, equivalente al de buscar un eje de simetría para ''f''(''x'') = 2''x''.
*Uno de los axiomas de Peano dice que «0 no es el sucesor de ningún número natural». Sin embargo, hay un punto en el desarrollo de la aritmética de Peano en que se pueden introducir por definición los números enteros negativos. Una vez hecho eso, ¿acaso no querríamos decir que 0 es el sucesor de -1? Pero eso contradice al axioma. ¿O basta con decir que -1 < 0?
*A diferencia de Greenwich o de Cristo, el 0 de las matemáticas no es una convención.
 
== Lógica ==
 
* La lógica epistémica quizás se pueda usar para analizar los razonamientos en torno al conocimiento por familiaridad (''acquaintance''), aquel que se expresa por oraciones como «yo conozco a Fulano». Pues no veo ninguna dificultad sintáctica en escribir algo como ''Kab'', es decir: «''a'' conoce a ''b''», en vez de ''Kap'' («''a'' conoce que ''p''»). Podrían surgir dificultades a nivel semántico, pero de todas formas todavía no me convence la semántica estándar de la lógica epistémica.
* Un viejo argumento en contra del solipsismo dice que si yo estuviera solo en el mundo, entonces no se explicaría cómo es posible aprender cosas nuevas. La respuesta directa del solipsista es que yo puedo tener conocimientos de los que no soy consciente, y el aprendizaje no sería más que un cobrar conciencia de estos conocimientos. Pero lo que quiero observar es, que si se aplica ese contraargumento, entonces se está negando explícitamente el principio KK. En consecuencia, el solipsismo es inconsistente con el principio KK.
* Las oraciones normativas se pueden interpretar con ayuda de la noción de «mundo permisible», de manera que, por ejemplo, «es obligatorio que p» signifique: «p es verdadera en todos los mundos permisibles», y así con los demás operadores deónticos, de manera análoga a los operadores modales. El problema recaería, por supuesto, en la legitimidad de la noción de mundos permisibles, pero quizás se pueda argumentar que el problema no es muy distinto al de los mundos posibles. En mi opinión, la noción de mundo posible es más clara e intuitiva que la de mundo permisible, pero no tengo argumentos para defender esta opinión.
* ¿Se puede tratar a la voluntad como un operador modal? Podría ser que la voluntad califique la verdad de las proposiciones como «deseadas», o «queridas». Por ejemplo «quiero que haya comida» califica a la verdad de la proposición «hay comida» como ''querida''. Esta calificación tiene, me parece, un factor temporal. Querer un estado de cosas es quererlo en el futuro, aunque sea un futuro muy cercano.
* Me pregunto si esta definición es correcta: un argumento es un par ordenado, cuyo primer elemento es un conjunto que contiene a todas las premisas, y cuyo segundo elemento es la conclusión, y la relación que ordena al par es la relación de consecuencia lógica.
* Entreveo un argumento en favor o en contra de que los mundos posibles son entidades lingüísticas (descripciones de mundos) que va por el lado de que no podemos tener en cuenta mundos que no podemos describir.
*¿Se puede torcer un argumento circular para que forme una [[w:Cinta de Möbius|cinta de Möbius]]?
*En relación al problema clásico acerca de Venus, Héspero y Fósforo, quizás sea iluminador considerar las siguientes formalizaciones: sea Venus (''v'') un elemento del dominio, e I una interpretación que asigna ''v'' tanto a Héspero (''h'') como a Fósforo (''f''). Luego, \lnot Ki(I(h)=I(f)), es decir, i no sabe que la interpretación de Héspero es idéntica a la interpretación de Fósforo. Esto es concebible, porque I(h)=I(f) no es verdadera bajo todas las interpretaciones. En cambio, I(h)=I(h) sí es verdadera bajo todas las interpretaciones, de modo que Ki(I(h)=I(h)) es un teorema de la lógica epistémica, pero Ki(I(h)=I(f)) no. El problema clásico viene de suponer que lo siguiente es verdad: Ki(I(h)=I(h)) \to Ki(I(h)=I(f)). Pero seguramente puede demostrarse que esto es falso. En esencia, lo que quiero decir es que se puede formular este problema y una solución en lógica epistémica, si se llevan las herramientas del metalenguaje al lenguaje objeto (o en otras palabras, si se teoriza sobre el metalenguaje). En el marco de la ''truth-conditional semantics'', diría que la distinción de Frege entre sentido y referencia puede explicitarse así: v es el referente, I es el sentido.
*¿Cómo formalizar la oración: «Frege sabe que un nombre de Venus es Héspero»? Propongo lo siguiente: K(f,I(h)=v) Es decir: Frege sabe que la interpretación de Héspero es Venus. Esto puede servir para tratar toda una nueva clase de argumentos, de meta argumentos.
*¿Es posible una lógica que conserva la falsedad en vez de la verdad? Y si fuera posible, ¿qué utilidad podría tener? Si logro demostrar alguna relación con la lógica tradicional, tal vez sea una contribución valiosa. Por ejemplo, si mostrara que toda fórmula bien formada o es un teorema de la lógica tradicional, o es un teorema de la lógica que propongo, ¿qué significaría? Tal vez que si se puede demostrar que algo no es teorema en la lógica que propongo, entonces es teorema en la lógica tradicional.
*¿Acaso no sería deseable que la oración «el padre de Abel es padre», cuya formalización obvia es ''Pfa'', sea una verdad lógica? Y sin embargo no lo es.
*Mientras corregía parciales, encontré una versión de la [[w:Paradoja del mentiroso|paradoja del mentiroso]]: uno de los ejercicios decía: «Produzca un argumento deductivamente válido, con premisas falsas y conclusión verdadera». Y un alumno puso entre sus premisas: «Apruebo este examen». Ahora, supongamos que la aprobación del examen dependiera de si ese ejercicio está bien o mal, y más especificamente de si esa premisa es verdadera o falsa. Si lo quiero aprobar, entonces la premisa sería verdadera, el ejercicio estaría mal y el alumno no aprobaría. Pero si el alumno no aprueba, entonces la premisa sería falsa, el ejercicio estaría bien y el alumno aprobaría.
*Hay tres caminos posibles para evitar aceptar la conclusión de un argumento. El primero es mostrar que el argumento no es válido, es decir, que aún aceptando las premisas, la conclusión no se sigue necesariamente de ellas. El segundo es mostrar que alguna de las premisas es falsa, de modo que aunque la conclusión se siga de ellas, no es necesario aceptarla, pues al menos uno de los supuestos es falso. Estos dos caminos a veces se llaman críticas internas. El tercer camino, que a veces se llama crítica externa, consiste en presentar un argumento cuya conclusión sea algo incompatible con la conclusión que queremos rechazar. En tal caso, es obvio que ha de haber algo mal en alguno de los dos argumentos. Pero si nuestro oponente no puede encontrar una falla en nuestro argumento, entonces si bien no estamos del todo justificados en rechazar la conclusión de nuestro oponente, sí lo estaríamos en suspender el juicio y no aceptarla, hasta encontrar una falla en alguno de los dos argumentos.
*Los argumentos complejos son los menos deseables porque pueden fallar en más lugares.
*¿Cuál es la lógica de los razonamientos teleológicos? ¿Se podría desarrollar un sistema formal que capture la lógica de dichos razonamientos? Sin duda sería muy útil para las ciencias sociales. El primer paso sería encontrar un ejemplo paradigmático de razonamiento teleológico.
*A la función que va de proposiciones a valores de verdad, sería natural llamarla juicio. Dice Frege en ''Sobre el sentido y la referencia'': «El juzgar puede ser concebido como un movimiento de avance desde un pensamiento hacia su valor veritativo.»
*Funciones que devuelven oraciones, en vez de valores de verdad. Si los predicados son funciones que aceptan nombres como argumentos, ¿qué clase de valores devuelven? Tengo un predicado cualquiera, «es un planeta», y le doy como argumento un nombre, «Marte». Cuando ambas partes están interpretadas, y le aplico la función al nombre, ¿qué me devuelve la función? ¿Un valor de verdad? ¿Una oración? ¿Una proposición? Creo que Frege decía lo primero, pero otros lo segundo, y supongo que otros lo tercero. A mi, ahora mismo, me parece más razonable lo tercero.
*El método cartesiano se puede pensar como una lógica modal apoyada únicamente en el principio «si A es indudable, entonces A».
*La oración «llueve pero está soleado» será verdadera sii «llueve» es verdadera y «está soleado» es verdadera. La expresión «pero» funciona como la expresión «y», solo que agrega un cierto tono a la relación entre las partes de la oración. Usamos la expresión «pero» cuando lo esperable es que la segunda oración no sea verdadera, y sin embargo lo es. Del mismo modo, en los argumentos, cuando la conclusión esperable es una, pero se da otra, utilizamos la expresión «sin embargo» o «no obstante», en vez de «por lo tanto».
*¿Por qué no se puede pensar a los operadores modales como predicados unarios interpretados (de segundo orden)? Es decir, como algo parecido a la identidad («=»), que se piensa como un predicado binario interpretado (de primer orden). Tal vez tiene que ver con que los operadores modales sirven para calificar el valor de verdad de las proposiciones.
*Existen tres condiciones necesarias para que un agente realize por sí mismo una acción cualquiera: que quiera, que pueda, y que crea que puede. ¿Pero son estas condiciones suficientes, además de necesarias? Si Sócrates quiere beber la cicuta, puede beber la cicuta, y además cree que puede beber la cicuta, ¿se puede concluir que bebe la cicuta? Y si no, ¿qué otra premisa haría falta? Quizás haya que agregar que a Sócrates no encuentra impedimento moral en beber la cicuta, y le interesa cumplir con la moralidad. Podría ser que alguien quiera, pueda y crea que puede hacer algo, pero sin embargo no lo haga porque piensa que es inmoral.
*Una computadora podría realizar «descubrimientos» si se le entrega un conjunto de premisas y se le pide que recorra todas las fórmulas posibles, sacando varias consecuencias de cada una, hasta encontrar una o varias que impliquen las premisas, y luego seleccione la más simple (la que tenga menos constantes lógicas).
*Se podría definir una función que tome como argumento un conjunto de fórmulas y devuelva la fórmula más simple del conjunto. La simplicidad se mediría, probablemente, por el número de pasos que llevó construirla, o en otras palabras por la cantidad de constantes lógicas. Por ejemplo, p&q sería más simple que ~~p. ¿Se podría demostrar que los axiomas de Peano son la axiomatización más simple de la aritmética? ¿O que tal o cual axiomatización de algún sistema lógico es la más simple? Un conjunto de axiomas cualquiera siempre se puede reducir a un único axioma, haciendo la conjunción de todos los axiomas, de modo que dos sistemas axiomáticos cualesquiera se pueden comparar en lo que respecta a su simplicidad.
*¿Habrá algún criterio que permita comparar la simplicidad de interpretaciones? Si fuera posible, entonces se podría establecer un orden de simplicidad en los modelos de una teoría, que permita dar una respuesta al problema que plantea el [[w:Teorema de Löwenheim-Skolem|teorema de Löwenheim-Skolem]].
*Que algo sea irrefutable no implica que sea verdadero, ya que hay fórmulas incompatibles, ambas irrefutables.
*El poder de la edad sobre las creencias (fácticas y morales).
*Una teoría formal es un subconjunto de fórmulas de un lenguaje formal. Luego el conjunto de todas las teorías posibles para un lenguaje formal cualquiera es su conjunto potencia. El conjunto potencia de un conjunto siempre tiene una cardinalidad mayor que el conjunto. Luego, el número de teorías para un lenguaje cualquiera con cardinalidad aleph cero (como todos los lenguaje definidos recursivamente) es mayor a aleph cero.
 
== Música ==
 
*El teclado del piano es una regla. Mide distancias entre notas.
 
[[en:User:Sophivorus/sandbox]]