Ir al contenido

Razonamiento inductivo

De Wikipedia, la enciclopedia libre
(Redirigido desde «Lógica inductiva»)

El razonamiento inductivo o inducción es una forma de razonamiento en que la verdad de las premisas apoyan la conclusión, pero no la garantizan.

Fundamentos

[editar]

Ejemplo clásico

[editar]

Un ejemplo clásico de razonamiento inductivo es:

  1. Todos los cisnes observados hasta el momento han sido blancos
  2. Por lo tanto, todos los cisnes son blancos

En principio, podría ser que el próximo cisne que se observe no sea blanco. En contraste a los razonamientos deductivos, los razonamientos inductivos tienen la ventaja de ser ampliativos, es decir que la conclusión contiene más información de la que hay contenida en las premisas. Dada su naturaleza ampliativa, los razonamientos inductivos son muy útiles y frecuentes en la ciencia y en la vida cotidiana.

Sin embargo, dada su naturaleza falible, su justificación puede ser problemática. ¿Cuándo estamos justificados en realizar una inferencia inductiva, y concluir, por ejemplo, que todos los cisnes son blancos a partir de una muestra limitada de ellos? ¿Qué distingue a un buen argumento inductivo de uno malo? Estos y otros problemas relacionados dan lugar al problema de la inducción, cuya vigencia e importancia continúa desde hace siglos.

Descripción general

[editar]

La lógica inductiva estudia las maneras de medir la probabilidad de que una conclusión sea verdadera, así como las reglas para construir argumentos inductivos fuertes. A diferencia de los razonamientos deductivos, en los razonamientos inductivos no existe acuerdo sobre cuándo considerar un argumento como válido. De este modo, se hace uso de la noción de «fuerza inductiva» que hace referencia al grado de probabilidad de que una conclusión sea verdadera cuando sus premisas son verdaderas. Así, un argumento inductivo es fuerte cuando es altamente improbable que su conclusión sea falsa si las premisas son verdaderas.[1]

Tradicionalmente se consideraba, y en muchos casos todavía se considera, que la inducción es un método «bottom-up», o que «va de lo particular a lo general». Es decir, es una modalidad de razonamiento que, a partir de premisas que contienen datos particulares o individuales, obtiene conclusiones generales. Por ejemplo, a partir de la observación repetida de objetos o eventos de la misma índole se establece una conclusión general para todos los objetos o eventos de dicha naturaleza.[2][3][4]​ Esto, en oposición a la deducción, que sería un método «top-down», o que «va de lo general a lo particular».

Particularidades

[editar]

Sin embargo, esa definición ha caído en desuso. Si con estas definiciones de deducción e inducción se quiere decir que en un argumento inductivo válido las premisas son siempre todas afirmaciones particulares y la conclusión es una afirmación general (esto es, cuantificacional). [5][6]​ Lo anterior, es dado porque es posible tanto enunciar proposiciones inductivas en forma «deductiva»[7]​ como de manera que no corresponden formalmente a lo que clásicamente se consideraba razonamiento inductivo.[8]​ Cuando en este método se parte de algunos casos, la inducción se denomina «incompleta»; por el contrario, cuando se enumeran todas las cosas para llegar a una conclusión general, esta inducción se conoce como «completa».

Consecuentemente, en el presente, «mucho de la inferencia sintética o contingente ahora se toma como inductiva, algunas autoridades van tan lejos como a considerar toda inferencia contingente como inductiva.»[9]​ Véase Juicios analíticos y sintéticos y Peirce en La inducción como probabilidad más abajo.

Muchos consideran que aunque la inducción no se puede validar (ver Problema de la inducción y más abajo), dado que expande nuestro conocimiento del mundo real, es parte indispensable del método científico:[10]​ «La gran ventaja de la inducción no es que se puede justificar o validar, como puede la deducción, pero que, con cuidado y un poco de suerte, puede corregirse, como otros métodos no lo hacen.»[9]

Inducción tradicional

[editar]

Orígenes

[editar]

El origen del método inductivo en la filosofía moderna se debe a la obra de Sir Francis Bacon[11]​ en su Novum organum,[12]​ en la cual «encontramos el primer intento sistemático por mostrar la importancia del argumento inductivo en la formación del conocimiento científico en contraposición al deductivismo imperante en la época, antecediendo dicha exposición con un intento de clarificación del concepto de Inducción basado en el pensamiento aristotélico.».[13]

Bacon acepta la definición de Aristóteles de la inducción: «La inducción es un tránsito de las cosas individuales a los conceptos universales», la clarifica argumentando que significa obtener los axiomas sobre los que se basa el razonamiento correcto a partir «de los sentidos y los hechos particulares elevándose continua y progresivamente para llegar, en el último lugar a los principios más generales; este es el camino verdadero, pero todavía no probado», establece como método que «la inducción que ha de ser útil para el descubrimiento de las ciencias y las artes, debe analizar la naturaleza por las debidas eliminaciones y exclusiones; y luego, tras un número suficiente de negativas, concluir sobre hechos afirmativos».

Los elementos de ese método son: «la tabla de presencia», «la tabla de ausencia» y «la tabla de grados». En la primera se hace un inventario de los hechos donde aparece el fenómeno (que Bacon llama «la naturaleza») bajo estudio, tratando que esos hechos sean de características muy variadas para lograr así la visión más completa posible de lo que la experiencia ofrece; en la segunda tabla se deben recoger hechos donde el fenómeno en cuestión no está presente, pero estos hechos deben ser similares a los recogidos en la primera tabla, para así eliminar aquellos casos donde se pueda contraponer un caso negativo; en la tercera tabla debemos ubicar casos donde el fenómeno varía en intensidad aparente. A partir de todo eso, Bacon sugiere que: «Entonces realmente, después de hecha la separación y exclusión en debida forma, quedará en segundo (y como en el fondo), desvaneciéndose en humo las opiniones volátiles, la forma afirmativa, sólida y verdadera y bien determinada».

Inducción de acuerdo con Hume: orígenes y problemas

[editar]

Posteriormente David Hume introduce una distinción entre «ámbitos» del conocimiento que, incluso en el presente, muchos consideran fundamental: «Las existencias reales, las cuestiones de hecho, así como las relaciones de ideas, son, epistemologicamente hablando irreductibles. Se necesitan métodos distintos para dar razón de unas y otras. La deducción es válida para las segundas, solo la inducción lo es para las primeras. La distinción entre estos dos ámbitos de conocimiento la fórmula Hume diciendo, en primer lugar, en el Treatise: ‘El entendimiento se ejerce en dos formas diferentes, cuando juzga desde la demostración o desde la probabilidad; cuando considera las relaciones abstractas de nuestras ideas o aquellas relaciones de objetos de las que solo la experiencia nos da información».[14]

Para Hume la inducción es, básicamente, un proceso psicológico: nuestros aparatos mentales (y no solo los humanos[15]​) están evolutivamente adaptados para generalizar a partir de instancias específicas. Parafraseando se puede decir que el venado que no aprende - a partir de la instancia de lobos atacando otro venado de la que fue testigo- que los lobos le son peligrosos, no sobrevive por mucho.[16]​ Dado que las inducciones son acerca de hechos, es decir, acerca de contingencias, carecen, por principio, de certidumbre lógica, es decir, son inciertas (Hume va tan lejos como para sugerir que no hay necesidad lógica alguna que sea correcto que el sol saldrá mañana). Esto da origen al problema de la inducción.[17]

En otras palabras, una inducción se origina cuando notamos que ciertos hechos parecen repetirse. Es decir, si se quiere, una cuestión de lo que estamos acostumbrados. En las palabras de Hume: «la costumbre es, pues, la gran guía de la vida humana. Tan solo este principio hace que nuestra experiencia nos sea útil y nos obliga a esperar en el futuro una serie de acontecimientos similares a los que han aparecido en el pasado. Sin el influjo de la experiencia estaríamos en total ignorancia de toda cuestión de hecho, más allá de lo inmediatamente presente a la memoria y a los sentidos» (Hume, 1980-1, 68).[18]

Hume sugirió que el problema de la inducción se puede resolver estableciendo criterios, reglas o cánones que permitieran utilizar la inducción adecuadamente. «Es solo siguiendo ciertas reglas generales, que pueden corregirse en sus errores. (Ver Bates 2005 para una discusión de este proceso).».[19]​ Desde ese punto de vista Hume propone dos tipos básicos de inducciones:

  • Por contigüidad. Si muchas veces y sin excepción percibimos que A precede a B, podemos concluir que A causa B. En otras palabras: dado cualquier par de objetos el uno seguido por el otro, donde todos los objetos similares al primero son seguidos por objetos similares al segundo, se establece una relación causal.
  • Por enumeración: si cada instancia específica de algún fenómeno que se examine muestra una cierta característica, podemos esperar que cualquier caso de ese tipo que examinemos en el futuro mostrara esa característica. En otras palabras: si cada A examinada es B, A es B. Por ejemplo, si cada esmeralda que hemos visto en el pasado es verde, podemos esperar que todas las esmeraldas sean verdes. Estas inducciones establecen una probabilidad.

Inducción de Herschel: búsqueda de causas

[editar]

John Herschel[20]​ busca resolver el problema de la inducción argumentando que para cada nuevo hecho científico, incluyendo hipótesis, hay dos aspectos distintos: el descubrimiento y su verificación. Herschel notó que el método para formular una hipótesis no tiene nada que ver con su mayor o menor aceptación: una propuesta derivada de observaciones cuidadosas, sistemáticas, puede tener el mismo valor que una intuición momentánea o incluso accidental, si sus predicciones se cumplen en la realidad. El proceso científico tiene dos momentos diferentes: una es el contexto del descubrimiento, y la otra el contexto de la validación o justificación. (Esta sugerencia fue posteriormente modificada y formalizada por Hans Reichenbach[21]​).

En la opinión de Herschel, el proceso de descubrimiento de las relaciones causales que sostienen las leyes científicas o relaciones que afectan a un fenómeno es básicamente inductivo. El interés de Herschel es el asunto del descubrimiento de tales relaciones. Al igual que Hume, Herschel establece dos tipos de inducciones, basados en dos principios generales.

  • Principio de clasificación: investigación y comparación de individuos de alguna supuesta clase. Este tipo es apropiado cuando una ciencia está en el comienzo de su desarrollo. Consiste en tratar de encontrar las características que esos individuos comparten, aparte de lo que llevó a agruparlos como clase para empezar.
  • Principio de comparación y contraste: estudiar las clases ya establecidas (por el principio anterior) tomando nota de sus similitudes y diferencias. Por ejemplo, la comparación y contraste de los fenómenos eléctricos y los magnéticos. Esta aproximación es conveniente cuando los hechos a estudiar son numerosos y bien documentados, es decir, cuando alguna rama de la ciencia ya ha logrado algún desarrollo.

Esos principios se aplican dando atención a los siguientes aspectos o criterios:

  • Conexiones causales: La detección de una posible causa mediante la comparación de los casos examinados debe conducir a una de dos cosas: (A) la detección de la causa real y su manera de actuar, lo que proporciona una explicación completa de los hechos; o (B) el establecimiento de una ley abstracta de la naturaleza, señalando dos fenómenos generales como siempre conectados-donde hay uno, el otro también aparece. La conexión invariable es un fenómeno de orden superior al de un hecho en particular. Cuando se descubren muchas de tales conexiones, se puede volver a «clasificar, combinar y analizar, con miras a la detección de sus causas, o el descubrimiento de las leyes aún más generales, y así sucesivamente sin fin».
  • Semejanzas: Cuando los hechos son similares en un cierto respecto en todos los casos, entonces esta es la causa del fenómeno o, si no, es un efecto colateral de la misma causa. Esta posibilidad se convierte en certeza si, entre todos los casos, solo hay un punto de acuerdo. Si hay más de una semejanza, puede haber «causas concurrentes».
  • Intensidades: Las causas se hacen, generalmente, más evidentes cuando arreglamos los hechos en orden de la intensidad en la que alguna cualidad peculiar existe, aunque no necesariamente, ya que puede ser que estén actuando al mismo tiempo otros factores que contrarresten o modifiquen las causas.
  • Analogías fuertes: En la presencia de fuertes similitudes entre dos o más fenómenos o clases de fenómenos, no es posible negar la existencia de una causa por el simple hecho que no sea evidente cómo una puede producir el efecto. Debemos remitirnos a la experiencia y tratar de aclarar el misterio, en lugar de decidir «a priori».
  • Exclusiones: Si en nuestro grupo de hechos hay uno en el cual no se observa el fenómeno causal postulado, o encontramos lo contrario, entonces tal peculiaridad no es la causa que buscamos. Las causas preceden a los efectos, así que si hay un hecho en el cual no se revela la causa predicada, sigue que esa no puede ser la causa que estamos buscando.
  • Hechos contrarios: hechos contrarios u opuestos son tan instructivos, para el descubrimiento de causas, como son los hechos favorables.
  • Diferencias de antecedentes: Si podemos encontrar en la naturaleza, o producimos experimentalmente, dos ejemplos de grupos de elementos o factores que coinciden exactamente en todo aspecto, menos uno en particular, la influencia de esa diferencia en el fenómeno consecuente debe ser profundizada: la producción o no producción del fenómeno bajo estudio determinará si el factor presente o ausente es o no es la única causa. Esto es aún más evidente si se puede lograr una inversión: al introducir el elemento donde no estaba y eliminarlo donde estaba, el efecto también se revierte. Pero si la presencia total o ausencia de este factor o elemento solamente produce un cambio en el grado o la intensidad del fenómeno, solo podemos concluir que actúa como una causa concurrente con alguna otra, que debe buscarse.
  • Causas contrarias: que son los factores que contrarrestan o introducen modificaciones en casos en que los fenómenos deberían haberse manifestado en cierta forma, no lo hacen. Las excepciones a una ley general propuesta pueden, a menudo, ser explicadas o excluidas mediante la consideración o eliminación de causas opuestas.
  • Variaciones concomitantes: Si estamos tratando de descubrir la influencia de algún factor o circunstancia, y no se lo puede eliminar por completo o interfieren otros factores, debemos alterar su influencia a través de la introducción de otro factor, que creemos que es probable afecte el fenómeno resultante, y así obtener una evidencia indirecta de su influencia.
  • Residuos o subducciones: fenómenos complicados tienen una pluralidad de causas, que concurren, se oponen o son independientes unas de otras y operan simultáneamente, y por tanto, producen un efecto complejo. El fenómeno se puede simplificar, resumiendo o «subduciendo» el efecto de todas las causas conocidas, ya sea por razonamiento deductivo o apelando a la experiencia, siendo el resultado un «fenómeno residual» que requiere explicación. Este es el proceso, en la opinión de Herschel, mediante el cual una ciencia avanzada progresa. La mayoría de los fenómenos naturales son, cuando los efectos de todas las causas conocidas se estiman con exactitud y subducidas, muy complejos. Los hechos residuales están constantemente manifestándose bajo la forma de nuevos fenómenos, cuyos estudios conducen a las conclusiones más importantes.

A partir de las leyes descubiertas por lo anterior, Herschel postula se generan teorías, en un paso ulterior y de más elevado nivel al establecimiento de leyes, lo que también significa que dependen mucho menos de la realidad. Las teorías son más bien creaciones de la mente.

Los cánones de Mill

[editar]

Según John Stuart Mill,[22]​ los primeros cuatro cánones, apuntan a concluir qué circunstancia hallada en los casos es causa del fenómeno estudiado. En el último, las causas se buscan en otros fenómenos.

I. Método de la concordancia

[editar]

Sirve para identificar las condiciones necesarias. Se rige por el siguiente principio, a saber: «Cualquier propiedad que se encuentre ausente cuando el efecto esté presente no puede ser una condición necesaria». Esto es lo mismo que decir: «Cualquier posible causa necesaria para que ocurra un efecto que se encuentre ausente cuando el efecto está presente, no puede ser una condición necesaria del efecto».

Por ejemplo: supongamos que estudiamos la combustión (o lo que es lo mismo, la propiedad condicionada «combustión») y deseamos dilucidar cuáles son las posibles causas (o lo que es lo mismo, las posibles propiedades condicionantes) de la misma. Para que se produzca la combustión son causas necesarias: el combustible, el oxígeno y la chispa. Supongamos ahora que en una situación dada observamos el fenómeno de la combustión. Supongamos ahora que sospechamos algo absurdo: que el agua es una posible causa necesaria para la combustión. Ahora, en una situación dada, observamos que la posible propiedad condicionante «agua» está ausente cuando el efecto de la combustión está presente. De este modo concluimos que el agua no puede ser condición necesaria para la combustión, ya que observamos que el agua se encuentra ausente cuando el efecto, la combustión, está presente. Si esta observación se produce una y otra vez, tenemos motivos fundados para concluir que, mientras que la experiencia de otras observaciones no demuestre lo contrario, el agua no puede ser condición necesaria para la combustión.

II. Método de la diferencia

[editar]

Si una circunstancia entre varias iguales es la que distingue al resto de los casos, y el fenómeno se da diferente en ese caso, entonces dicha circunstancia es la causa del fenómeno.

III. Método de la concordancia y diferencia

[editar]

Es el método de la concordancia, que se verifica con el método de la diferencia. Este método puede parecer más seguro. Sin embargo, tampoco es infalible.

IV. Método de los residuos

[editar]

Consiste en eliminar determinadas circunstancias, e ir observando si el fenómeno persiste.

V. Método de las variaciones concomitantes

[editar]

Consiste en observar las variaciones del fenómeno, y descubrir qué otro fenómeno varía de manera concomitante. Si se encuentra, ese puede ser la causa del fenómeno estudiado.

En la práctica Mill sugiere pasar de lo particular a lo particular, evitando generalizaciones (por lo menos, las prematuras) pero asumiendo que eventos en el futuro continuaran presentando la misma forma o que las mismas causas ocasionaran los mismos efectos observados en el pasado (ver Causalidad (filosofía). Lo que implica, por ejemplo, la creencia que las leyes científicas serán válidas en el futuro — Mill llamó a esta asunción el principio de la uniformidad de la naturaleza[23]​ — a fin de establecer relaciones de causas específicas.

Por ejemplo: he visto ese cisne y era blanco. He visto ese otro cisne y era blanco. Y otro más, y aún otro... etc. Espero que el próximo cisne que vea será blanco. Lo mismo pero explicitando el principio de uniformidad: he visto ese cisne y era (por cualquier motivo) blanco. Ese otro cisne era (por cualquier motivo, pero presumiblemente el mismo) blanco.... Espero que el próximo cisne será (por cualquiera que sea ese motivo) blanco. Lo mismo después de estudios: los cisnes europeos son, debido a causas genéticas, blancos. Otros, debido a esas causas, no lo son.

Siguiendo la posición que Mill delinea más arriba, es posible entonces dilucidar cuales son las situaciones que permiten establecer suficientemente, a partir de un solo caso, una inducción correcta: si por examen de casos similares se ha establecido la causa del fenómeno (por ejemplo: el establecimiento de que el color del plumaje de los cisnes depende de causas genéticas) bastaría un solo ejemplo de un cisne azul para poder generalizar que, dada ciertas circunstancias (que produzcan variabilidad genética), los cisnes tienen plumaje azul. Si generalizamos lo anterior a decir que las características morfológicas de los animales en general (incluyendo aves) se deben a razones genéticas, bastaría un solo ejemplar de algún orden (biología) o especie -hasta entonces desconocida- para poder postular la existencia de esa especie. Y con algunas observaciones, se puede afirmar tal existencia. (ver, por ejemplo: Homo floresiensis).

El «principio de la uniformidad de la naturaleza» es conocida en el presente como el principio de invariancia («Por ejemplo, la regla que describe la fuerza de gravedad de Newton entre dos trozos de materia es la misma tanto si están en esta galaxia o en otra (invariancia traslacional en el espacio). También es la misma hoy como lo fue hace millones de años (invariancia traslacional en el tiempo). La ley no funciona de manera diferente dependiendo de si un trozo está al este o al norte de la otra (la invariancia rotacional). La ley tampoco tiene que ser cambiado dependiendo de si se mide la fuerza entre los dos trozos en una estación de ferrocarril, o hacer el mismo experimento con los dos trozos en un tren en movimiento uniforme (principio de la relatividad)»[24]​) o principio de simetría («Tan lejos como puedo ver, todas las declaraciones a priori en física tienen origen en la simetría ».[25]​) y, aun cuando no es generalmente especificado, es difícil sobrestimar su importancia: «El (fundamento) de la inducción es el principio de la uniformidad de la naturaleza. Indudablemente, este principio es un presupuesto general de toda labor científica.».[26]​ «La simetría es el principio universal de la naturaleza, el principio que empapa la totalidad del universo y revela una pintura unificada desde el núcleo atómico y moléculas al sistema solar y las metagalaxias. Una unificación de las bien conocidas leyes de la belleza -una idea que coincide con la de súper unificación en física- sobre las bases que el principio general de simetría hace posible referirse a la simetría como el principio más importante de la armonía tanto en el universo como en el arte»[27]​ y «Hay una íntima relación entre las leyes de la conservación de la física y los «principios de invariancia».[28][29][30]​ (véase también Invariancia galileana; Principio de Curie[31]​ y teorema de Noether).

Ejemplos

[editar]

Ejemplo 1

[editar]

Considérese el siguiente argumento:

  1. Tengo un automóvil que está hecho de hierro
  2. El automóvil de mi vecino está hecho de hierro
  3. El automóvil de mi padre está hecho de hierro
  4. Por lo tanto, todos los automóviles están hechos de hierro

Ejemplo 2

[editar]
  1. El animal A, el animal B y el animal C están compuestos de células
  2. El animal A, el animal B y el animal C son gatos
  3. Los gatos son animales
  4. Entonces, todos los gatos están compuestos de células[32]

Ejemplo 3

[editar]
  1. El hierro es un buen conductor de la electricidad
  2. El cobre es un buen conductor de la electricidad
  3. El hierro y el cobre son metales
  4. Los metales son buenos conductores de la electricidad

Ejemplo 4

[editar]
  1. Mi vecino tiene un perro guardián que ladra cuando se acerca un desconocido.
  2. Mi padre tiene un perro que avisa a su amo de la misma manera cuando se acercan extraños.
  3. Cuando los extraños entran en la propiedad del dueño, el perro avisa a su dueño.
  4. De este modo, todos los perros guardianes alertan a sus dueños cuando un extraño entra en su territorio.[33]

Inducción como probabilidad

[editar]

Peirce: Probabilidad frecuentista y división tri-partita de los razonamientos

[editar]

En 1878 Charles Sanders Peirce reintroduce[34]​ una diferencia entre razonamientos analíticos (o explicativos) y sintéticos (o extensivos, en que extienden nuestro conocimiento). Deducciones son analíticas. Tanto inducciones como abducciones son sintéticas[35]​ (véase también Distinción analítico-sintético). Estas tres modalidades del pensamiento «cooperan en el método de investigación», generando así un circuito en el cual ninguna parte garantiza, por sí misma, la corrección de alguna proposición, pero el circuito en general ofrece grados crecientes de disminución de incertidumbre tales que «si se persiste en este método, a larga producirá la verdad».[36]

Circuito empírico: Hacer predicciones.- «Determinar» observaciones (a realizar).- Evaluación de los resultados.- Preparación de hipótesis

El circuito funciona de la siguiente manera: las abducciones generan hipótesis. La deducción predice las consecuencias experimentales que se deberían observar si la hipótesis fuera correcta. La inducción, ahora, no descubre leyes ni es creativa, sino que verifica las hipótesis propuestas mediante la experimentación (generando grados estadísticos de corroboración). Si las observaciones que tales experimentos implican no corresponden a las consecuencias derivadas de las hipótesis, se generan nuevas hipótesis. Si corresponden, se repiten las observaciones, con un grado creciente de confianza. (ver Precisión y exactitud y Certeza y opinión)

El ejemplo que Peirce ofrece se puede presentar así: considérese que tenemos un número grande (por decir algo: veinte mil) de cajas que fueron llenadas aleatoriamente de canicas o bolitas desde un galpón que estaba lleno de tales canicas y que deseamos determinar de que color o colores son (un problema real similar típico es determinar la proporción de elementos en una cadena de producción que están dentro de parámetros aceptables). Supongamos que, después de extraer al azar y examinar cien bolitas de cada una de veinte cajas encontramos que (a fin de simplificar) en promedio tres de cada cien de esas bolitas son blancas y el resto rojas. Asumimos entonces que la relación total entre las canicas corresponde a ese porcentaje. Si tal abducción es correcta, sigue que futuras observaciones mostraran la misma proporción «dentro de ciertos parámetros» (ver intervalo de confianza).

El papel de la inducción es entonces determinar, por un lado, si las observaciones corresponden a lo predicho por la deducción y, por otro, y más en general, cuantas y cuales observaciones confirmarían -y con cual confianza- la predicción. Continuando con el ejemplo: no es realista esperar que, si el tres por ciento de una gran cantidad de canicas son blancas y el resto rojas, cada muestra que se obtenga aleatoriamente de esas canicas contendrá exactamente tres por ciento de canicas blancas. Algunas no contendrán ninguna bolita blanca, otras, cinco o diez. Es posible -con la información dada- que eventualmente se modifique la abducción a que las blancas son cuatro o cinco por ciento y que, en adición, hay un uno o menos por ciento de otros colores, etc. Cuales y cuantas observaciones debemos efectuar antes de poder decidir con algún grado de confianza cual es el caso?. (ver Hipótesis en estadística inferencial)

Desafortunadamente, el trabajo de Peirce fue poco conocido en ámbitos lógicos y filosóficos.[37]​ Sin embargo, posiciones similares fueron avanzadas por el filósofo inglés Frank P. Ramsey (1926) y el matemático italiano Bruno de Finetti (1937), pero basándose en el teorema de Bayes, que utiliza el concepto de Probabilidad condicionada.[38]​ Esto llevó al desarrollo de «El llamado enfoque bayesiano o lógica inductiva».[39]

El resultado práctico de lo anterior es que, a nivel filosófico y lógico, especialmente entre aquellos influidos por el empirismo, el método inductivo probabilistico, aún en el presente, se basa en la aproximación de Bayes, mientras que muchos científicos, especialmente aquellos influidos por el pragmatismo, simplemente utilizan aproximaciones derivadas del método de Peirce[40][41][42]​ Al explicar esta noción Peirce ofrece una explicación de la prueba de hipótesis que es equivalente a la de la estadística estándar de pruebas de hipótesis. En efecto, tenemos una versión de intervalos de confianza y la opción de escoger significación estadística para rechazar la hipótesis nula. Tales ideas se convirtieron en estándar en el siglo XX como resultado de los trabajos de Ronald Fisher, Jerzy Neyman, y otros. Pero ya en 1878, en su artículo «La de probabilidad de inducción», Peirce había resuelto el asunto. (Este tema ha sido discutido expertamente por Deborah Mayo, que también ha demostrado que la corrección de errores implícita en la prueba de hipótesis estadística está íntimamente afiliado con la noción de Peirce de la ciencia como siendo «auto-corrección» y convergencia a «la verdad».).[43]

Inducción como creencia racional: Keynes, Carnap, Popper y Lakatos

[editar]

Los desarrollos de la aproximación bayesiana tuvieron gran importancia para el desarrollo del método científico a través de las obras de Karl Pearson[44]​ y, en el caso de las ciencias sociales, el de John Maynard Keynes[45]​ ya que sentaron las bases para el uso de la estadística en el área.[46]​ Keynes no solo contribuyó fuertemente a la difusión de la aproximación[47]​ sino que transformó el problema, al apuntar que el meollo del asunto no es tanto la demostración de generalizaciones, sino el grado de creencia racional -o confianza- que se puede tener en ellas.:[48][49]​ «Podemos reformular el método inductivo en términos estadístico – probabilísticas. Esto significaría lo siguiente: suponer que como consecuencia del «salto inductivo» hacia la generalización, a esta no se la dará por verificada, sino que se la afirmará con carácter probabilístico. Podríamos sostener así que este método genera una justificación atenuada para el contexto de justificación: se verifica la asignación probable de un determinado enunciado.».[50]

A partir de lo anterior,[51]​ y nivel lógico propiamente tal, se destaca el trabajo de Rudolf Carnap,[52][53]​ quien establece una distinción dura entre la inducción y el método inductivo. En relación con la inducción, Carnap postula reglas (fórmulas, en realidad) que la generan. En relación con el método, todo lo relacionado con asuntos de evidencia, validez, etc. (por ejemplo, reglas acerca de como seleccionar muestras).:[54]​ «En esta situación se encontraría la lógica inductiva de Carnap, una teoría según la cual la esencia del razonamiento inductivo consiste en la determinación de valores de probabilidad de las hipótesis científicas en razón de los datos de experiencia. Para Rudolf Carnap (1891-1970), en efecto, la tarea de la lógica inductiva no consiste en el descubrimiento de leyes generales, sino en la determinación del grado de confirmación o probabilidad lógica de una hipótesis dada sobre la base de la experiencia disponible. La función de la lógica inductiva comienza para Carnap sólo cuando se dispone de una hipótesis explicativa de determinados fenómenos, cuya probabilidad a posteriori se trata de averiguar.».[55]​ Una parte importante en la aproximación delineada por Carnap es el énfasis en cuestiones lingüísticas.[56][57][58][59][60]

Un aspecto importante para esta aproximación es el establecimiento de algún criterio de adecuación, es decir, un mecanismo que permita considerar que, en la medida que la evidencia se acumula, el grado de apoyo (tal como es medido por la lógica) de las proposiciones falsas o menos adecuadas a la realidad disminuye y el de las más adecuadas aumenta.[61]

Parece claro que para proveer tal criterio, una lógica inductiva tendrá algo así como las siguientes características[62]

  1. La lógica inductiva debe proporcionar una generalización cuantitativa de la lógica deductiva (clásica). Es decir, las relaciones de implicación/vinculación y refutación deductiva deben ser incorporadas como un caso límite (extremo) de los de los casos de "vinculación parcial" y "refutación parcial", los que, a su vez, se sitúan en algún lugar de un continuo (o rango) entre estos dos extremos.
  2. La lógica inductiva debe usar la probabilidad (en su sentido moderno) como la base fundamental de su centro conceptual.
  3. La lógica inductiva (es decir, las relaciones no-deductivas entre proposiciones que son caracterizadas por la lógica inductiva) debe ser objetiva y lógica.

Este asunto es quizás uno de los puntos más complejos en la materia. Generalmente es considerado que Carnap y otros induccionistas no lograron establecer tal criterio.[63]​ Sin embargo, de acuerdo a Imre Lakatos, Karl Popper, quien era anti-inductivista, por lo menos en el sentido usual de la palabra[64]​ - lo hizo: «Sin embargo, su tercera nota,[65]​ publicada en 1958, representa un cambio interesante. En esta nota Popper elaboró una medida para los grados de corroboración de teorías estadísticas, dada evidencia interpretada estadísticamente, una "métrica o lógica absoluta", basada en consideraciones puramente lógicas, que él consideró "completamente adecuada"».[66]

Lo anterior creó una situación confusa, que ha incluso llevado a algunos autores a considerar a Popper un inductivista. (ver Lakatos, op. cit). En un esfuerzo para resolver el problema, Lakatos introduce una distinción entre lo que el llama «empirismo neoclásico» (de Carnap, etc) y «empirismo crítico», que atribuye a Popper pero que parece más bien representar la posición de Lakatos mismo.[67]

Es importante notar, sin embargo, que Lakatos no es un inductivista en el sentido de creer que es posible establecer la «verdad» a través de una lógica inductiva (ver Falsacionismo sofisticado). Para el la lógica inductiva es una lógica de descubrimiento: «Hay entonces un esquema por el cual uno avanza del ingenuo "lanzar una idea" de Popper al método de las pruebas y refutaciones (no conjeturas y refutaciones) para después, dando otro paso, a los programas de investigación matemáticos. Este esquema refuta la proclama filosófica que la fuente heurística de esos programas de investigación es siempre alguna gran visión metafísica. Un programa de investigación puede ser de origen humilde: puede originarse en una generalización de bajo nivel. Mi estudio de caso rehabilita, en un cierto sentido, la heurística inductiva; frecuentemente es el estudio de hechos y la práctica de generalizaciones de bajo nivel que sirven de punto de partida de los programas. La matemática y la ciencia están inspiradas importantemente por hechos, generalizaciones factuales y después por este imaginativo análisis deductivo».[68]

Crítica de Hempel a la lógica inductivista

[editar]

En la década de los cuarenta del siglo XX Carl Hempel avanzó[69][70]​ una crítica tanto a la interpretación lingüística como estadística de la inducción,[71]​ exponiendo lo que él consideraba una falla que hace imposible la consistencia lógica en cualquier lógica inductiva. Esta falla básica es conocida técnicamente como la paradoja de la confirmación y, más comúnmente, como la Paradoja del cuervo.[72]​ Estas sugerencias llegaron a ser dominantes en la filosofía de la ciencia en las décadas del 50 y 60[73]

El problema sugerido por Hempel es que, cuando enunciamos una proposición general o avanzamos una hipótesis, estamos al mismo tiempo avanzando una o varias hipótesis que son lógicamente equivalentes. Por ejemplo, cuando decimos que los cuervos son negros, decimos también que aquellas cosas que no son negras no son cuervos. Si aceptamos la suposición que la creencia en esas afirmaciones aumenta o disminuye en relación con la evidencia que observemos, sigue que cualquier observación de cosas que no sean ni cuervos ni negras (por ejemplo, un zapato blanco) debería aumentar el grado de confianza de nuestra creencia racional en el que los cuervos son negros.

A pesar de lo anterior, Hempel no rechaza totalmente el uso de la inducción, sino más bien sugiere su incorporación a la elaboración de «sistemas teóricos», que deben ser evaluados de acuerdo a una variedad de criterios, que incluyen:[74]

  • Claridad y precisión con la que son formulados (incluyendo sus relaciones con el lenguaje de observación)
  • Capacidad del sistema para explicar y predecir el fenómeno bajo observación.
  • Simplicidad formal del sistema, asumiendo que ese logra un cierto grado de poder o capacidad (explicativa y predictiva) (ver elegancia formal).
  • Grado de confirmación positiva por evidencia experimental que el sistema ha logrado.

Una formulación alternativa sería: «Hempel busca condiciones de adecuación para un eficiente criterio general de confirmación, razonables y materialmente adecuadas. Plantea la posibilidad de tres. Primero, la condición de implicación, donde toda oración lógicamente implicada por un informe de observación es confirmada por éste. Segundo, la condición de consecuencia, donde todo informe de observación que confirma una hipótesis también confirma sus consecuencias, léase hipótesis equivalentes o más débiles, que nunca más fuertes. Tercero, la condición de consistencia, donde todo informe de observación lógicamente consistente es compatible con las hipótesis que confirma: a menos que sea contradictorio, no confirma hipótesis incompatibles o contradictorias. Estas serán la base de su postulado.».[75]

En resumen: Hempel acepta el método hipotético-deductivo[76][77]​ -que él llama nomológico-deductivo[78]​ - como el método científico. En ese esquema, Hempel acepta la inducción solo para justificar «probabilisticamente» alguna hipótesis,[79]​ pero para esa justificación transforma las proposiciones inductivas en proposiciones cuasi-deductivas (en que su «confirmación» se deriva de principios asumidos, es decir, no confiere certeza absoluta, sino solo un grado de racionalidad a su aceptación): «Hempel niega la justificación de la inducción. Considera que los razonamientos inductivos suponen la uniformidad de la naturaleza que, usándolo como premisa mayor, convierte los razonamientos inductivos en deductivos o 'casi-deductivos', pero ello se debe a una serie de inconsistencias inductivas que se cuida de señalar. La consecuencia es que la inferencia inductiva no se presta -según Hempel- a establecer en forma categórica una conclusión aunque se sepa o se admita que las premisas son enunciados verdaderos.».[80]

Russell y el pavo inductivista

[editar]

El pavo inductivista es una historia propuesta por Bertrand Russell[81]​ para advertir sobre los peligros de obtener conclusiones basadas únicamente en observaciones, por muchas observaciones de las que podamos disponer. Originalmente, Russell hablaba de un «pollo inductivista» pero Chalmers reformuló la historia desde el punto de vista de un pavo al entender que así la conclusión era más fácil de entender.[82]

Russell cuenta la historia de un pavo que en su primera mañana en una granja avícola comió a las nueve de la mañana; pero al tratarse de un pavo racional e inductivista no sacó conclusiones precipitadas, sino que esperó hasta tener un elevado número de observaciones de que comía a las nueve de la mañana antes de llegar a una conclusión; el pavo realizó múltiples observaciones en una gran variedad de circunstancias, desde distintos días de la semana, distintas estaciones del año, y distintos tipos de clima; animado por dichas observaciones llegó a la conclusión de que «siempre comía a las nueve de la mañana»; sin embargo, la víspera del día de Navidad, en vez de darle comida, le cortaron el cuello, demostrando así la falsedad de su conclusión.

Lo que se pretende con esta historia es mostrar la irracionalidad de la inferencia inductiva, no importa cuantos resultados «verdaderos» se tengan, puede llevarnos a una predicción falsa, y que la ausencia de prueba no es prueba de ausencia.

Goodman, verdul y el nuevo problema de la inducción

[editar]

Contra ese telón de fondo Nelson Goodman profundiza y extiende (en 1955[83][84]​ ) un punto implícito en la posición de Hempel.[85]​ Este es «El nuevo enigma de la inducción y, en general, el problema de la proyección, es entonces, explicar cuales son las bases para la proyección de ciertos predicados -verde, azul, rojo, etc- en el mundo, y no otros -verdul, azerde, etc.». Porque, como dice Goodman, «(las) regularidades están donde usted las encuentra, y se pueden encontrar en cualquier lugar».[86]

Recordemos que un caso clásico de razonamiento inductivo es aquel que concluye que todas las esmeraldas son verdes, a partir de que todas las esmeraldas que se han observado hasta el presente han sido verdes. Goodman define entonces el predicado «verdul» (en inglés grue) de la siguiente manera: el predicado «verdul» «se aplica a todas las cosas que fueron examinadas antes de (el momento) «t» para ver si eran verdes pero (también) a otras cosas que no fueron examinadas y son azules» (algunos autores, a fin de clarificar, usan un momento específico: por ejemplo: 1 de enero del 2222). Conversamente, un objeto es «azerde» (bleen) si fue examinada antes de ‘t» para ver si era azul, etc.

Como se ha sugerido, el interés de Goodman es señalar el problema que, cualquier hecho (más apropiadamente: cualquier observación) puede ser descrito utilizando una variedad indefinida de predicados.[87]​ De tales predicados se pueden derivar, o dan origen a, un número igualmente indeterminado de hipótesis[88]​ y así sucesivamente,[89]​ muchas de las cuales son verificables en principio. Pero, y obviamente, en la práctica tanto diaria como científica, solo algunas de ellas son consideradas. El problema consiste en explicar por qué elegimos las categorías que elegimos y cómo podemos estar seguros de cuales de esos predicados/hipótesis poseen validez.

La respuesta que Goodman sugiere es que utilizamos predicados que son «normalizables» o «legalizables» (lawlike), es decir, que corresponden a nuestras reglas sintácticas (en las palabras de Goodman, el nuevo problema de la inducción es decidir: «si el predicado es "bien comportado" - es decir, si es el caso que hipótesis universales simples que se le aplican son normalizables».[90]​). Pero, Goodman nota, tal correspondencia no garantiza corrección semántica,[91]​ no garantiza correspondencia a la realidad. Nuestras categorías semánticas entonces son simplemente una cuestión de costumbre: «No hay ninguna diferencia de principio entre los predicados que utilizamos y los que podríamos utilizar, sino más bien una diferencia pragmática en el hábito, o de "arraigo" de ciertos predicados y no otras.».[86]

Lo anterior transforma profundamente la concepción del problema la inducción:[92]​ «El problema de justificar la inducción ha sido desplazado por el problema de definir la confirmación, y nuestro trabajo al respecto nos ha dejado con el problema residual de distinguir entre hipótesis confirmables y hipótesis no confirmables. Uno puede decir, en general, que la pregunta original era "porqué una instancia positiva de una hipótesis nos da bases para predecir instancias futuras" y que la pregunta nueva es "qué es una instancia positiva de una hipótesis" y que la pregunta, crucial, que permanece es "cuales hipótesis son confirmables por instancias positivas».[93]

Lo anterior da origen a una visión constructivista del mundo.[94][95]​ Sugiriendo, al mismo tiempo, una heurística parsimoniosa en la selección o uso de predicados.[96]​ Pero no nos dice cuales hipótesis podemos escoger, o más apropiadamente, cuales criterios debemos utilizar para escoger tanto predicados como hipótesis.

La propuesta de Goodman se basa, a grandes rasgos, en la aproximación de Hempel, de acuerdo a quien las hipótesis empíricas se confirman cuando sus predicciones observables se corroboran y se desmienten cuando no. Esto nos da una regla formal para decidir y/o juzgar la evidencia, a diferencia del principio de uniformidad, que hace la suposición que el universo es «legal» (se comporta de acuerdo a «leyes naturales» descubribles). Esta sugerencia en general no es realmente novedosa. Lo que si lo es en la propuesta de Goodman es su sugerencia de cómo es que las reglas de la inducción llegan a justificarse:[97]

«Pero, ¿cómo se determina la validez de las normas?... Los principios de la inferencia deductiva se justifican por su conformidad con la práctica deductiva aceptada. Su validez depende de su conformidad con las inferencias deductivas particulares que hacemos y sancionamos en realidad. Si una regla produce inferencias inaceptables, la descartamos como no válida... El punto es que las reglas y las inferencias particulares por igual se justifican porque son llevadas a un acuerdo entre sí. Una regla es modificada si produce una inferencia que no estamos dispuestos a aceptar; una inferencia se rechaza si viola una regla no estamos dispuestos a modificar. El proceso de justificación es la delicada tarea de realizar ajustes mutuos entre las normas y las deducciones aceptadas, y en el acuerdo alcanzado se encuentra la única justificación necesaria para cualquiera de ellas. Todo esto se aplica igualmente bien a la inducción. Una inferencia inductiva también se justifica por conformidad con normas generales, y la regla general por conformidad con las inferencias inductivas aceptadas. Las predicciones se justifican si se ajustan a los cánones vigentes de la inducción, y los cánones son válidos si codifican precisamente la práctica inductiva aceptada. Un resultado de este análisis es que podemos dejar de atormentarnos con ciertas cuestiones espurias sobre la inducción.».[98]

Lo anterior ha dado origen a la aproximación del llamado Equilibrio reflexivo, entendido como un estado de equilibrio o coherencia entre un conjunto de creencias al que se llega por un proceso de deliberación y ajuste mutuo entre los principios generales y los juicios particulares. A pesar de que Goodman no utilizó el término, introdujo el método del equilibrio reflexivo como una aproximación para justificar los principios de la lógica inductiva. El término fue acuñado por John Rawls, quien lo popularizó en su célebre Teoría de la justicia como un método para llegar al contenido de los principios de la justicia.[99]

Véase también

[editar]

Referencias

[editar]
  1. González Labra (Editora), María José (2012). Psicología del Pensamiento. Madrid: Sanz y Torres. ISBN 978-84-15550-28-0. 
  2. Por ejemplo, el Diccionario de filosofía de Juan Carlos González García dice (página 234): “La inducción parte de casos particulares para alcanzar una conclusión de carácter general. Después de observar muchos casos particulares de metales que se dilatan al ser calentados, llegó a la proposición general: “Todos los metales se dilatan al ser calentados”.
  3. Por ejemplo, Jacob Buganza T, escribe: “La inducción, siguiendo la definición actual de José Rubén Sanabria, es el “razonamiento por el cual, a partir de una o de varias proposiciones particulares, se establece una proposición universal”, definición similar a la aristotélica.” en El problema de Hume en la filosofía de Karl Popper Archivado el 11 de febrero de 2012 en Wayback Machine..
  4. Para profundizar un poco acerca de los inicios, ver: Julián Velarde L: Gnoseología de los sistemas difusos p.26 y siguientes
  5. José A.Díez, C. Ulises Moulines (1997- 2008) Fundamentos de Filosofía de la Ciencia p 53
  6. IEP. «Deductive and Inductive Arguments». Internet Encyclopedia of Philosophy (en inglés). Consultado el 28 de marzo de 2012. «Some dictionaries define “deduction” as reasoning from the general to specific and “induction” as reasoning from the specific to the general. While this usage is still sometimes found even in philosophical and mathematical contexts, for the most part, it is outdated. For example, [~corte~]». 
  7. Por ejemplo: C. S. Peirce (1878):DEDUCCIÓN, INDUCCIÓN E HIPÓTESIS
  8. Para ejemplos de estas proposiciones, ver Deductive and Inductive Arguments (en inglés). Para profundizar el punto Introduction to Logic (en inglés)
  9. a b John Vickers (2010) en Stanford Enciclopedia of Philosophy: The Problem of Induction
  10. Por ejemplo: Marcelo F. Goyanes: “ Si bien es indudable que el método inductivo no puede ser utilizado como herramienta probatoria o de justificación, el mismo no puede ser descartado como un útil generador de hipótesis y conjeturas. El arte de construir una hipótesis es uno de los aspectos fundamentales del método científico y, por lo tanto, de la actividad productora de la ciencia. En conclusión, el método inductivo no existe para el contexto de la justificación, pero sí para el del descubrimiento. En este último el proponer buenas hipótesis puede ser, no solamente útil, sino la estrategia esencial para obtener conocimiento. Hay que admitir que si un científico dispone de un número lo “suficientemente grande” de datos favorables a una generalización, sin que se haya presentado hasta el momento ninguno desfavorable, es razonable que proponga la hipótesis que afirma la generalización obtenida a partir de los casos particulares.” en Lógica y metodología científica p 8
  11. Ramón Ruiz L: “El método inductivo en versión moderna fue desarrollado por el inglés Francis Bacon (1561-1626) y se encuentra ligado a las investigaciones empíricas. Bacon rechazo la silogística de Aristóteles en la que se apoyaba la escolástica (doctrina del medievo) y la cual desdeñaba la experiencia sensible. En su lugar, Bacon destacó la importancia de la observación y el experimento en la obtención del conocimiento, pero minimizó el papel de las hipótesis por lo cual ha sido ampliamente criticado.” en Historia y evolución del pensamiento científico (7.4. Inducción y deducción)
  12. Puntos a desarrollar sobre la base de ¨Novun Organon¨
  13. José Fernando O (2000): Bacon y el comienzo de la filosofía inductiva Archivado el 27 de septiembre de 2007 en Wayback Machine.
  14. Francisco Rodríguez V Experiencia y conocimiento en David Hume p 52
  15. Hume: “Ciertamente, los más ignorantes y estúpidos campesinos --más aún los niños, las bestias incluso- progresan con la experiencia y aprenden las propiedades de los objetos naturales cuando observan los efectos producidos por ellos. Si un niño ha experimentado la sensación de dolor al tocar la llama de una vela, tendrá el cuidado de no acercar su mano a la vela; esperará un efecto similar de una causa similar en cuanto a sus propiedades sensibles y apariencia” en Investigación sobre el Entendimiento Humano. Grupo Editorial Norma. Bogotá, 1992. SEC IV,. p 54
  16. Willard Van Orman Quine (1969): "Creatures inveterately wrong in their inductions have a pathetic but praise-worthy tendency to die before reproducing their kind." (Las criaturas inveteradamente equivocadas en sus inducciones tienen una lamentable, pero digna de alabanza tendencia a morir antes de reproducir su especie) en "Natural Kinds". In Ontological relativity and other essays, p. 126. Columbia UP.- Para una introducción a este respecto, ver Oscar Eduardo Pineda L (2011): Inducción, causalidad y psicologismo en Hume
  17. Para una visión general de la percepción de Hume al respecto, ver ref> Waleska Cornejo Allende: El problema de la inducción
  18. Hume, citado por Waleska Cornejo Allende: El problema de la inducción p 7
  19. John Vickers (2009) en The Problem of Induction
  20. J Herschel (1830): "Preliminary discourse on natural philosophy" ("Introducción a la filosofía natural").- Para una introducción ver, por ejemplo, John Herschel. Para empezar a profundizar: Roderick Fitts (2010): Advances in Baconian Induction: John Herschel (Part 1 of 3) etc
  21. H Reichenbach (1938): Experience and Prediction cap 1 “Meaning” (en inglés). Ver Theresa Marx (2011) Hans Reichenbach “Experiencia y predicción”- Un resumen crítico
  22. J. S. Mill: A System of Logic, Book III Chapter 3: Of The Ground Of Induction. Archivado el 9 de abril de 2012 en Wayback Machine. propuso, en su libro, "A system of logic, ratiocinative an inductive" (1843) cinco métodos para guiar la búsqueda de las regularidades de los fenómenos. Estos métodos se basan en la observación de un número indeterminado de ocurrencias del fenómeno que desea estudiarse y en el que se encuentra una serie de condiciones que pueden ser o bien causas necesarias o bien suficientes para producirlo. A las propiedades que pueden ser las condiciones (o causas del efecto), necesarias o suficientes, se les llama propiedades condicionantes, mientras que a la propiedad (o el efecto) que se analiza se le llama propiedad condicionada (por las propiedades condicionantes, se entiende). Para una introducción, ver IV.3. John Stuart Mill. Para profundizar: Ezequiel A. Chávez (2002): Resumen sintético del Sistema de Lógica de John Stuart Mill
  23. Por ejemplo: Ernest Nagel (2006): "Según Mill, el principio de la uniformidad de la naturaleza (que es el nombre que Mill da al principio de causalidad) afirma que «en la naturaleza, se producen casos paralelos; lo que sucede una vez, volverá a suceder, dado un grado suficiente de semejanza de las circunstancias... " en La estructura de la ciencia p 417
  24. David Mermin: It's About Time - Understanding Einstein's Relativity, (Princeton University Press. ISBN 978-0-681-12201-4.) Chapter 1.
  25. Hermann Weyl (1952): Symmetry, p 126
  26. ANTONIO DEL TORO.(1991) FUNDAMENTO
  27. Alexander V. Voloshinov (1996): Symmetry as a Superprinciple of Science and Art
  28. Agnar Pytte, Robert W Christy: en Estructura de la materia (Editorial Reverte- 1971), p 591
  29. JOSÉ F. CARIÑENA M (2001): “Como quiera que la simetría ha estado constantemente, como motivación y como objetivo, presente en mis investigaciones, y es realmente no solo un principio lógico y filosofico, sino que ha cautivado durante muchos años a filósofos, pintores y poetas, es mi intención hacer una reflexión aquí sobre su significado, para hacer ver como es posible utilizar estos principios de simetría para comprender mejor múltiples teorías científicas y obtener de forma sencilla resultados concretos mediante el empleo de estos principios básicos.” en SIMETRÍA EN CIENCIA: PRINCIPIO Y MÉTODO Archivado el 14 de febrero de 2012 en Wayback Machine.
  30. Michael Kruse (2000): Invariance, Symmetry and Rationality
  31. Jenann Ismael (1997): Curie's Principle
  32. ESCOBAR, Gustavo. El Razonamiento. En: Lógica Nociones y Aplicaciones. 1 ed. México D.F.: McGraw-Hill. 1999. P. 153.
  33. «Método inductivo y deductivo: definición, características y ejemplos ➡️». 9 de marzo de 2023. Consultado el 1 de junio de 2023. 
  34. Por ejemplo: C. S. Peirce (1878): DEDUCCIÓN, INDUCCIÓN E HIPÓTESIS
  35. Peirce: "Todos nuestros razonamientos son de dos tipos: 1. Explicativos, analíticos o deductivos; 2. Amplificativos, sintéticos, o (hablando en términos generales) inductivos. En el razonamiento explicativo, primero se sientan ciertos hechos en las premisas.... Ahora bien, establecidos así los hechos, puede quizá descubrirse algún orden entre algunos de ellos, no utilizado particularmente al enunciarlos; y esto nos permitirá introducir parte de ellos o todos en un nuevo enunciado, cuya posibilidad pudiera haber escapado a nuestra atención. Tal enunciado será la conclusión de una inferencia analítica. De esta clase son todas las demostraciones matemáticas. Pero el razonamiento sintético es de otro tipo. En este caso, los hechos resumidos en la conclusión no se hallan entre los establecidos en las premisas. Son hechos diferentes, como cuando uno ve que la marea sube m veces y concluye que subirá la próxima vez. Estas son las únicas inferencias que aumentan nuestro conocimiento real, por muy útiles que puedan ser las otras." en LA PROBABILIDAD DE LA INDUCCIÓN punto III
  36. C.S. Peirce: Escritos Lógicos, Alianza, Parágrafo 9: la Tricotomía de las Argumentos, Numeral 269
  37. Burch, op. cit
  38. SÍLVIO PINTO (2007): HACIA UNA JUSTIFICACIÓN TRASCENDENTAL DE LA INDUCCIÓN
  39. James Hawthorne: “ Una lógica inductiva es un sistema de apoyo evidencial que extiende la lógica deductiva a inferencias menos que ciertas. Para los argumentos deductivos válidos, las premisas implican lógicamente la conclusión, donde implicación significa que la verdad de las premisas constituye una garantía de la verdad de la conclusión. Del mismo modo, en un argumento inductivo bueno, las premisas deberán proporcionar un cierto grado de apoyo para la conclusión, donde apoyo significa que la verdad de las premisas indica con cierto grado de fuerza que la conclusión es verdadera.” en Inductive Logic; The Stanford Encyclopedia of Philosophy (Winter 2011 Edition), Edward N. Zalta (ed.)
  40. Aníbal R. Bar (2001): Abducción. La inferencia del descubrimiento Archivado el 31 de enero de 2012 en Wayback Machine.
  41. Rodolfo J. Rodríguez R (2005): Abducción en el contexto del descubrimiento científico Archivado el 31 de julio de 2013 en Wayback Machine.
  42. Roberto Espejo (2008): Peirce, la Abducción y la Investigación Científica
  43. Robert Burch (2010): Charles Sanders Peirce sección theory of probability.
  44. John Aldrich: The Enigma of Karl Pearson and Bayesian Inference
  45. Branden Fitelson (2006): “La idea contemporánea de la lógica inductiva (como una teoría general, lógica, de la evaluación de argumentos) no empieza a aparecer en una forma madura hasta finales del siglo 19 y 20. Algunas de las articulaciones más elocuentes de las ideas básicas detrás de la lógica inductiva en este sentido moderno aparecen en el Tratado sobre la probabilidad de John Maynard Keynes." en Inductive Logic.- Lindley, Dennis V. 1968. “El punto de vista de Keynes y el programa fueron novedosos e importantes. Ellos han tenido una gran influencia en probabilistica y estadística. Desafortunadamente, se vieron afectados por la grave limitación que Keynes impuso al negarse a admitir que todas las probabilidades se pueden comparar.” en John Maynard Keynes: Contributions to Statistics. pp. 375-376 in vol. 8 of International Encyclopedia of the Social Sciences New York: Macmillan Company & The Free Press. .- Richard Cornwall (1997) “Como se ha señalado por Dennis Lindley [1968], una genealogía del análisis bayesiano se puede trazar a través de Leonard Savage [1972, originalmente 1954] a la noción de probabilidad subjetiva desarrollada por Frank Ramsey [1960, escrito en 1926] que desarrolló la conexión íntima entre la probabilidad subjetiva y las preferencias [ver Anscombe y Aumann, 1963]. Ramsey responde a y agudiza la formulación inicial de Maynard Keynes [1943, originalmente 1921]. Una visión general útil de la literatura sobre la obra de Keynes acerca de la probabilidad subjetiva y de sus implicaciones más amplias para la economía está dada por Moggridge [1992, cap. 6], Blaug [1994, esp. pág. 1208] y Bateman [1987]. Una opinión contraria - que el deseo de Keynes de evitar “dar números”, al menos, algunas cosas que se llaman "probabilidades" - ha sido articulada por Olivier Favereau [1988], quien sugiere que, contrariamente al enfoque adoptado por Ramsey, y otros, Keynes podría haber preferido utilizar la herramienta, en aquellos días aún no desarrollada, de la lógica modal para articular las probabilidades no numéricas que puedan coexistir para una persona con probabilidades subjetivas numéricos para otros "eventos" o cadenas de palabras.” en Keynes' Queer Birthing of Bayesian Analysis
  46. por ejemplo: Tema 2. INTRODUCCIÓN AL CÁLCULO DE PROBABILIDADES Y A LA INDUCCIÓN ESTADÍSTICA y Métodos estadísticos y modelos aleatorios
  47. J. M. Keynes (1920): “la conexión fundamental entre el método inductivo y las probabilidades se merecen todo el énfasis que soy capaz de darle”: A Treatise on Probability.
  48. John Wood (1994): “Así, una gran parte del esfuerzo de Keynes en su “Probability” fue en la dirección de examinar la “conexión fundamental” entre inducción y probabilidad”.... “A partir de información limitada, sin embargo, uno no sabe si la proposición (afirmada) es correcta o no, solo se puede tener algún grado de creencia en su corrección.“ en John Maynard Keynes: Critical Assessments, Second Series p 94.
  49. Warren Weaver: “Debemos recordar ahora que la Estadística trata de conclusiones inciertas. No podemos esperar que el estadístico llegue a una conclusión absolutamente firme. Lo que podemos esperar es que nos proporcionen una respuesta doble a nuestra cuestión. Una parte de su respuesta puede ser: "Mi estimación mejor es…..". La otra parte inevitable de su respuesta es: "El grado de confianza que usted está justificado en dar mi estimación es ….". en Pensamiento lógico, la deducción y la inducción (Artículo)
  50. Marcelo F. Goyanes en Lógica y metodología científica.
  51. I. Lakatos (1968): Así Carnap -siguiendo la Escuela de Cambridge (Jhonson, Broad, Keynes, Nicod, Ramsey, Jeffreys), Reichenbach y otros- se dedico a resolver los siguientes problemas:... " en "Cambios en el problema de la lógica inductiva" en Mathematics, science and epistemology.- Cambridge U press (1978), p 128-193 (Visión parcial - en inglés )
  52. Carnap: “Logical Foundations of Probality”.- ver también: Carnap An Introduction to the Philosophy of Science Carnap (editado por Martín Gardner 1995)
  53. Branden Fitelson (2006): “Rudolf Carnap (1950) publicó su obra enciclopédica “Fundamentos lógicos de la de la probabilidad” en la que muy claramente explica la idea de una relación lógica inductiva llamado "confirmación" que es una generalización cuantitativa de la implicación deductiva. Véase también la teoría de la confirmación.) La siguiente cita de Carnap (1950) da una idea del proyecto moderno de la lógica inductiva y su relación con la lógica deductiva clásica: La lógica deductiva puede considerarse como la teoría de la relación de consecuencia lógica, y la lógica inductiva como la teoría de otro concepto que es también objetivo y lógico, a saber.... el grado de confirmación." en Inductive Logic
  54. Para una introducción a este aspecto del trabajo de Carnap, ver Julián Velarde L Carnap: Lógica inductiva como lógica de probabilidad (en “Gnoseología de los sistemas difusos”)
  55. Andrés Rivadulla Rodríguez Probabilidad e inducción
  56. Para una visión critica general al trabajo de Carnap, ver William. H. Hanson Names, Random Samples, and Carnap en Grover Maxwell (1975): Induction, Probability, and Confirmation pp 367- 387
  57. Fabris, Adriano El giro lingüístico: hermeneútica y análisis del lenguaje
  58. ARLOS ROJAS O. INVITACION A LA FILOSOFÍA DE LA CIENCIA Archivado el 9 de junio de 2021 en Wayback Machine. p. 187.
  59. Pitter, William y Elita Rincón El círculo de Viena y el positivismo lógico, sección 2. «La tesis del lenguaje lógico y sus dificultades.»
  60. Serna Arango, Julián. Filosofía, literatura y giro lingüístico: Una nueva síntesis.
  61. James Hawthorne (2011): Inductive Logic en Stanford Enciclopedia of Philosophy
  62. Branden Fitelson (2006): Inductive Logic.
  63. Hawthorne, James (2011): "Algunos logicistas bayesianos (por ejemplo, Carnap) han sostenido que las probabilidades posteriores de las hipótesis debe ser determinada solo por la forma lógica. La idea es que las probabilidades pueden especificarse razonablemente en términos de forma lógica, así que si la forma lógica pudiera ser utilizada también para determinar los valores de las probabilidades a priori, entonces la lógica inductiva sería totalmente "formal" de la misma manera que la lógica deductiva es "formal".... (siendo) la idea que a hipótesis sintácticamente similares se les deben asignar los mismos valores anteriores de probabilidad.... La mayoría de los lógicos ahora consideran que el proyecto que ha fallado debido a un error fatal con la idea de que probabilidades a priori razonables se pueden hacer depender solo de la forma lógica. El Contenido semántico debería tener importancia." en Inductive Logic
  64. José Rodríguez de Rivera: "En su análisis de los procedimientos de verificación de hipótesis y teorías, Popper plantea tres tesis.... 2. En segundo lugar no se puede ni siquiera hablar de una confirmación "inductiva" de hipótesis. El recurso al "principio" de inducción, como "probabilidad" de un hipótesis que se iría constatando en una serie de hechos, no remedia la precariedad de medios para verificar hipótesis. Como había ya afirmado Hume, un enunciado universal nunca podrá ser verificado por observación. Por tanto, la idea de fundamentar la ciencia en el método inductivo, a partir de experiencias particulares, conduce a ilogicidad en la construcción de la ciencia. Pero Popper fundamenta esta tesis en su análisis del mismo concepto de "probabilidad de la hipótesis". 3. Dadas dichas premisas se deduce que habrá que analizar los métodos de verificación aplicados en las ciencias naturales sin ayuda del "concepto" de verificación y sin ayuda del concepto de "inducción". en RACIONALISMO CRÍTICO (POPPER) Y LA EPISTEMOLOGÍA DE LAS TEORÍAS SOBRE LA ORGANIZACIÓN Y LA PERSONA
  65. K. Popper (1958): A Third Note on Degree of Corroboration or Confirmation
  66. I. Lakatos (1968) en "Cambios en el problema de la lógica inductiva" en Mathematics, science and epistemology.- Cambridge U press (1978), p 195-196 (Visión parcial - en inglés )
  67. Donal Gillies (2002): "Lakato's Criticisms of Popper", p 18, en George Kampis (György Kampis), Ladislav Kvasz (editors): Appraising Lakatos: mathematics, methodology, and the man pp 13-22
  68. Lakatos, citado por Michael Stoltzner: What Lakatos Could Teach The Mathematical Physicist" (p 182) en G Kampis y L Kvasz editors): Appraising Lakatos: mathematics, methodology, and the man pp 157- 188. Ver también (misma obra) John Watkins: "The Propositional Contente of the Popper-Lakatos Rift" y Olga Kiss: "Mathematical Heuristics.- Lakatos and Polya"
  69. Ver, por ejemplo: Hempel: A Purely Syntactical Definition of Confirmation. J. Symb. Logic 8, 122-143, 1943.- y Studies in Logic and Confirmation. Mind 54, 1-26, 1945. En castellano, ver Hempel La Explicación científica: Estudios sobre la filosofía de la ciencia
  70. Para una visión general de las propuestas de Hempel, ver Carlos Silva: Los cuervos de la inducción Archivado el 5 de marzo de 2016 en Wayback Machine.
  71. Alfonso Olivé P (2000): "Hempel retoma el argumento de relacionar la inducción con la probabilidad, pero considera que no se trata de una probabilidad estadística: se trata de la probabilidad de unos enunciados, no de unas clases de acontecimientos. Dejando de lado que tal razón no justifica el rechazo del análisis estadístico, el autor se refiere como probabilidad a la credibilidad racional, dando de un conocimiento x en un tiempo t. La propuesta de Hempel, inscrita en el marco de la filosofía de la ciencia, busca la credibilidad racional, esto es, su objetivo es muy débil." (énfasis agregado) en ¿ES POSIBLE JUSTIFICAR LA INDUCCIÓN? sección "Las respuestas de Russell".
  72. Por ejemplo: Avi Sion (2008): Hume's Problems with Induction cap 8, p 85
  73. Fetzer, James, Carl Hempel, sección 1. Biographical Sketch.- The Stanford Encyclopedia of Philosophy (Winter 2010 Edition), Edward N. Zalta (ed.)
  74. Fetzer, James, Carl Hempel, sección 3. Scientific Reasoning.- The Stanford Encyclopedia of Philosophy (Winter 2010 Edition), Edward N. Zalta (ed.)
  75. Carlos Silva: Los cuervos de la inducción Archivado el 5 de marzo de 2016 en Wayback Machine.
  76. “Carl Hempel acepta la concepción hipotético deductiva del método científico, dando varios ejemplos tomados de la historia de la ciencia. El más importante es la investigación que realizó Semmelweis con respecto a la fiebre puerperal que causaba gran mortalidad en la primera división de maternidad del hospital general de Viena.” en Introducción al pensamiento científico
  77. Branden Fitelson: 1 Qualitative Confirmation: The Hypotheticodeductive Method
  78. Por ejemplo: Branden Fitelson: Carl Hempel, "Two Models of Scientific Explanation” y Hempel, “The Deductive-Nomological Model of Science”
  79. Di Tella: “Para Hempel las hipótesis no se descubren inductivamente pero se las confirma por inducción probabilística.” op. cit)
  80. Alfonso Olivé P (2000): ¿ES POSIBLE JUSTIFICAR LA INDUCCIÓN? sección Hempel y Salmon.
  81. The Fabric of Reality: The Science of Parallel Universes--and Its Implications, David Deutsch, Ed. Penguin Books, 1998
  82. ”¿Qué es esa cosa llamada ciencia?”, Alan F. Chalmers, Ed. Siglo XXI, 1982
  83. N. Goodman: Fact, Fiction, and Forecast. Cambridge, Massachusetts: Harvard UP, 1955/ 1983
  84. N Goodman: The New Riddle of Induction (extracto de Fact, Fiction and Forecast)
  85. C. G. Hempel (1965/2006): "El método que hemos usado para engendrar inconsistencias por medio de reglas elementales de inducción es afín al empleado por Goodman al plantear su "nuevo enigma de la inducción". Uno de los ejemplos característicos de su enfoque es el siguiente: Supongamos que, de acuerdo a todos los elementos de juicio disponible en un cierto tiempo t, todas las esmeraldas examinadas..... (...). Aunque Goodman realiza su examen en términos de reglas de confirmación, se ve fácilmente que sus pares de hipótesis también pueden utilizarse para demostrar que las reglas de inducción elementales mencionadas antes pueden conducir de un conjunto consistente de elementos de juicio a un conjunto inconsistente de conclusiones." en La explicación científica: estudios sobre la filosofía de la ciencia p 104-105
  86. a b Alessandro Giovannelli (2010): 2. Classifying and Constructing Worlds
  87. Ignacio Ávila C (2002): "Por un lado argumento que el nuevo enigma de la inducción pone de manifiesto la presencia de un elemento fregeano en la teoría de la referencia directa de Putnam y, por el otro, señalo la necesidad de que una respuesta realista a dicho enigma se articule con una tesis epistemológica de cómo conocemos las presuntas propiedades intrínsecas de los objetos." en El nuevo enigma de la inducción y los términos de clase natural
  88. SILVIO PINTO (2002) "El problema de la justificación de la inducción se debe diferenciar de otro problema también planteado por Hume: el de encontrar criterios para la elección de la mejor hipótesis compatible con todas las observaciones hechas. Vamos a ilustrar este último problema a través del llamado nuevo enigma de la inducción formulado por Nelson Goodman..." en El Bayesianismo y la justificación de la inducción.
  89. Álvaro Barreiro García: "A partir de una hipótesis el número de generalizaciones posibles crece exponencialmente con el número conceptos relevantes a la generalización" en Restricciones semánticas sobre la inducción
  90. N Goodman: The New Riddle of Induction (extracto de Fact, Fiction and Forecast) (p 311).
  91. Hempel: "Pero la confirmación, tanto en su forma cualitativa como en la cuantitativa, no puede definirse de manera adecuada por medios sintácticos solamente. Esto lo ha aclarado, en particular, Goodman,..." en La explicación científica: estudios sobre la filosofía de la ciencia p 78
  92. Hilary Putnam (1983): "Goodman replantea totalmente el problema de la inducción. Para el el problema no es como garantizar que una inducción será exitosa en el futuro -no tenemos tal garantía- pero como caracterizar lo que la inducción "es" de una manera que no sea ni muy permisiva ni muy vaga. La dificultad central, que Goodman fue el primero en señalar, es el problema de proyección: que distingue las propiedades que uno puede proyectar inductivamente desde ejemplos/muestras a una población de las propiedades que son más o menor resistentes a tal proyección" en "introducción" a la cuarta edición de "Fact, Fiction and Forecast" p vii
  93. N Goodman: The New Riddle of Induction (extracto de Fact, Fiction and Forecast) (p p 81)
  94. Para una introducción “simple” a este aspecto, considérese el siguiente pasaje de Oliver Sacks: «La percepción no se sitúa solo en el presente -tiene que basarse en la experiencia del pasado, por eso es que Gerald M. Edelman habla del “presente recordado”. Todos tenemos memorias detalladas de como las cosan han previamente parecido y sonado, y esas memorias son recordadas y mezcladas con cada nueva percepción... “Cada acto de percepción -escribe Edelman- es, a cierto grado un acto de creación y cada acto de memoria es a cierto modo un acto de imaginación”». en Musicophilia: Tales of Music and the Brain (Picador, London, 2008, parte 2, cap 11, p 157). La obra citada de G. M. Edelman es: “”The Remembered Present: A biological Theory of Consciousness” (1989- Basic Books, New York). El libro de Sacks ha sido traducido como “Musicofilia: Relatos de la música y el cerebro. Editorial Anagrama (2009).
  95. Alessandro Giovannelli (2010): "El problema se basa en la idea general de que los predicados que proyectamos a la realidad (una realidad que es en sí misma "construido" por esas proyecciones, de acuerdo con el enfoque constructivista Goodman defendió desde el momento de Estudio de las cualidades [1941], por lo tanto de la Estructura de Comparecencia [1951] y, más tarde, en la forma de Worldmaking [1978])." en 2. Classifying and Constructing Worlds
  96. Alan Garnham, Jane Oakhill (1996): "Johnson-Laird, por tanto, propone cuatro restricciones a la generalización inductiva: la elección de la hipótesis más específica compatible con los datos, la parsimonia, el uso del conocimiento existente, y la disponibilidad de ese conocimiento (en el sentido de Tversky y Kahneman, 1973... “ en Manual de psicología del pensamiento p 146.- Ver también R. G. Swinburne (1968): “Grue”
  97. Jared Bates (2005): “The old problem of induction and the new reflective equilibrium”
  98. Goodman: Fact, Fiction, and Forecast, p 67-68, citado por Bates -énfasis de Goodman
  99. ver, por ejemplo: Daniels, Norman (2011): Reflective Equilibrium

Bibliografía

[editar]

En línea

[editar]

Libros

[editar]
  • Black, M.: Inducción y probabilidad, Madrid: Cátedra, 1979.
  • La justificación del razonamiento inductivo, Madrid: Alianza Editorial, 1976.
  • Boudot, M.: Lógica inductiva y probabilidad, Madrid, 1979.
  • Hempel, C. G.: La explicación científica, Buenos Aires: Paidos, 1979.
  • Klimovsky, Gregorio (1995). Las desventuras del conocimiento científico. a-Z editora. 
  • Lakatos, I.: Historia de la ciencia y sus reconstrucciones racionales, Madrid, 1974.
  • Pruebas y Refutaciones. La lógica del descubrimiento matemático, Madrid, 1976.
  • Matemáticas, ciencia y epistemología, Madrid, 1981.
  • Neisser, U.: Procesos cognitivos y realidad, Madrid, 1981.
  • Swinburne, R. (Ed.): La justificación del razonamiento inductivo, Madrid, 1976.
  • Toulmin, S.: La comprensión humana. I. El uso colectivo y la evolución de los conceptos, Madrid: Alianza Editorial, 1977.
  • José A. Díez, C. Ulises Moulines (1997- 2008) Fundamentos de Filosofía de la Ciencia cap 2 y 12
  • Antonio Diéguez L (2005): "Filosofía de la Ciencia"; esp, cap 2 y 7