Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

CONCEPTOS METODOLÓGICOS BÁSICOS Dr.Antoni Domènech (UB 1.Tres preguntas sob, Apuntes de Sociología

Asignatura: Metodologia de les ciencies socials, Profesor: Antoni Domenech, Carrera: Sociologia, Universidad: UB

Tipo: Apuntes

2012/2013

Subido el 01/10/2013

kuba92
kuba92 🇪🇸

3.9

(25)

4 documentos

1 / 24

Toggle sidebar

Documentos relacionados


Vista previa parcial del texto

¡Descarga CONCEPTOS METODOLÓGICOS BÁSICOS Dr.Antoni Domènech (UB 1.Tres preguntas sob y más Apuntes en PDF de Sociología solo en Docsity! CONCEPTOS METODOLÓGICOS BÁSICOS Dr.Antoni Domènech (UB) 1.Tres preguntas sobre la verdad, la información, los agentes y las instituciones de la empresa cognitiva No sólo no queremos hacer todo lo que podemos, sino que, más a menudo, no podemos hacer todo lo que queremos. Nuestra acción se enfrenta a diversas restricciones objetivas, atravesadas en el camino de nuestras preferencias: restricciones de recursos, restricciones tecnológicas, restricciones informativas. Éstas últimas son particularmente importantes, porque, a diferencia de todas las demás, normalmente no podemos evaluar la relación coste/beneficio que entraña el eliminarlas. Para conseguir X, creo que necesito saber Y, es decir, emprender la acción, A, de eliminar la restricción informativa que me impide conocer Y. Ahora bien: a) puede que, una vez conocido Y, ese saber resulte inútil para obtener X; o b) el coste de obtener Y (el coste de la acción A) no compense el beneficio de X. En general, yo no puedo anticipar el valor de la pieza de información Y, no puedo saber lo que vale para mí hasta que dispongo de ella, y eso hace que mi acción A sea siempre problemática desde el punto de vista del análisis coste/beneficio. Desde el punto de vista de la racionalidad puramente instrumental, la acción A de eliminar restricciones informativas resulta siempre, y cuando menos, problemática. Lo que, en principio, se compadecería mejor con la racionalidad instrumental (que exige la elección del mejor medio --de la mejor acción-- para promover nuestros fines --nuestras preferencias—, atendidos los resultados de un análisis coste/beneficio de la relación medios/fines) sería precisamente la resignada aceptación de nuestras restricciones informativas, operando a partir de ellas como dato inamovible de nuestra situación: ignoramus et ignorabimus. El caso es que, en muchas ocasiones, los humanos no aceptamos este prudente consejo de la racionalidad instrumental y, de acuerdo con la maravillosa divisa de la Ilustración,[1] nos atrevemos a inquirir, osamos invertir nuestros recursos en la incierta empresa de eliminar restricciones informativas. Resultado de lo cual –no el único, empero— es la investigación científica. Tenemos, pues, esta primera pregunta: ¿porqué (muchas veces) nos lanzamos a la acción de despejar restricciones informativas, desobedeciendo los prudentes consejos de la racionalidad instrumental? Investigar es tratar de despejar restricciones informativas. Es tratar de cobrar piezas de información, sin reparar demasiado en el coste de los medios empleados. ¿Qué es la “información”? En un sentido muy general, se puede decir que “informar” es excluir alternativas posibles. Cuantas más de esas alternativas posibles excluyamos, más información tenemos. Si digo: “Ayer llovió o no llovió”, no excluyo nada, absolutamente nada, y por lo mismo que no excluyo nada –que mantengo todas las posibilidades abiertas--, no digo nada “informativo”. Si digo: “Ayer llovió”, excluyo una cosa, a saber: que no llovió, y por lo mismo, digo algo informativo. Estoy desinformado cuando todas las posibilidades están abiertas para mí; estoy mínimamente informado, cuando puedo excluir algunas de esas posibilidades. Cuando estoy en un cruce de caminos, y varios se abren ante mí, estoy completamente informado si puedo excluirlos a todos menos al que más derechamente lleva a mi destino; y estoy completamente desinformado, si ninguno de ellos se me antoja perdidizo. Estoy medianamente informado, si puedo excluir a algunos. Sin información, estamos perdidos; informados, estamos orientados en el mundo. Ahora bien; una cosa es la información, en el sentido más o menos técnico aquí definido, y otra la verdad. Supongamos que, en la encrucijada en que me encuentro, abiertos diez caminos ante mí, poseo la información de que el buen camino es el de la extrema izquierda. Esa es en principio una información muy valiosa –máximamente “informativa” en mi circunstancia viajera--, porque excluye todas las posibilidades menos una. Pero, ¿y si anduviera errada? ¿Y si el buen camino fuera otro, el segundo comenzando por la izquierda, por ejemplo? Es decir, el que una cosa sea muy informativa, no implica que sea verdadera. Casi podría decirse que lo contrario tiende a ser cierto: Pues cuanto más informativo es un mensaje, más cosas posibles excluye. Y cuantas más cosas posibles excluye, más fácilmente yerra. Cuando no excluyo nada, no puedo equivocarme. Si digo: “Ayer llovió o no no llovió”, es imposible que me equivoque. Que “Ayer llovió o no llovió” es una tautología,[2] es necesariamente verdadero, precisamente porque no es informativo y no excluye nada. Que “Ayer llovió en Barcelona entre las 12h y las 13h, y no antes ni después” es un aserto bastante informativo, pero la probabilidad a priori de que sea verdadero es también bastante pequeña (1/224). Hay, pues, una tensión entre información y verdad. Si lo que pretendemos es tener siempre razón, no equivocarnos nunca, llevar siempre las de ganar en las discusiones, lo mejor es decir verdades de Pero Grullo, limitarnos a sostener cosas trivialmente verdaderas, cosas que no excluyan nada, o lo menos posible, afirmaciones no informativas. Naturalmente, lo aconsejable entonces es usar algún tipo de camuflage de la trivialidad, hablar con lenguaje obscuro e impenetrable, o poner cara solemne, o engolar convenientemente la voz, o disfrazarse de rebelde contestatario que busca lenguajes, modos de decir “alternativos”, o ataviarse con oropeles de mago y abalorios de vidente: “dado su signo astral, señorita, es bien posible que esta semana conozca Vd. al amor de su vida, o si no, al tiempo”, etc. Los antiguos conocían ya estos trucos que tan buenas reputaciones esotéricas y filosóficas siguen reportando en nuestros días: las predicciones “délficas” eran exactamente eso, vaguedades que impresionan precisamente por lo difíciles que resultan de refutar o contradecir. Huelga decir que el investigador honrado está en las antípodas del vanílocuo. Lo que quiere es cobrar piezas muy informativas que, al tiempo, sean verdaderas. La investigación, la búsqueda organizada y sistemática de conocimiento, anda en pos de verdades no triviales, esto es, de verdades muy informativas. El éxito de la investigación radica en salir airoso de tan delicada lidia. Tenemos, ahora, esta segunda pregunta: ¿cómo se pueden conseguir verdades tan improbables y escurridizas como son las verdades informativas? O, lo que viene a ser el mismo problema: ¿cómo lograr que constructos y asertos extremadamente informativos, y por lo mismo, improbables, se aproximen razonablemente a la verdad? Pero a lo difícil que resulta ya andar tras verdades extremadamente improbables (ésas son las informativas), aún hay que añadir la dificultad de varios obstáculos que, por decirlo de entrada sin mayores complicaciones, se oponen a la búsqueda de la verdad. Agapito es acusado de haber cometido un horrible crimen de violación seguida de asesinato. Llevado a juicio, las pruebas del fiscal son concluyentes: aporta móvil (los celos de Agapito ante la novia que le ha dejado por otro), testigos presenciales (la portera le vió entrar a la hora del crimen y salir poco después; dos voyeurs, desde sendas ventanas de enfrente, vieron todo, procesar y reaccionar a información típica de su medio previsible. En el segundo tipo de programación, entre otras cosas, de lo que se trata es de programar al robot para que sea un buscador incansable de información nueva, no necesariamente enlatada dominio- específicamente. Nosotros, los diseñadores, disponemos de toda la información que está en el repertorio de programas dominio-específicos del robot. Pero no podemos anticipar la información que descubrirá él por su cuenta cuando lo programamos como un buscador incesante de información nueva. Programarle como un robot curioso es lo que maximizará las probabilidades de su supervivencia. Y no podemos programale de otro modo: pues ni nosotros podemos hacer un cálculo coste/beneficio de su posible acción de búsqueda de información atípica, ni podemos programarle a él para que lo haga. Simplemente no puede hacerse: es lógicamente imposible hacer el cálculo coste/beneficio de la acción de obtener una información que aún no se tiene. Hacer un robot curioso, que tenga gusto y afición intrínseca – independientemente de los resultados prácticos-- por la acción de eliminar restricciones es la forma más práctica que tenemos de diseñar el robot que habrá de proteger nuestro cuerpo durante los próximos 500 años. Podemos conjeturar que la naturaleza nos ha diseñado más o menos como nosotros diseñaríamos al hipotético robot de nuestro ejemplo, es decir, con al menos estos dos incentivos: [4] una curiosidad insaciable que motive constantemente para buscar información nueva sobre el medio, y para buscarla por ella misma, no instrumentalmente, y una capacidad cognitiva que, aparte de permitir procesar la información adquirida, gratifique por ello. Aristóteles dijo que la curiosidad es el comienzo, el primer motivo, de la indagación teórico- científica. Y la existencia en nostros de ese motivo responde a nuestra primera pregunta. 3. Argumentos deductivos e inductivos. Nuestra segunda pregunta tenía que ver con la dificultad de obtener verdades muy informativas. Cuanto más informativo un aserto, tanto más improbablemente verdadero. Pero si no queremos conformarnos con verdades triviales ni con constructos muy informativos, pero falsos, ¿cómo podemos avanzar? Cuando queremos defender una opinión, una creencia, una hipótesis, se dice que damos argumentos a favor de ella. ¿Qué es un argumento? Un argumento es un conjunto de afirmaciones o sentencias, dividido en dos subconjuntos de ellas: premisas y conclusiones. El subconjunto de las conclusiones contiene la opinión o la creencia o la hipótesis que queremos defender, y el subconjunto de las premisas contiene aquello con queremos defender –o argüir a favor de-- nuestra posición. Los dos subconjuntos están enlazados o clausurados por una relación de inferencia. Hay dos tipos principales de argumentos, según el tipo de inferencia que usemos: los deductivos y los inductivos. a) Argumentos deductivos. Supongamos que quiero defender mi opinión de que hay un tesoro escondido en A. Y argumento así: 1. Agapito me ha dicho que hay un tesoro escondido en A, o en B, o en C, y no en ninguno de los otros 997 sitios en que podría estar escondido; 2. Desiderio me ha asegurado que no hay ningún tesoro en B; 3. Isidoro ma dicho que no hay ningún tesoro en C; 4. Por consiguiente: concluyo que el tesoro está en A. Para defender mi opinión de que hay un tesoro en A, lo que he hecho es construir un argumento deductivo en el que 1, 2 y 3 son las premisas, y 4, la conclusión. La premisa 1 excluye 997 posibilidades de las 1000 que están abiertas; la premisa 2 excluye otra más; y la premisa 3 excluye otra. Premisas y conclusión están ligadas o clausuradas por una inferencia deductiva. Respecto de los argumentos deductivos hay que observar lo siguiente: en primer lugar, son conservadores perfectos de verdad. Si las premisas son verdaderas, necesariamente es verdadera también la conclusión. Esa es su gran fuerza. En segundo lugar, no aumentan nuestra información: toda la información de la conclusión está ya contenida en las premisas. Ese es, digámoslo así, su punto débil. Naturalmente, no todos los argumentos deductivos son tan sencillos, transparentes e inmediatos como éste del ejemplo. Un argumento deductivo menos inmediato podría ser: 1. (Premisa) 2x2 = 1; 2. (Conclusión) x = Ö1/2 En general, para los argumentos deductivos muy potentes necesitamos cálculos (conjuntos de reglas de inferencia deductiva) muy potentes; para los argumentos deductivos inmediatos o casi –como los dos aquí expuestos--, bastan cálculos modestos. En el primer ejemplo, lo que hacemos –sin apercibirnos-- es aplicar la regla de eliminación del disyuntor, que es una regla del cálculo proposicional de la lógica elemental. En el segundo ejemplo, lo que hacemos –sin casi apercibirnos-- es usar las reglas de inferencia del álgebra elemental. b) Argumentos inductivos. Supongamos que la persona a la que trato de convencer de que el tesoro está en A no queda convencida con mi argumento. El argumento es, desde luego, impecable. Pero sólo dice que si las premisas son verdaderas, lo es la conclusión. Y mi interlocutor duda de que las premisas sean verdaderas, duda, por ejemplo de la veracidad o de la competencia de Agapito, o de Desiderio, o de Isidoro, o de los tres a la vez. Para convencer a mi interlocutor, tengo que ofrecer un argumento suplementario, éste: 1. Hasta ahora, Agapito no me ha engañado nunca. Y conoce la zona palmo a palmo; 2. Nunca he visto, hasta ahora, que Desiderio falte a la verdad. Y también es un excelente conocedor de la región; 3. Isidoro es una persona cabal, y siempre me ha dicho hasta ahora la verdad. Además, conoce perfectamente estos parajes; 4. Por consiguiente: hay buenos motivos para creer que ahora también están diciendo la verdad. Para defender mi opinión de que Agapito, Desiderio e Isidoro son fiables y veraces en sus afirmaciones, lo que he hecho es construir un argumento inductivo en el que, apelando a mi experiencia pasada, concluyo que en el futuro seguirá probablemente ocurriendo lo mismo. Dos cosas son de observar: en primer lugar, los argumentos inductivos no son conservadores perfectos de la verdad: podría perfectamente ser que las premisas de este argumento fueran verdaderas y, sin embargo, la conclusión falsa. Ese es el lado, digamos, débil de los argumentos inductivos. En segundo lugar, los argumentos inductivos aumentan nuestra información: en la conclusión hay información nueva que no está contenida en las premisas del argumento. Ese es el lado fuerte de la argumentación inductiva. Supongamos que convenzo a mi interlocutor y vamos a buscar el tesoro a A. Supongamos que no lo encontramos allí. Diremos entonces que mi conjectura, mi argumento hipotético- deductivo, ha quedado refutado: como el argumento es válido, la falla tiene que estar en la conjetura, en las premisas del argumento. Estaré obligado a modificar alguna de ellas, o las tres. Si, en cambio, el tesoro está efectivamente en A y lo encontramos, ¿qué ocurrirá? Parece justo que si el no encontrarlo en A arruina el crédito que damos a las premisas, el encontrarlo, en cambio, debe incrementar ese crédito. Después de hallar el tesoro en A, parece lo normal decir que mi conjetura, las premisas de mi argumento, han salido reforzadas de la prueba. La afirmación de que el tesoro está en A, y no en alguna de las otras 999 alternativas posibles, es una afirmación bastante informativa. Si para simplificar, definimos la información como I = 1 – p; es decir, restando a 1 la probabilidad a prioiri de la afirmación en cuestión (la probabilidad se mide entre 0 y 1, siendo 0 un imposible y 1 una certeza), tenemos que : I = 1 – 1/1000; es decir, un valor informativo muy alto (pues medimos ahora, para simplifacar, la información también entre 0 y 1, y el valor de I se acerca mucho a 1). Una forma muy simplificada y esquemática --y desde luego, discutible--, pero útil en un texto como éste, de representarnos en cuánto aumenta el crédito que estamos dispuestos a prestar a una conjetura el hecho de que esta conjetura haya pasado una prueba empírica como ésta, consiste en decir que cuánto más informativa es la predicción exitosa que hemos podido deducir de una hipótesis o conjetura, tanto más crédito conferirá a la conjetura. Y esto puede expresarse así: una vez encontrado el tesoro en A, podemos construir un nuevo argumento inductivo a favor de la hipótesis de que Agapito, Desiderio e Isidoro son veraces. Y el argumento dice así: 1. Si Agapito, Desiderio e Isidoro no dijeran la verdad, la probabilidad de que en A haya un tesoro es bajísima: 1/1000; 2. En A hay un tesoro; 3. Por consiguiente: podemos confiar en que Agapito, Desiderio e Isidoro dicen la verdad, y podemos confiar con una probablidad igual a la cantidad de información que contiene la predicción de que en A hay un tesoro, es decir con p = 1 – 1/1000. Cuanto más informativa la predicción exitosa deducida de una conjetura, tanto más crédito epistémico confiere –inductivamente-- a la conjetura. ¿Bastan las predicciones muy informativas y exitosas para que quien las haga disponga de crédito epistémico? No, no basta. Veamos porqué. Supongamos que la señora Aramís me dice hoy, sin más argumento ni explicación, que ganaré un pleno al quince en la quiniela del próximo domingo. Es ésta un predicción muy informativa, porque su probablidad es extremadamente baja: Sin embargo, el mundo está pletórico de piezas de información: ¿estamos programados para tratar de cobrarlas todas sin distinción? ¿Son todas igualmente interesantes para nosotros? Y aun si lo fueran, ¿acaso tenemos una capacidad ilimitada para procesar la información capturada, para digerir todas las piezas cobradas? Evidentemente, no. Estamos programados biológicamente para que unas piezas de información nos importen mucho más que otras (para que nos importen mucho más, por ejemplo, las vibraciones acústicas de baja frecuencia que las de alta frecuencia, o para que despierten nuestra curiosidad las ondas lumínicas, y no, pongamos por caso, las feromonas). Y es el caso, además, que, según ya va sugerido, criaturas finitas al fin y al cabo, nuestras capacidades de registro y procesamiento de información son limitadas. Nuestro registro de la información del mundo debe consistir en alguna representación del mismo que podamos procesar. ¿Hay algún límite fijo a nuestra capacidad de procesar información? En la época de la revolución informática y de los supercomputadores, beodos de la ideología y la retórica de la “sociedad de la información”, parece una osadía contestar por la afirmativa a esa pregunta. “Por limitados que nosotros mismos seamos –eso es lo que parece estar en el aire--, no se ve límite alguno a nuestra capacidad para inventar máquinas cada vez más potentes de procesamiento de información.” Pero el incauto optimismo tecnológico, tan difundido en nuestra época, anda errado también aquí. Hay un límite físico –no meramente moral o biológico— a la capacidad para procesar información. Ese límite está expresado por la “Ley de Bremermann”, un teorema derivado de la mecánica cuántica (la más firme y segura de las teorías empíricas disponibles). El principio de Bremermann dice que la capacidad máxima de procesamiento de información por unidad de masa (un gramo) y de tiempo (un segundo) es igual a 2x1047 bits de información. Si calculamos la masa del planeta Tierra en gramos y convertimos a segundos sus cinco mil millones de años de existencia, entones podemos obtener la cantidad total de información que habría podido procesar nuestro planeta en la fantástica y optimista hipótesis de que toda su masa hubiera compuesto un computador máximamente eficiente durante todo el tiempo. Esa cantidad es de: 1093 bits de información.[7] Podemos estar físicamente seguros de que nunca construiremos un computador capaz de procesar una cantidad de información mayor que ésta, y por lo tanto, podemos fijar ese número como un límite, el límite de transcomputabilidad: cualquier problema cuya solución requiera el procesamiento de un número de bits mayor que 1093 es transcomputable, no puede resolverse. [8] Podría pensarse que 1093 es un número gigantesco, y en efecto, lo es. Pero hay muy pocos sistemas interesantes que contengan una cantidad de información menor que 1093 bits. Veamos algunos ejemplos. Supongamos un tablero parecido al del ajedrez, que contenga 10x10 = 100 cuadros. Supongamos que tenemos la posibilidad de emplear 10 colores distintos para rellenar esos cuadros. ¿Cuántas posibilidades hay? ¿Cuántas posibles configuraciones cromáticas puede exhibir el tablero? La respuesta es fácil: se trata de elevar el número de colores al número de cuadros posibles: 10100. Supongamos que nuestras necesidades cognitivas se reducen a algo tan simple como seleccionar, identificar, distinguir o clasificar una configuración cromática determinada frente a todas las demás posibles, es decir, reconocer un patrón cromático. (Se calla por sabido que identificar un determinado objeto, o una determinada configuración cromática, y distinguirla de todas las demás, puede tener un valor adaptativo vital para un organismo.) Entonces, suponiendo que queremos usar un método de búsqueda exhaustivo y absolutamente seguro, en el que cada bit de información –cada respuesta a una cuestión dicotómica— nos permite dividir las elecciones restantes por dos, tendremos que procesar: Log2210100=10100 bits de información. Es decir, que no podemos hacerlo, porque el facilón problema que necesitamos resolver… ¡es transcomputable! La nimia apariencia del problema es lo que hace llamativo el resultado. Problemas menos triviales aumentan, obvio es decirlo, las dificultades. Nuestra retina está formada por aproximadamente un millón de células. Supongamos que cada una de ellas puede estar sólo en dos situaciones: inhibida o excitada. Si nos propusiéramos identificar o clasificar un estado determinado de nuestra retina frente a todos los posibles estados restantes, nos enfrentaríamos a otro problema transcomputable: habría que procesar 21.000.000@ 10300.000 bits de información. La sociedad española está compuesta por unos 40 millones de habitantes. Si hiciéramos el supuesto simplificatorio de que cada ciudadano español puede tener sólo diez conductas posibles y nos propusiéramos identificar o clasificar un estado determinado de la sociedad española frente a todos los posibles estados, nos enfrentaríamos a un problema transcomputable todavía más enorme: habría que procesar 1040.000.000 bits de información. Lo mejor es enemigo de lo bueno. Claramente, el método de búsqueda exhaustivo y absolutamente seguro (el método enumerativo) no funciona: es completamente “robusto” (resolvería el problema con toda seguridad, si dispusiera de un tiempo ilimitado), pero es “ineficiente” (no puede resolver, siquiera por remota aproximación, el problema en un período limitado de tiempo). 6. Imitación de la naturaleza Supongamos que el éxito ecológico de un organismo depende de que se adapte a alguna configuración cromática determinada del tipo de las de nuestro primer ejemplo. Supongamos que esa configuración cromática particular (o el pequeño conjunto de ellas que forman una gran X amarilla sobre fondo violeta, pongamos por caso) es su medio ambiente.[9] ¿Cómo se las ha arreglado la evolución darwiniana para “identificar” configuraciones de este tipo –y mucho más complejas-- y diseñar organismos que se adaptan a ellas? Evidentemente, no por un método enumerativo de ensayar un diseño tras otro, bien en un orden predeterminado, bien al azar: se tardaría miles de millones de años en completar una tarea tan baladí. Un organismo es una amalgama de características fenotípicas determinadas por los genes de sus cromosomas. Cada gen tiene varias formas alternativas –los alelos—que producen diferencias en el conjunto de características asociadas a ese gen. Una especie vertebrada típica tiene unos 10.000 genes (unos 80.000 el homo sapiens). Suponiendo que hay dos alelos posibles para cada gen, tenemos que la Naturaleza tiene a su disposición 210.000@ 103.000 genotipos posibles para una especie vertebrada promedio: éstos forman el conjunto a de estructuras accesibles. Observemos que incluso una población inmensamente grande de individuos –diez mil millones, 1010, por ejemplo— no constituyen sino un ínfimo subconjunto de a, del conjunto de organismos genéticamente posibles. Si la Naturaleza fuera ensayando por vía enumerativa qué organismos son capaces de adaptarse mejor al medio (de “reconocer” con suficiente aproximación una X amarilla sobre un fondo violeta del tablero), no acabaría nunca. Pero la Naturaleza procede de otra forma. Procede por el método de la selección natural: premia con mayores probabilidades de descendencia a los organismos que, en comparación con sus coetáneos, son más aptos, es decir –en nuestro caso--, se acercan más al reconocimiento de la configuración cromática en cuestión. En cada población, pues, la Naturaleza pone a prueba a los organismos, y selecciona positivamente a los más aptos, cribando negativamente a los que, en comparación, son más torpes. Para nuestros propósitos, es útil entender este concepto de “aptitud” y puesta a prueba de los organismos como un procedimiento de muestreo estadístico. El universo del muestreo es el conjunto de todos los organismos posibles, a, y el resultado, m, de cada muestra, A, es el grado de aptitud exhibido por el fenotipo del organismo correspondiente. (Puesto que, para conseguir mayor eficacia, es necesario renunciar a algo de robustez, necesitamos un “grado”, una medida de adaptación: ahora las cosas son a más o menos, no a todo o nada.) Pues bien; la selección natural opera de tal modo, que el resultado de la muestra AÎa, es decir, su grado de aptitud, m (A), influye en, o altera, el plan futuro de muestreo (los tipos de muestra que habrán de ensayarse en el futuro).[10] En condiciones normales (cuando no hay catástrofes medioambientales, ni deriva genética, ni cosas por el estilo), la selección natural opera con eficacia modeladora, generando orden y diseño mediante este sencillo modo de muestreo, en el que el resultado de la muestra de hoy incide en la elección de la muestra de mañana. 7. Orden, información y evolución La noción de “orden”, que todos intuitivamente entendemos, se puede relacionar con la noción de información. En física, suela definirse la “información” contenida en un sistema como la diferencia entre la “entropía máxima” posible del sistema (es decir, la cantidad medida en bits de configuraciones posibles del sistema, de todas las combinaciones posibles de sus elementos) menos la “entropía real” (es decir, la cantidad medida en bits, de combinaciones o configuraciones que realmente exhibe el sistema en cuestión): I = Emax - Er Un sistema no contiene ninguna información si Emax = Er, esto es, si el sistema exhibe realmente todas las conductas –todas las combinaciones de sus elementos— que son matemáticamente posibles: en tal caso, el sistema es completamente desordenado y aleatorio; todo es posible al punto de ser todo equiprobable, no puede excluirse nada, y por lo mismo, no hay ninguna información objetiva que buscar. Consideremos ahora desde otro punto de vista nuestro ejemplo de un tablero de diez colores posibles y cien cuadros, considerémoslo desde el punto de vista de su posible evolución a lo largo del tiempo, una evolución capaz de generar distintas configuraciones. Visto así, si la aparición de la configuración cromática “una X amarilla con fondo violeta” fuera equiprobable en cualquier momento respecto de cualquier otra configuración cromática, entonces el sistema formado por la sucesión temporal de distintas configuraciones cromáticas sería totalmente aleatorio y no contendría información objetiva alguna, no habría nada que indagar en él. Evidentemente, el que nosotros fuéramos Supermentes capaces de identificar esa configuración de 8x8? ¿Qué es lo que predetermina el espectro, el abanico de posibilidades combinatorias? En general, podemos conjeturar que todos los animales con sistema nervioso central y ciertas capacidades cognitivas desarrolladas tienen impresas en su genoma predeterminaciones de espectros de posibilidades, y en muchas ocasiones, incluso esquemas cognitivos para discernirlas e identificarlas. Los humanos incluidos, por supuesto. Pero, además, los humanos podemos determinar por nosotros mismos, sin estar genéticamente preprogramados para ello, espectros de posibilidades combinatorias, podemos fijar por nuestra cuenta marcos cognitivos, abanicos de posibilidades relevantes, establecer, si así quiere decirse, que el tablero es de 10x10 –y no de 8x8--, o que el número de colores posibles de ese sistema es de 10 –y no de 15, o de 5--. Naturalmente, podemos equivocarnos. O dar en el clavo. El error o el acierto será cosa “nuestra”, es decir, del Agente.[16] Al transferirnos el Principal –la Naturaleza—la labor de determinar por nosotros mismos cuáles son las posibilidades relevantes, nos ha cargado con una tarea hercúlea. Pues una vez establecido el abanico de posibilidades relevantes, es posible determinar fácilmente la cantidad de información generada por un determinado acontecimiento aplicando los axiomas del cálculo de probabilidades; pero, sin fijar ese abanico, ni siquiera puede pensarse en utilizar aquel cálculo.[17] Con mayor o menor claridad, la dificultad de esa tarea ha venido siendo reconocida por la filosofía del conocimiento al menos desde que Aristóteles dejó sentado uno de los objetivos de la investigación teórico-analítica con su famosa consigna de “dividir la naturaleza por sus articulaciones”. Cuando queremos cobrar piezas de información, lo primero que tenemos que hacer es determinar el abanico de posibilidades relevantes, fijar los lindes del coto, en la esperanza de que éstos coincidan con las “articulaciones de la naturaleza”. Una señal alentadora de esa esperanza será la facilidad con que consigamos realizar descripciones densas o comprimidas del objeto de investigación. (A eso llamaron los escolásticos la construcción del “objeto formal” o punto de vista de la investigación, distinguiéndolo correctamente del “objeto material” del estudio.) 8. Descripciones densas, conceptos clasificatorios y explicaciones. Una descripción densa corresponde a un patrón, pues sólo los patrones son comprimibles. Es posible que la descripción, aun si comprimida, resulte demasiado prolija: ello puede ser síntoma de que las fronteras del abanico de posibilidades relevantes están mal trazadas (o de que, alternativamente, el objeto material de estudio tiene poco orden objetivo). También es posible que la descripción, aun si nada prolija y muy eficiente, sea poco robusta: también eso puede ser síntoma de que las fronteras del abanico están mal trazadas, de que no se ha dividido limpiamente a la naturaleza por sus articulaciones. Sea como fuere, tras una descripción mínimamente densa –que combine de algún modo eficiencia y robustez--, viene la explicación. Explicar es responder a la pregunta: ¿porqué se da este patrón de conducta? Es decir, establecidas las posibilidades relevantes, y establecido que sólo unas pocas se cumplen, se “actualizan”, nos preguntamos porqué sólo se cumplen esas pocas, porqué no todas las posibilidades son equiprobables. En la preparación de la respuesta hacemos tres cosas: a) vemos si hay otra(s) segunda(s) pauta(s) densamente describible(s); b) buscamos una relación entre ambas; y luego, c) tratamos de dar cuenta o razón, tratamos de inferir la primera en función de la(s) segunda(s). Inferir la primera pauta de la(s) segunda(s) pauta(s) es explicar la primera con la(s) segunda(s). Trataremos ahora de mostrar dos cosas: en primer lugar, la naturaleza del argumento explicativo; y en segundo lugar, cómo, de tener éxito con estas tres operaciones explicativas, habremos conseguido aumentar nuestra información. 1. La explicación como argumento deductivo. Supongamos que tratamos de informarnos sobre la delincuencia juvenil, que tratamos de explicar, de responder razonablemente a la pregunta ¿por qué hay delincuencia juvenil en las sociedades industriales avanzadas?, o más específicamente, ¿por qué el x% de los jóvenes de las conurbaciones industriales españolas delinque? Eso significa, por lo pronto, que nuestra clase de referencia, A, es la clase de los jóvenes españoles residentes en las periferias urbanas industriales. Fijando las posibilidades relevantes, podemos partir doblemente esa clase: En primer lugar, realizaremos una partición de explanandum (de la pauta que queremos explicar) y una partición de explanans (de la pauta con la que queremos explicar). Si tratamos de explicar el grado de delincuencia a partir, por ejemplo, a partir de la variables de género, religiosidad y pobreza, podemos proceder así: Empezamos con una partición del explanandum, por ejemplo: (M) = (M1, M2, M3 ); en donde M1 es el subconjunto de los jóvenes no convictos de crímenes, M2 el subconjunto de los jóvenes convictos de crímenes menores y M3 el de los jóvenes convictos al menos de un delito importante. Y luego hacemos tres particiones de explanans pueden, una para el géner, otra para la religiosidad y otra para la pobreza: S, S’ y S’’: (S) = (S1, S2), en donde S1 puede ser el subconjunto de los varones, y S2 el subconjunto de las chicas; además, (S’) = (S’1, S’2), siendo S’1 el subconjunto de los jóvenes con padres católicos practicantes y S’2 el de los jóvenes con padres no practicantes; y (S’’) = (S’’1, S’’2), siendo S’’1 el subconjunto de los jóvenes cuyos padres tienen un nivel de renta por debajo del umbral de la pobreza, y S’’2 el de procedentes de familias por encima del nivel de la pobreza. Para realizar todas esas particiones matemáticas no es necesario sino respetar tres criterios formales. Los tres criterios formales que deben como mínimo respetar las buenas clasificaciones. Éstos: a) ningún subconjunto de la partición debe ser vacío: Mi¹f ; Si¹f; b) la partición debe ser exhaustiva: ningún elemento de (M) y de (S) debe quedar fuera de la partición; y c) la partición debe ser excluyente: los miembros de (M) y de (S) no pueden pertenecer a más de un subconjunto.[18] Pues bien; armados con los conceptos clasificatorios resultantes de esta partición matemática, lo que tratamos es de construir un argumento deductivo cuya forma es, en substancia, la siguiente: Premisa 1: Los varones jóvenes conurbanos delinquen un w% más que las chicas; Premisa 2: Los hijos de familias con prácticas religiosas delinquen un y% menos que los hijos de familias menos religiosas; Premisa 3: Los hijos de familias bajo el umbral de la pobreza delinquen un z% más que los hijos de familias por encima de ese umbral; Premisa 4: esta premisa nos da, primero, el número de chicos y chicas conurbanos; segundo, el número de familias con una u otra intensidad en la práctica religiosa; y por último, el número de familias bajo y sobre el umbral de la pobreza. Conclusión: dadas estas 4 premisas, la tasa de delincuencia juvenil en las conurbaciones industriales tiene que ser del x% de la población juvenil conurbana total. Las premisas constituyen el explanans, aquello con que queremos explicar. La conclusión del argumento es el explanandum, aquello que queremos explicar. Y este argumento es deductivo, lo que quiere decir, como se recordará, que toda la información que está en la conclusión, está ya contenida en las premisas. Ahora bien; una explicación del explanandum por el explanans es más que una pura deducción. La relación entre ambos es, sin duda, de inferencia deductiva. Pero se suele exigir que, además de esa relación de deductibilidad, haya un vínculo de otro tipo. Normalmente, se pide que ese vínculo sea causal, es decir, que tengamos motivos para pensar que el explanans (en este caso, una pauta formada por factores de género, de religiosidad y de pobreza) de uno u otro modo causan o traen consigo el explanandum (la pauta de un x% de delincuencia juvenil conurbana, por seguir con el ejemplo). La exigencia de vínculo causal es tal vez demasiado fuerte: luego veremos que esa exigencia es sólo un caso particular –aunque importantísimo-- de una pretensión metodológica más laxa, cual es la de que la información transmitida por el sistema de particiones de explanans y explanandum sea –como mínimo-- superior a cero. Veamos eso con un poco de detenimiento. 2. La información transmitida por una explicación Sirviéndonos de nuevo de los conceptos de la teoría de la información, podemos definir la incertidumbre, Hm, de la partición de explanandum, y la incertidumbre de la tripartición de explanans, Hs, como sigue: Hm = å pi log21/pi Hs = å pj log21/pj En donde: una conexión causal entre las tres primeras variables independientes y la última, la variable dependiente, que es el nivel de delincuencia. La palabra clave es “apunta”: la hipótesis estadística apunta a una relación de determinación causal de la variable dependiente por las tres variables independientes. Lo que ocurre es que esta hipótesis –como todas las hipótesis estadísticas— no puede hacer otra cosa que apuntar a ella; no basta para establecerla. 9. El vínculo causal En un legendario artículo publicado hace ya más de treinta años, Herbert Simon mostró convincentemente que ni las más refinadas técnicas estadísticas del tratamiento funcional de las variables puede establecer de un modo satisfactorio la relación de causalidad. Supongamos, siguiendo una de las ilustraciones de Simon, que tenemos datos estadísticos que nos permiten medir tres variables en un determinado grupo A: x es el procentaje de personas de A que están casadas; y es el promedio de gramos de azúcar consumidos mensualmente per capita, z es la cantidad media de los miembros de A. Observamos una correlación altamente negativa rxy entre el status marital y la cantidad de azúcar consumida; y una correlación altamente positiva, rxz , entre el status marital y la edad. Sin embargo, cuando congelamos la variable edad, cuando mantenemos a z constante, la correlación rxy.z entre el status marital y el consumo de azúcar es prácticamente cero. La técnica estadística de congelar una variable, a fin de descubrir las correlaciones espurias no sólo nos permite decir aquí que: o bien 1) la edad es una variable que interviene entre el status marital y el consumo de azúcar; o bien 2) la correlación entre status marital y consumo de azúcar es espuria, no siendo otra cosa que el efecto causado por la variación en la edad. Ningún refinamiento estadístico —no un aumento del número de observaciones realizadas, ni una expansión de la base de nuestros datos estadísticos--, puede ayudarnos a decidir entre 1) y 2).[21] ¿Qué quiere decir que un acontecimiento X es la causa de un acontecimiento Y? Se dice a veces que X es la causa de Y si es una condición suficiente de Y, si basta para que ocurra X para que ocurra Y. Sin embargo, es posible que X no sea la ünica causa de Y, y en ese caso, X no basta para que ocurra Y. ¿Podemos entonces decir que X, aunque no suficiente, es necesario para que ocurra Y? Sin embargo, esto tampoco es satisfactorio, porque es posible que la de X no sea la única vía causal que lleva a Y, que Y pueda surgir por otras vías causales, además de aquélla en que se halla X: en tal caso, X no sería ni suficiente ni necesario para que ocurriera Y. El retraso del tren es el causa de que yo llegue tarde, pero además de que hay otras concausas (que no tengo un automóvil disponible, por ejemplo), también podría haber llegado tarde por otra cadena completamente distinta que no incluye el retraso del tren (podría haberse estropeado mi despertador). Hay varias cadenas de acontecimientos, C1º {a1, a2, … an} Þ Y C2º {b1, b2, … bm} Þ Y ……………….. Ckº {g1, g2, … gm} Þ Y Cada una de las cuales es suficiente, pero ninguna de ellas necesaria, para que acontezca Y. A su vez, cada ai , bj, etc., es decir, cada elemento de cada cadena de acontecimientos, es necesario, pero no suficiente, para que Y aparezca como resultado de esa cadena causal. Por lo tanto, cuando a un acontecimiento, digamos, ai, le llamamos “causa” de otro acontecimiento, Y, nos estamos refiriendo, en términos lógicos, a que aies una condición insuficiente pero necesaria para que se dé una cadena causal, la cual es, a su vez, innecesaria pero suficiente para que acontezca Y.[22] 9. Explicaciones estadísticas y explicaciones teóricas Ahora podemos ver porqué el establecimiento de una conexión estadística entre dos conjuntos de acontecimientos o patrones no basta para determinar una conexión causal entre ellos. Una hipótesis estadística nos dice cuán probable es que ocurra Y dado que ocurre aiÎ C1, es decir, establece la probabilidad condicional p(ai ½Y). Pero para estar seguros de que no se trata de una correlación espuria, deberíamos saber también cuán probable es que Y surja de aiÎ C1 en comparación con todas las vías alternativas (C2, C3, … Ck) por las que habría podido surgir. Obsérvese que para hablar de una conexión causal necesitamos servirnos de un condicional subjuntivo: necesitamos apelar a todas las vías por las que habría podido surgir. Un terrón de azúcar se disuelve en el agua a causa de su hidrosolubulidad y un pedazo de acero no se disuelve porque no es hidrosoluble. Pero para expresar una relación causal tan trivial, para definir el predicado disposicional de la solubilidad, necesitamos decir no que si tiramos un terrón de azúcar al agua se disuelve (porque es posible que este terrón de azúcar nunca entre efectivamente en contacto con el agua), sino que si echáramos un terrón de azúcar al agua, entonces se disolvería (y si echáramos un trozo de acero al agua, no se disolvería). No hay modo, pues, en resolución, de expresar con una simple implicación material la relación de causalidad, sino que necesitamos una implicación subjuntiva contrafáctica, una implicación modal que apele a todos los “mundos posibles”, a todas las vías posibles.[23] Ahora estamos en condiciones de entender lo que es una hipótesis explicativa teórica y su diferencia con una hipótesis explicativa estadística. Una hipótesis estadística es una cala a ciegas, en la que, armados con un conjunto de descripciones densas, exploramos parcialmente un abanico de posibilidades aparentemente relevantes como marco para dar razón de las pautas observadas. En nuestro ejemplo: tenemos una pauta de x% de delincuencia juvenil en las conurbaciones industriales españolas; buscamos un conjunto de factores que podrían estar relacionados con esa delincuencia; y calculamos la probabilidad condicional absoluta de que, dados esos factores, haya delincuencia juvenil. Pero desconocemos --y no conjeturamos nada sobre—la probabilidad relativa de que haya delincuencia juvenil por la vía de esos factores en comparación con otras vías. Desconocemos –y no conjeturamos nada sobre—el abanico global de posibilidades relevantes. Las hipótesis meramente estadísticas no pretenden que sus particiones iniciales clasifiquen según “clases naturales”, no pretenden dividir la naturaleza o la vida social “por sus articulaciones”, no delimitan las fronteras de los sistemas informativos objetivos, para luego extraer de ellos su preciado tesoro, sino que buscan a tientas esas articulaciones, en la confianza de que las pautas observadas proporcionen buenas pistas para mejores y más estructurales conjeturas. En cambio, una hipótesis teórica se enfrenta al mundo armada no sólo con unas cuantas descripciones presumiblemente densas, sino con un marco cognitivo que determina todo el abanico de posibilidades relevantes. Una hipótesis teórica parte de una definición formal de un sistema informativo, y su tarea consiste en mostrar que el objeto empírico estudiado constituye un sistema como el delimitado por la definición formal de la que ella misma parte. [2] Una “tautología” es un enunciado que es verdadero en virtud de su forma lógica. Cualquier enunciado con la forma p ÚØp es necesariamente verdadero. [4] En “Racionalidad económica, racionalidad biológica y racionalidad epistémica” he desarrollado esta tesis, presentando la relación entre las fuerzas evolucionarias que nos han diseñado y nosotros mismos como un juego matemático de información asimétrica entre Principal (la naturaleza) y Agente (nosotros mismos). El Principal necesita que el Agente ejecute un conjunto de acciones, pero esas acciones no están necesariamente en el interés del Agente. Para que el Agente las ejecute, el Principal debe suministrar al Agente un sistema de incentivos compatibles. [5] Póngase el lector en el papel de cualquiera de los dos miembros del jurado de nuestro ejemplo. ¿No se avergonzaría de emplear esos argumentos en ese contexto institucional? Es el contexto institucional del jurado –pero no todo contexto institucional— el que genera de forma invisible ese sentimiento de vergüenza de uno mismo, emoción que, como dijera Demócrito, es el comienzo de toda conducta ética. [6] No sirve de mucho aducir que la presión institucional para represar y filtrar la expresión de los intereses de los individuos no hace sino convertir a éstos en hipócritas que, arguyendo con razones públicamente aceptables, no por ello dejan de cultivar sus propios intereses particulares. No sirve de mucho esta réplica, porque, aun si fuera verdad, dejaría todavía sin explicar 1) porqué hay instituciones en las que resulta legítimo el puro choque o cruce de intereses –la mesas de negociación salarial, por ejemplo--, y otras –las deliberativas— en las que no es así, y 2) porqué éstas últimas consiguen forzar a la “hipocresía” a los individuos. Por lo demás, no está escrito en parte alguna que la hipocresía no sea una de las fuerzas civilizatorias. [7] La forma corriente de medir la información es en “bits”. Un bit es el resultado de excluir una posibilidad sobre dos, de elegir en una disyuntiva binaria –entre 0 y 1, pongamos por caso--.. (De aquí que la fórmula matemática normal para definir esa operación de elección binaria use logaritmos de base dos, que es la manera de partir en disyuntos binarios el conjunto de posibilidades de un sistema. Como el conjunto de posibilidades de un sistema es el inverso de la probabilidad, la fórmula matemática definitoria de la información medida en bits es: I=log21/p.) 1093 bits, pues, equivale a operar excluyentemente sobre 1093 disyuntivas binarias. [9] Los humanos, por ejemplo, somos capaces de reconocer con extremada eficacia rostros de otros humanos. Estamos genéticamente programados para procesar información facial, podemos identificar un rostro humano entre cientos con sólo haberlo visto unos segundos. (En cambio, difícilmente identificaríamos las manos de nuestro mejor amigo entre sólo unas decenas.) [10] En cambio: “… los planes enumerativos se caracterizan por el hecho de que el orden en el que se ponen a prueba las estructuras no está afectado por el resultado de las pruebas pasadas. Por ejemplo, el plan comienza por poner a prueba todas las estructuras accesibles mediante dos aplicaciones de operadores, etc. El plan conserva la estructura más apta que se ha encontrado hasta el momento, reemplazándola inmediatamente en cuanto encuentra una estructura más apta. (…) Es claro que el intento de adaptación mediante un plan enumerativo está condenado de antemano en todos los casos (menos en los más simples) por la enorme cantidad de tiempo que requiere.” (John Holland, Adaptation in Natural and Artificial Systems, Cambridge, Mass.: MIT Press, 1992, p. 16-17. El énfasis añadido es mío, A.D.) Encontrar la estrategia ganadora en ajedrez es, huelga decirlo, un problema transcomputable. Si quisiéramos abordar la solución de ese problema con un método enumerativo, tendríamos que considerar, primero, todos los posibles movimientos que pueden hacerse en la primera jugada; luego, todos los posibles movimientos que pueden hacerse con dos jugadas, etc. Es obvio, sin embargo, que muchos movimientos resultantes de la primera jugada los consideramos --¡quizá precipitadamente!— malos movimientos, de modo que al considerar los posibles movimientos de la segunda jugada descartamos aquellos que pudieran surgir de malos movimientos de la primera jugada. Aprender a jugar al ajedrez –o programar a un computador para hacerlo bien--, consiste, pues, en explorar
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved