Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Neoconductismo: Fusión de Conductismo y Positivismo Lógico en Psicología del Aprendizaje, Apuntes de Psicología

Psicología del AprendizajePsicología CognitivaPsicología experimentalPsicología Comparativa

El neoconductismo fue el resultado de la fusión entre el conductismo y el positivismo lógico, combinando la observación de conductas manifiestas (conductismo) con la aceptación de teorías sobre procesos mentales no observables definidos operacionalmente (positivismo lógico). Este documento explora el enfoque operacional de tolman, el sistema formalizado de hull y la teoría del aprendizaje de skinner, destacando su impacto en la comprensión del aprendizaje y la conducta.

Qué aprenderás

  • ¿Cómo se utiliza el Positivismo Lógico en el Neoconductismo?
  • ¿Cómo se estudian las variables internas en el Neoconductismo?
  • ¿Cómo se utiliza la teoría del aprendizaje de Hull en el Neoconductismo?
  • ¿Cómo se diferencia el enfoque de Tolman del Neoconductismo?
  • ¿Qué es el Neoconductismo y cómo se diferencia del Conductismo tradicional?

Tipo: Apuntes

2017/2018

Subido el 27/01/2018

ainhoa1999
ainhoa1999 🇪🇸

4

(8)

31 documentos

1 / 20

Toggle sidebar

Documentos relacionados


Vista previa parcial del texto

¡Descarga Neoconductismo: Fusión de Conductismo y Positivismo Lógico en Psicología del Aprendizaje y más Apuntes en PDF de Psicología solo en Docsity! T.10) NEOCONDUCTISMO 1) Antecedentes históricos Crisis del conductimo Como consecuencia de que todos los psicólogos (McDougall) estaban de acuerdo con la perspectiva de Watson (conductismo radical) , fueron aparecieron nuevas fórmulas del conductismo (Neoconductismos) que se alejaron del enfoque más radical de Watson debido a su carácter reduccionista y poco realista. A partir de los años 30, muchos psicólogos norteamericanos neoconductistas comienzan a mostrar un mayor interés en comprender los procesos mentales, tanto en humanos como en animales. Estos psicólogos, partirán de los principios básicos del conductismo metodológico, es decir, asumen la objetividad, el experimentalismo y el condicionamiento como método de estudio respecto a un enfoque introspeccionista y mentalista. Sin embargo, a diferencia de los conductistas radicales, si van a aceptar la existencia de variables psicológicas como los propósitos, las cogniciones, los impulsos o los hábitos, que van a tener un papel determinante en el comportamiento y pueden ser estudiados a partir de la conducta. Así, los neoconductistas amplían, modifican y formalizan el conductismo de Watson aunque no descartan la importancia del ambiente sobre la conducta, los neoconductistas en general, van a defender que es necesario incluir variables intermedias del organismo para explicar con mayor precisión el comportamiento. Nacimientos del neoconductismo (1930-1950) El Neoconductismo fue el resultado de la unión entre el Conductismo y el Positivismo Lógico ya que el contenido de la psicología seguía siendo la conducta manifiesta (Conductismo), pero gracias al Positivismo Lógico se aceptaban teorías sobre procesos mentales no observables mientras estuvieran definidos operacionalmente. Estas circunstancias permitieron que surgieran varias versiones del conductismo, igual de objetivas y científicas. Antecedentes del Positivismo y del Positivismo Lógico La ciencia en general seguía la doctrina del Positivismo, el cuál sólo aceptaba como objeto de estudio lo que se podía percibir y observar directamente. Se destacaba la importancia de los hechos reales y los datos objetivos, mientras que se despreciaba la teorización, inferir o especular sobre la existencia conceptos abstractos. Pero este hecho de que las ciencias sólo trataran sólo con lo que era directamente observable se consideró poco realista, ya que existen fenómenos que no son directamente observables en la naturaleza. Hemos visto como varias ciencias experimentaron este cambio. No obstante en algunas ciencias como en la física, empezaron a descubrirse conceptos teóricos como la gravedad, los campos magnéticos, etc., que no podían observarse de forma directa y se expresaban en forma de teorías. El Positivismo Lógico (surgido a mediados de los años 20), proporcionó una alternativa al positivismo, ya que ofrecía un enfoque de ciencia más liberal que aceptaba las teorías como parte de la ciencia sin sacrificar la objetividad (permitiendo que la ciencia fuera a la vez objetiva y teorética). Esto lo consigue dividiendo toda ciencia en dos partes: la empírica (basada en los datos observables) y la teorética (intentar explicar aquello que se observaba). Además, permitía la especulación sobre entidades Licenciado en electromecánica por el Instituto Tecnológico de Massachusetts, sus intereses comenzaron a cambiar hacia la Psicología después de leer el libro “Principios de Psicología” de William James. Influido por la Gestalt (realizó una estancia de verano en Alemania con Kurt Koffka) y la Filosofía Neorrealista: concepción molar de la conducta vs. concepción molecular. Representante del Conductismo propositivo o intencionado. “Conducta intencionada en animales y hombres” (1932) donde muestra la concepción de conducta Watsoniana en términos de reflejos básicos es reduccionista. Toda conducta tiene un propósito o intención, el cuál es un aspecto objetivo de la conducta que se puede estudiar. Este libro se lo dedica a una rata llamada MNA (Mus norvegicus albinus). Interesado en los métodos para obtener una comprensión de los procesos mentales internos. Enfoque operacional de Tolman Para Tolman el objetivo de la psicología sigue siendo la predicción y el control de la conducta y para alcanzarlo debe realizarse un análisis funcional de la conducta, en el cuál todos los conceptos psicológicos están definidos en forma de 3 variables (enfoque operacional): -Las variables independientes hacen referencia a los estímulos y los sucesos del entorno. -Las variables intervinientes hacen referencia a procesos psicológicos como la intención y la cognición (expectativas, creencias, mapas cognitivos, etc.) que ocurren entre los sucesos del entorno y la conducta. -La variable dependiente es la conducta. Debían tenerse en cuenta tanto las variables independientes como las variables intervinientes, ya que ambas tenían un papel determinante en la conducta (variables dependientes) ya que la conducta no puede ser predicha exclusivamente a partir de los estímulos del entorno, también hay que tener en cuenta ciertos procesos cognitivos (esquema E – O – R). Conducta intencional de Tolman En los años 20 existían 2 explicaciones dominantes sobre el aprendizaje: la de Watson y la de Thorndike. Sin embargo, creía que ambas concepciones eran muy simplistas. Así aunque Tolman seguía la doctrina conductista y estaba totalmente en contra de las explicaciones metafísicas y de la introspección al igual que Watson, creía que éste se estaba centrando sobre el tipo de conducta equivocado ya que la concepción mecanicista de Watson sobre la conducta en términos de reflejos condicionados (estímulos y respuestas) resultaba muy reduccionista. Toda conducta era explicada como meras sumas de reflejos simples y hábitos (conducta molecular). Tolman, por el contrario se centró en la conducta intencionada, adoptando un enfoque molar de ésta. Lo característico de la conducta es el propósito u objetivo que tiene, y no por la sucesión los diferentes movimientos musculares que la hacen posible (conducta molar) la cual es apoyada en los resultados. La intención y cognición se pueden estudiar de forma objetiva como aspectos objetivos y observables de la conducta misma, y no como parte de una mente misteriosa inferida. Tampoco estaba de acuerdo con Thorndike en que el refuerzo fuera estrictamente necesario para aprender (Ley del efecto). Ej: Un sujeto que aprende a retirar el dedo de un electrodo cuando una señal de alerta (ej: un tono) antecede a una descarga o el de las ratas en el laberinto ¿Qué es lo que aprende el sujeto? -Molecularista (Watson): ha aprendido un reflejo muscular condicionado. -Molarista (Tolman): ha aprendido una respuesta global de evitación. ¿Qué pasa si le damos la vuelta a la mano del sujeto? -Molecularista (Watson): el sujeto tiene que aprender un reflejo molecular nuevo. -Molarista (Tolman): el sujeto evitará inmediatamente la descarga, no tiene que aprender nada (respuesta molar de evitación de descarga). Experimentación animal Tolman realizó experimentos con ratas para aproximarse a las leyes del comportamiento humano. Construyó laberintos de formas diversas e introducía en ellos recompensas o castigos. Se contabilizaba el tiempo que las ratas tardaban en recorrerlos y los errores que cometían en el trayecto. Ventajas: ratas son animales pequeños, económicos y manejables, muy cómodos para el laboratorio: “las ratas no se van de copas la noche antes de un experimento o no se matan mutuamente en guerras…tampoco se meten en conflictos de clase o raza y evitan la política”. En sus estudios demostró que las ratas podían aprender hechos o conocimientos acerca del mundo que podrían usar de manera flexible, en vez de simplemente aprender respuestas automáticas iniciadas por estímulos ambientales. También demostró que el aprendizaje era posible en ausencia de refuerzos. De esta manera, los organismos son capaces de crear estructuras cognitivas (en forma de mapas mentales, hipótesis, creencias o expectativas) para representase la complejidad del ambiente, y además son capaces de reorganizarlas. Aprendizaje latente También realizó estudios donde se ponía de manifiesto la existencia de este tipo de aprendizaje para demostrar la existencia de este tipo de conocimiento adquirido. En concreto, realizó un experimento clásico con ratas donde las puso en 3 grupos. Todos fueron entrenados para recorrer el laberinto durante 22 días con unas diferencias: -En el Grupo 1: los animales obtenían comida siempre al llegar al final desde el primer día. -En el Grupo 2: las ratas conseguían la comida al llegar a la salida partir del día 11. -En el Grupo 3: las ratas nunca recibían comida. En cada ensayo, se registraba el número de errores que cometían hasta llegar al final del laberinto (medida del aprendizaje). Finalmente, se obtuvieron los siguientes resultados: -La tasa de errores de las ratas del grupo 1 (siempre reforzadas) descendió desde el primer día de forma gradual. -La tasa de errores del grupo 2 (reforzadas a partir del día 11) se redujo de forma brusca a partir de la introducción de la comida. -La tasa de errores del grupo 3 (nunca reforzadas) se mantuvo elevada de forma constante. Los resultados sugieren que las ratas del grupo 2 (no reforzadas hasta el día 11) habían estado explorando y aprendiendo el laberinto sin la presencia del reforzador, porque al día siguiente lo hacían igual de bien o incluso mejor que las ratas del grupo 1 (se había producido un aprendizaje latente que solo se podía cuantificar tras la introducción del reforzador). , el cual provoca una tendencia en los organismos a realizar conductas con el objetivo de reducir esos impulsos (gran parte del comportamiento se rige por este objetivo). Por ello, definirá el refuerzo como la reducción de estos impulsos o necesidades. -Todo aquello que contribuya a aliviar una necesidad constituye un reforzador, y por tanto incrementará las probabilidades de realizar una conducta determinada. -La intensidad del impulso va a depender de la privación del reforzador (ej: a más hambre más impulso y más energía o más tendencia a realizar la conducta que provoque su satisfacción). Fuerza del hábito (SHR) Representa la fuerza con la que determinados estímulos y determinadas respuestas están unidas. Si ante una determinada situación del entorno (S) se da una respuesta (R) que conduce a la reducción del impulso (obtención de reforzador), se dice que se incrementa la fuerza del hábito (SHR). La fuerza del hábito se relaciona de forma directa con la cantidad de ensayos que se producen entre una situación del entorno (S) y una respuesta (R). Así, la ley de la formación de hábitos (SHR) predice que si los refuerzos se presentan en intervalos regulares, la fuerza del hábito (SHR) resultante aumentará a medida que aumente el número de ensayos constituyendo el aprendizaje. Potencial de reacción (SER) Es la probabilidad que el organismo dé una respuesta aprendida en un momento determinado. También se conoce como fórmula de la motivación. Establece que el SER está determinado por el nivel del impulso del organismo en un momento determinado (D, nivel de hambre) multiplicado por la fuerza del hábito (SHR, número de ensayos).Por lo tanto, matemáticamente, la probabilidad de que aparezca la respuesta en una situación concreta se puede expresar así: SER = SHR x D Si SER es igual 0, indicaría una nula probabilidad de que se realice la respuesta. Ej: A dos ratas les hemos enseñado durante 40 ensayos en una caja problema que, cuando aparezca una luz, si aprietan la palanca obtendrán comida. A los dos días, las ponemos de nuevo en la caja, pero la rata 1 está saciada mientras que la rata 2 ha sido privada de comida durante estos días y está hambrienta. Si aplicamos la fórmula del SER en cada rata vemos: Rata 1: SER = 40 x 0 = 0 La respuesta no aparecerá (no recorrerá el laberinto porque al estar satisfecha, su impulso es 0). Rata 2: SER = 40 x 1 = 40 La respuesta tendrá más probabilidad de aparecer (recorrer el laberinto). Ampliaciones de K.W. Spence Con el avance del tiempo, Hull fue modificando algunas de sus fórmulas e introduciendo conceptos nuevos en sus modelos ya que no predecía con exactitud el comportamiento. Estas nuevas variables introducidas la fueron complicando más y más. Después de su muerte, uno de sus antiguos estudiantes se convertirá en el principal representante de su teoría (Spence). Amplía y remodela la teoría de Hull de forma tan sustancial que esta nueva teoría se conocerá como la teoría de Hull-Spence. En 1960, los psicólogos citaban más a Spence en las revistas experimentales que a Hull. Conclusiones A lo largo de sus postulados, Hull intentó construir una teoría mecanicista del aprendizaje en la cual se reflejaran todos aquellos elementos que determinaban el establecimiento, fortalecimiento y desaparición de las conductas. Hull sí que tuvo en cuenta la ley del efecto para explicar el aprendizaje de conductas cuando un organismo se encuentra en un estado de necesidad, el impulso propiciará la aparición de conductas encaminada a reducir esa necesidad. Las conductas que produzcan la reducción o desaparición de la necesidad quedarán reforzadas y tenderán a repetirse. Debate entre Tolman (ganador) y Hull Ambos querían formular teorías científicas del aprendizaje y la conducta. Para Tolman la conducta era intencionada mientras que para Hull la conducta era mecánica. Sus posturas diferían en qué es lo que aprendían las ratas al escapar de un laberinto (aprendizaje de lugar vs. aprendizaje de respuestas). Tolman intentaba demostrar que la intención y la cognición eran reales, mientras que Hull no encontró necesidad alguna para estos conceptos mentalistas (Hull define el aprendizaje en términos de asociaciones E – R). Los que apoyaban la conducta mecanicista de Hull y los que apoyaban la conducta intencionada de Tolman debatieron durante los años 30 y 40. Tolman Hull Los animales son procesadores activos de la información y crean mapas mentales. Los animales aprenden mecánicamente mediante condicionamiento. Aprendizaje de lugares (las ratas son capaces de aprender un mapa de un laberinto). Aprendizaje de respuestas (las ratas aprenden cadenas de hábitos de respuestas musculares). Enfoque molar de la conducta (concepción holista). Enfoque molecular de la conducta (concepción elementalista). El refuerzo no es indispensable para que se produzca aprendizaje (aunque si para su ejecución). El refuerzo (o reducción del impulso) es indispensable para que se produzca aprendizaje. 5) La psicología de Skinner (1904-1990) Positivista, no positivista lógico. A diferencia de Tolman o Hull, no aceptará teorías ni inferencias de constructos mentales: sólo hechos. Por eso, reclama el retorno del conductismo radical y el ambientalismo radical: el entorno es el que controla la conducta, no los sucesos mentales de la persona. Su interés se centró en cómo cambia la conducta en función de sus consecuencias, sin dar importancia a la consciencia y a los procesos mentales. Creía que todos ellos son simples etiquetas verbales conferidas a determinados procesos corporales o neurofisiológicos (monismo materialista). No era necesario conocer las bases neurofisiológicas para explicar las relaciones entre el entorno y la conducta. La conducta para Skinner Explica el comportamiento solo con un análisis funcional del entorno y de la conducta. Concretamente, afirmaba que sólo era necesario tener en cuenta 3 conceptos para explicar el comportamiento: -El estímulo antecedente o discriminativo El refuerzo para Skinner Destacó el papel de un tipo concreto de estímulos (reforzadores). Estos se encargan de fortalecer la unión entre determinadas respuestas con determinados estímulos discriminativos. Es decir, si ante una situación determinada, una respuesta concreta conduce al refuerzo, la frecuencia de esa respuesta aumenta (Ley del efecto). Define 2 tipos de reforzadores: -Primarios: de importancia biológica y no necesitan aprenderse, (ej: comida). -Secundarios: son aprendidos, (ej: el dinero, los cumplidos, etc.). Sólo porque algo actúe como reforzador o castigo para un organismo bajo una serie de circunstancias no quiere decir que sea un reforzador para otro organismo o para el mismo organismo en circunstancias diferentes. Ej: la comida puede dejar de ser un reforzador cuando el animal está saciado. Para Skinner, el refuerzo se puede identificar sólo a través de sus efectos sobre la conducta. En otras palabras, un reforzador es cualquier cosa que, cuando se aplica de forme contingente a una respuesta, cambia la frecuencia con la que se realiza esa respuesta (sin entrar en si satisface una necesidad o reduce un impulso). Importancia del entorno Mientras que para Watson y los reflexólogos rusos el entorno era importante porque despertaba la conducta, para Skinner el entorno era importante porque se encargaba de seleccionar las conductas qué sobreviven y se convierten en parte del repertorio de respuestas del organismo a través de las consecuencias (ambiente como agente de control) aplicando las ideas de la selección natural de Darwin a su análisis de la conducta. En cualquier situación dada, un organismo realiza inicialmente una gran variedad de respuestas. De éstas, sólo serán funcionales o útiles algunas (las de refuerzo). Estas respuestas efectivas sobreviven y se convierten en parte del repertorio de respuestas del organismo para ser utilizadas cuando la siguiente situación se produzca. Lo que realmente importa para Skinner son las variables externas, situadas siempre fuera del organismo (no está interesado por las variables intermedias sean del tipo que sean).Por lo tanto, enfatiza que para cambiar una conducta, lo más eficaz es cambiar el entorno en términos de reforzamiento. Regla general: cambia todas las contingencias de refuerzo y la conducta cambiará. Moldeamiento Gracias a los principios del condicionamiento operante, se puede aumentar la frecuencia de una conducta que tiene una baja frecuencia, o incluso instaurar una conducta nueva (no existente previamente en el repertorio conductual del organismo). Este procedimiento se llama moldeamiento, y permite que los organismos aprendan una conducta inicialmente muy compleja y fuera de su repertorio. Se utiliza cuando el sujeto no sabe realizar la conducta que se pretende enseñar porque le resulta compleja. Como el sujeto no va a aprender a realizar la conducta de golpe, se trata de ir reforzando poco a poco las conductas que se parezcan o asemejan a la conducta final (reforzamiento progresivo de las aproximaciones a la conducta objetivo). Este principio se ha utilizado para enseñar a las palomas a jugar a ping-pong y baloncesto. Muchos animales del circo por ejemplo, aprenden a realizar conductas inusitadas mediante el moldeamiento. El moldeamiento puede resultar de ayuda terapéutica en niños con autismo, concretamente para estimular el lenguaje verbal: 1.Reforzar la atención visual del niño y los sonidos espontáneos emitidos al azar. 2.El terapeuta pronuncia un sonido y refuerza la respuesta vocal emitida en un tiempo límite. 3.Se refuerzan los sonidos similares al producido por el terapeuta. 4.Sólo se refuerza el sonido objetivo. Refuerzo vs. Castigo Al igual que Thorndike, Skinner descubrió que los efectos del refuerzo y del castigo no eran simétricos: -El refuerzo fortalece la conducta. -El castigo no necesariamente la debilita, ya que en ocasiones, la respuesta reaparece cuando se retira el castigo. Ej: un niño que ha sido castigado severamente porque sus padres lo han encontrado practicando un juego sexual no está necesariamente menos inclinado a continuar haciéndolo//un hombre que ha sido encarcelado por un ataque violento no está necesariamente menos inclinado hacia la violencia; es probable que la conducta castigada reaparezca después de retirar las contingencia punitivas. Afirmaba que el castigo se seguía utilizando tanto porque en realidad, refuerza al que castiga. Además el castigo conlleva con frecuencia efectos no deseados: tiene un alto coste emocional, puede provocar reacciones adversas en la persona como conductas agresivas, etc. No reforzar = castigar Skinner recomendaba que el método alternativo para reducir una conducta era no reforzarla o utilizar el castigo negativo (evita efectos indeseables y negativos del castigo como el miedo o la agresividad). Ej: “Un padre piensa en dar un bofetón a su hijo porque ha roto un jarrón (castigo positivo). Pero lo reconsidera y en vez de pegarle lo que le hace es quitarle el mando de la televisión para que no pueda ver los dibujos (castigo negativo u omisión)” Otra recomendación era modificar la conducta indeseable de forma progresiva mediante el refuerzo (reforzar progresivamente los pequeños cambios hasta que la conducta fuera distinta = moldeamiento). Importante: castigo y refuerzo negativo no es lo mismo. 2 Modelos de condicionamiento operante: 1)Refuerzo: hace que aumente la probabilidad de emisión de la respuesta. • Refuerzo positivo: cuando la aparición contingente de un evento o suceso apetitivo aumenta la probabilidad de la respuesta. Ej: una rata aprende a presionar una palanca porque el reforzador es comida, con lo que la conducta de apretar una palanca se refuerza y aumenta su frecuencia. • Refuerzo negativo: el organismo utiliza una conducta que evita o escapa de un evento; aquí tenemos que la ausencia de una estimulación negativa (aversiva) incrementa la probabilidad de que ocurra una respuesta. A su vez este modelo puede dividirse en dos subtipos: -Evitación: cuando el organismo emite una conducta que permite que no aparezca un estímulo aversivo. Ej: una rata aprende a pulsar un botón para evitar una descarga eléctrica. -Escape: cuando el sujeto da una respuesta que permite la desaparición de un estímulo aversivo ya presente. Ej: una rata escapa del suelo electrificado saltando hacia una plataforma. 2)Castigo: hace que disminuya la probabilidad de emisión de una conducta. También se puede emplear para la extinción de una respuesta (que desaparezca). • Castigo positivo: si tras la presencia de un estímulo aversivo disminuye la probabilidad de una respuesta. Ej: cuando un maestro pega un tortazo a un alumno travieso. En principio el castigo disminuiría la probabilidad que el alumno vuelva a comportarse de forma traviesa, pero hemos hablado previamente de sus efectos indeseables. • Castigo negativo u omisión: si la retirada de un estímulo positivo cuando aparece una conducta trae consigo la disminución de dicha conducta. Ej: los niños están viendo la televisión y empiezan a pelearse, se la apagamos y, es de esperar, tenderán a no pelearse cuando en el futuro vean la televisión. Cajas de animales de Skinner Diseñó estos dispositivos para tener un control total de todas las variables y poder estudiar “limpiamente” el comportamiento del animal. En estas cajas, un animal aprendía la ejecución de un acto motor en función de las consecuencias que de él se seguían. La caja constaba de una palanca o un botón situado en una de sus paredes, que al ser presionado ponía en marcha un mecanismo que proporcionaba una bolita de comida (lo cual era un reforzador que hacía más probable que esa conducta se repitiera). En la caja colocaba a un animal privado de alimento. El animal comenzaba a explorar la caja hasta que casualmente, presionaba a palanca y obtenía la comida. A través del refuerzo, esta respuesta de presión de la palanca quedaba consolidada. La palanca o el botón además, contaba con un dispositivo que registraba el número de veces que era accionada a lo largo del tiempo (permitía el análisis estadístico de los datos, registro acumulativo). Las cajas de Skinner sirvieron como medio para introducir diversas variables (entre ellas descargas eléctricas para estudiar el efecto del castigo, por ejemplo) y también observó que el aprendizaje era diferente en función de cómo se administraban los reforzadores. Registro acumulativo Permite registrar la tasa de respuestas y de refuerzos que experimenta un organismo a través del tiempo dándonos una idea de cuánto y cómo de rápido un animal responde para obtener un reforzador.
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved