Información

Neurociencia y aprendizaje de una sola neurona


¿Puedes enseñarle un alfabeto a una neurona?

Si es así, ¿cómo?

¿Cómo 'aprende' una neurona nueva información? ¿Todos los individuos aprenden de manera similar?


No, no se puede enseñar un alfabeto a una sola neurona.

En general, la forma en que cerebro aprende y almacena información ajustando el fuerza de las conexiones entre neuronas. Por lo tanto, no hay realmente ninguna información en una neurona determinada, sino en el patrón de cómo está conectada con otras neuronas.

Para el ejemplo del alfabeto, hay muchas piezas diferentes de información para unir: habrá diferentes neuronas que responden a la forma visual de una letra, la palabra que nombra la letra, los sonidos que la letra representa en voz idioma, las palabras que contienen la letra, etc.

Un libro de texto de neurociencia general como Purves es un buen lugar para comenzar a aprender sobre cómo funcionan los cerebros. También puede aprender cómo artificial las redes neuronales aprenden. Definitivamente son diferentes de los sistemas nerviosos biológicos y los mecanismos de aprendizaje varían, pero comparten algunas características, como la información que se representa en la fuerza de las conexiones entre unidades, generalmente llamadas pesos en una red artificial.


Pasé la mayor parte de mi vida obsesionada sin pensar con el pasado y el futuro. Estaba consumido por la ansiedad y atormentado por mi mente, pero completamente inconsciente de la fuente de mi sufrimiento.

Para escapar de mi dolor, usé drogas, lo que resultó en 15 años de adicción crónica a la heroína. La heroína me llevó al límite, pero tuve suerte. Golpeado hasta la sumisión por la noche más dolorosa de mi vida, me vi obligado a mirar el mundo desde una perspectiva completamente nueva.

Eso fue en octubre de 2013, cuando me presentaron por primera vez a la atención plena. Desde entonces, me convertí en autor, un Ph.D. estudiante y conferencista en las dos mejores universidades de Irlanda, todas en el área de la neurociencia de la atención plena.

Comprender la ciencia que subyace a la atención plena y la meditación puede ser una motivación poderosa para cualquiera que desarrolle estos hábitos. Pero es especialmente útil si eres el tipo de persona que quiere pruebas de eficacia antes de embarcarse en un nuevo objetivo. (Gretchin Rubin caracteriza esto como un tipo de personalidad de "interrogador").


  • Desde el punto de vista de la neurobiología, el aprendizaje implica cambiar el cerebro.
  • El estrés moderado es beneficioso para el aprendizaje, mientras que el estrés leve y extremo es perjudicial para el aprendizaje.
  • El sueño, la nutrición y el ejercicio adecuados fomentan un aprendizaje sólido. aprovecha los procesos que estimulan múltiples conexiones neuronales en el cerebro y promueven la memoria.

Cambiando el cerebro: Para que se produzca un aprendizaje óptimo, el cerebro necesita condiciones en las que pueda cambiar en respuesta a estímulos (neuroplasticidad) y pueda producir nuevas neuronas (neurogénesis).

El aprendizaje más efectivo implica reclutar múltiples regiones del cerebro para la tarea de aprendizaje. Estas regiones están asociadas con funciones como la memoria, los diversos sentidos, el control volitivo y niveles más altos de funcionamiento cognitivo.

Estrés moderado: El estrés y el rendimiento están relacionados en una “curva en U invertida” (ver a la derecha). La estimulación para aprender requiere una cantidad moderada de estrés (medido en el nivel de cortisol). Un bajo grado de estrés se asocia con un bajo rendimiento, al igual que un alto estrés, lo que puede poner el sistema en modo de lucha o huida, por lo que hay menos actividad cerebral en las áreas corticales donde ocurre el aprendizaje de alto nivel. Los niveles moderados de cortisol tienden a correlacionarse con el mayor rendimiento en tareas de cualquier tipo. Por lo tanto, podemos concluir que el estrés moderado es beneficioso para el aprendizaje, mientras que el estrés leve y extremo son perjudiciales para el aprendizaje.

El estrés moderado se puede introducir de muchas maneras: tocando música desconocida antes de la clase, por ejemplo, o cambiando el formato de discusión, o introduciendo cualquier actividad de aprendizaje que requiera participación o movimiento individual. Sin embargo, no todas las personas reaccionan de la misma manera ante un evento. La producción de cortisol en respuesta a un evento varía significativamente entre individuos, lo que constituye un "estrés moderado" para una persona puede constituir un estrés leve o extremo para otra. Entonces, por ejemplo, llamar en frío a estudiantes individuales en un entorno de grupo grande puede introducir la cantidad justa de estrés para aumentar el desempeño de algunos estudiantes, pero puede producir estrés y ansiedad excesivos para otros estudiantes, por lo que su desempeño es inferior el nivel del que sabes que son capaces. Cualquier dinámica de grupo que tienda a estereotipar o excluir a algunos estudiantes también les agrega estrés.

Sueño adecuado, buena nutrición y ejercicio regular: Estos hábitos saludables de sentido común promueven un rendimiento de aprendizaje óptimo de dos maneras. Primero, promueven la neuroplasticidad y la neurogénesis. En segundo lugar, mantienen el cortisol y la dopamina (hormonas del estrés y la felicidad, respectivamente) en niveles adecuados. Las sesiones de abarrotamiento de toda la noche, las comidas omitidas y la falta de ejercicio pueden reducir la capacidad del cerebro para un alto rendimiento académico. (Esto es válido tanto para los profesores como para los estudiantes).

Aprendizaje activo: Las funciones cognitivas asociadas con los niveles más bajos de la taxonomía de Bloom (ver diagrama a la izquierda), como la comprensión y el recuerdo, están asociadas con el hipocampo (el área del cerebro responsable de la memoria y la conciencia espacial). Las funciones cognitivas de nivel superior de la taxonomía de Bloom, como crear, evaluar, analizar y aplicar, involucran las áreas corticales responsables de la toma de decisiones, la asociación y la motivación.

Los procesos de pensamiento más complejos son más beneficiosos para el aprendizaje porque involucran un mayor número de conexiones neuronales y más interferencias neurológicas. El aprendizaje activo aprovecha esta conversación cruzada, estimulando una variedad de áreas del cerebro y promoviendo la memoria.


Tratar con datos

Las técnicas de IA son útiles no solo para hacer modelos y generar ideas, sino como una herramienta para manejar datos. “Los datos neuronales son terriblemente complicados, y muy a menudo usaremos técnicas de aprendizaje automático simplemente para buscar estructura”, dice Sahani. La principal fortaleza del aprendizaje automático radica en reconocer patrones que pueden ser demasiado sutiles o estar demasiado enterrados en enormes conjuntos de datos para que las personas los detecten.

El neurocientífico computacional Daniel Yamins está desarrollando redes neuronales que pueden imitar la actividad cerebral. Crédito: Sam Fontejon / Stanford Univ.

La resonancia magnética funcional, por ejemplo, genera instantáneas de la actividad en todo el cerebro con una resolución de 1 a 2 milímetros cada segundo aproximadamente, potencialmente durante horas. “El desafío de la neurociencia cognitiva es cómo encontrar la señal en imágenes que son muy, muy grandes”, dice Nicholas Turk-Browne, neurocientífico cognitivo de la Universidad de Yale en New Haven, Connecticut. Turk-Browne lidera uno de varios proyectos que buscan nuevos conocimientos en la intersección de la ciencia de datos y la neurociencia.

El uso de una máquina para analizar estos datos está acelerando la investigación. "Es un gran cambio en la forma en que se hace la neurociencia", dice Sussillo. “Los estudiantes de posgrado no necesitan hacer tanto tipo de trabajo sin sentido, pueden concentrarse en preguntas más importantes. Puede automatizar muchos de ellos y puede obtener resultados más precisos ".


La neurociencia de la formación de nuevos recuerdos

En un descubrimiento revolucionario, un equipo internacional de neurocientíficos ha identificado cómo las neuronas individuales en el cerebro se activan de manera diferente cuando se forma una nueva memoria. Esta es la primera vez que los neurocientíficos han identificado cómo se forman los recuerdos y cómo se produce un nuevo aprendizaje por parte de las neuronas individuales.

El estudio de julio de 2015, "Codificación rápida de nuevos recuerdos por neuronas individuales en el cerebro humano", se publicó en la revista Neurona. Este estudio señala cómo las neuronas cambian sus propiedades de activación en el momento exacto en que alguien forma una nueva memoria y revela los fundamentos de una sola neurona en la formación de la memoria humana.

El nuevo estudio es una colaboración entre el Dr. Matias Ison y el profesor Rodrigo Quian Quiroga de la Universidad de Leicester e Itzhak Fried, M.D., Ph.D., del UCLA Medical Center, neurocirujano y coautor principal del estudio.

Más específicamente, los investigadores descubrieron que las neuronas individuales en una región del cerebro llamada lóbulo temporal medial (MTL) juegan un papel clave en nuestra capacidad para formar instantáneamente nuevos recuerdos sobre eventos y experiencias de la vida.

El MTL incluye un sistema de estructuras cerebrales relacionadas que son esenciales para los recuerdos declarativos o "explícitos", que son los recuerdos conscientes que tenemos de hechos y eventos. El sistema MTL consta de la región del hipocampo, así como de las cortezas adyacentes perirrinal, entorrinal y parahipocampal.

Para este estudio, los investigadores registraron la actividad de más de 600 neuronas individuales utilizando electrodos implantados en el lóbulo temporal medial de 14 pacientes epilépticos con epilepsia grave. Los neurocientíficos pudieron rastrear y registrar neuronas individuales en el MTL durante el proceso de aprendizaje y la formación de nuevos recuerdos.

¿Cómo podría la “neurona de Jennifer Aniston” revolucionar la ciencia del cerebro?

En un giro relacionado con Hollywood, los miembros del equipo identificaron previamente lo que llamaron la "neurona de Jennifer Aniston", que representaba cómo la activación de una sola neurona vinculada con una imagen se relacionaba con la formación de la memoria. En el estudio reciente, el equipo pudo probar sus hipótesis demostrando cómo se forman nuevos recuerdos utilizando otras imágenes de celebridades emparejadas con puntos de referencia icónicos.

En la primera fase del experimento, los sujetos de prueba vieron imágenes de personas, como miembros de la familia y actores o atletas famosos. También vieron imágenes independientes independientes de monumentos famosos, como la Torre Eiffel o la Casa Blanca. Luego vieron una imagen compuesta que contenía una persona vista anteriormente con uno de los puntos de referencia en la misma foto. El emparejamiento de una persona con un punto de referencia se diseñó para imitar la experiencia de conocer a un individuo en un lugar en particular.

Los neurocientíficos descubrieron que la misma neurona que se activa para una imagen (es decir, Jennifer Aniston) también se dispararía instantáneamente para otra imagen (es decir, la Torre Eiffel) si al participante del estudio se le hubiera mostrado una imagen de Jennifer Aniston de pie frente a la Torre Eiffel. Lo mismo sucedería si los sujetos de prueba vieran una imagen de Clint Eastwood de pie frente a la Torre Inclinada de Pisa, etc.

Los investigadores se sorprendieron de que estos cambios en la activación neuronal ocurrieran en el momento exacto del aprendizaje y que los recuerdos pudieran volverse programados después de una sola visualización de una foto. Estos resultados revelan pistas previamente ocultas sobre cómo los grupos de neuronas funcionan individualmente para codificar conceptos relacionados y formar nuevos recuerdos.

En un comunicado de prensa, Rodrigo Quian Quiroga, director del Centro de Neurociencia de Sistemas de la Universidad de Leicester, explica: "El resultado notable fue que las neuronas cambiaron sus propiedades de activación en el momento exacto en que los sujetos formaron los nuevos recuerdos: la neurona se activó inicialmente. a Jennifer Aniston comenzó a disparar a la Torre Eiffel en el momento en que el sujeto comenzó a recordar esta asociación ".

"El hecho asombroso fue que estos cambios fueron dramáticos, ocurrieron en el momento exacto del aprendizaje, incluso después de una prueba", agregó Ison. "El surgimiento de asociaciones entre conceptos después de un único ensayo, vinculado a cambios rápidos en la actividad neuronal, resultó ser ideal para la creación de nuevos recuerdos episódicos".

Conclusión: comprender la formación de la memoria tiene amplias implicaciones

El estudio sugiere que la experiencia del aprendizaje se remonta a cambios en las neuronas individuales del cerebro. Los investigadores pudieron demostrar que una sola neurona codifica la memoria de la persona, así como el lugar, si ambas se muestran juntas. Esto forma una nueva memoria de una persona y un lugar vinculados.

Tener una mejor comprensión de cómo se forman los nuevos recuerdos crea nuevas y emocionantes posibilidades para la neurociencia. Los investigadores son optimistas de que algún día estos hallazgos podrían mejorar la vida de los pacientes neurológicos con demencia o deterioro de la memoria, como en la enfermedad de Alzheimer, lesión cerebral traumática o epilepsia.

Ison concluyó: "Una mejor comprensión de cómo los conjuntos de neuronas representan el aprendizaje y la memoria podría conducir a ideas novedosas sobre nuestras capacidades de memoria y cómo estas podrían deteriorarse en pacientes que padecen ciertos trastornos neurológicos".

En estudios futuros, los investigadores examinarán por qué algunos conceptos aparentemente relacionados se consolidan en recuerdos a largo plazo mientras que otros se olvidan. También investigarán si es posible recuperar recuerdos específicos o asociaciones aprendidas estimulando neuronas específicas. ¡Manténganse al tanto!

Para ver a Rodrigo Quian Quiroga describir su investigación, mire este video:

Si desea leer más sobre este tema, consulte mi Psicología Hoy publicaciones de blog:

  • "Nuevas pistas sobre el funcionamiento interno de la mente inconsciente"
  • "¿Por qué las canciones de tu pasado evocan recuerdos tan vívidos?"
  • "Las 'explosiones cerebrales' mejoran el aprendizaje y la memoria"
  • "Las siestas energéticas ayudan a que su hipocampo consolide sus recuerdos"
  • "La misteriosa neurociencia del aprendizaje de habilidades automáticas"
  • "¿Cómo recuerda el cerebro los lugares de su pasado?"
  • "¿Tiene una instantánea familiar y un recuerdo de las Torres Gemelas?"
  • "Regresar a un lugar sin cambios revela cómo ha cambiado"
  • "La neurociencia de saber sin saber"

© Christopher Bergland 2015. Todos los derechos reservados.

Sígueme en Twitter @ckbergland para recibir actualizaciones sobre El estilo del atleta publicaciones de blog.

El estilo del atleta ® es una marca registrada de Christopher Bergland.


La naturaleza simbiótica de la inteligencia artificial y la neurociencia

La neurociencia y la inteligencia artificial (IA) son dos disciplinas científicas muy diferentes. La neurociencia se remonta a civilizaciones antiguas, y la IA es un fenómeno decididamente moderno. La neurociencia se ramifica de la biología, mientras que la IA se ramifica de la informática. A simple vista, parecería que una rama de la ciencia de los sistemas vivos tendría poco en común con otra que surge de máquinas inanimadas totalmente creadas por humanos. Sin embargo, los descubrimientos en un campo pueden resultar en avances en el otro: los dos campos comparten un problema significativo y oportunidades futuras.

Los orígenes de la neurociencia moderna tienen sus raíces en las antiguas civilizaciones humanas. Una de las primeras descripciones de la estructura del cerebro y la neurocirugía se remonta al 3000 - 2500 a. C. en gran parte debido a los esfuerzos del egiptólogo estadounidense Edwin Smith. En 1862, Smith compró un pergamino antiguo en Luxor, Egipto. En 1930, James H. Breasted tradujo el pergamino egipcio debido a una solicitud de 1906 de la Sociedad Histórica de Nueva York a través de la hija de Edwin Smith. El papiro quirúrgico de Edwin Smith es un manual de neurociencia egipcio de alrededor del 1700 a. C. que resume un tratado egipcio antiguo de 3000 a 2500 a.C. que describe las superficies externas del cerebro, el líquido cefalorraquídeo, las pulsaciones intracraneales, las meninges, las suturas craneales, suturas quirúrgicas, lesiones cerebrales y más.

Por el contrario, las raíces de la inteligencia artificial se encuentran de lleno a mediados del siglo XX. Al científico informático estadounidense John McCarthy se le atribuye la creación del término "inteligencia artificial" en una propuesta escrita de 1955 para un proyecto de investigación de verano del que fue coautor con Marvin L. Minsky, Nathaniel Rochester y Claude E. Shannon. El campo de la inteligencia artificial se lanzó posteriormente en una conferencia de 1956 celebrada en Dartmouth College.

La historia de la inteligencia artificial es moderna. En 1969, Marvin Minsky y Seymour Papert publicaron un artículo de investigación titulado "Perceptrones: una introducción a la geometría computacional" que planteó la hipótesis de la posibilidad de una poderosa técnica de aprendizaje artificial para más de dos capas neuronales artificiales. Durante las décadas de 1970 y 1980, el aprendizaje automático de la IA se encontraba en relativa inactividad. En 1986, Geoffrey Hinton, David E. Rumelhart y Ronald J. Williams publicaron "Representaciones de aprendizaje mediante errores de retropropagación", que ilustra cómo las redes neuronales profundas que constan de más de dos capas podrían entrenarse mediante retropropagación.

Durante la década de 1980 hasta principios de la de 2000, la unidad de procesamiento de gráficos (GPU) ha evolucionado desde el propósito de los juegos hacia la computación general, lo que permite el procesamiento paralelo para una computación más rápida. En la década de 1990, Internet generó industrias completamente nuevas, como el software como servicio (SaaS) basado en la computación en la nube. Estas tendencias permitieron una informática más rápida, económica y potente.

En la década de 2000, surgieron grandes conjuntos de datos junto con el aumento y la proliferación de sitios de redes sociales basados ​​en Internet. El entrenamiento del aprendizaje profundo requiere conjuntos de datos y el surgimiento del aprendizaje automático acelerado de big data. En 2012, se logró un hito importante en el aprendizaje profundo de IA cuando Geoffrey Hinton, Alex Krizhevsky e Ilya Sutskever entrenaron una red neuronal convolucional profunda con 60 millones de parámetros, 650.000 neuronas y cinco capas convolucionales, para clasificar 1.2 millones de imágenes de alta resolución en 1.000 clases diferentes. El equipo hizo historia en la IA a través de su demostración de retropropagación en una implementación de GPU en una escala de complejidad tan impresionante. Desde entonces, ha habido una fiebre del oro en todo el mundo para implementar técnicas de aprendizaje profundo de vanguardia en casi todas las industrias y sectores.

En el futuro, las oportunidades que ofrecen la neurociencia y la IA son significativas. Se espera que el gasto global en sistemas cognitivos y de inteligencia artificial alcance los $ 57.6 mil millones para 2021 según las estimaciones de IDC. El actual renacimiento de la IA, en gran parte debido al aprendizaje profundo, es un movimiento global con inversión mundial de corporaciones, universidades y gobiernos. Se prevé que el mercado mundial de la neurociencia alcance los 30.800 millones de dólares en 2020, según cifras de Grand View Research. Los capitalistas de riesgo, los inversores ángeles y las empresas farmacéuticas están realizando importantes inversiones en nuevas empresas de neurociencia.

La fuente actual de las inversiones comerciales, financieras y geopolíticas globales en inteligencia artificial se debe, en parte, al cerebro humano. El aprendizaje profundo, un subconjunto del aprendizaje automático de IA, rinde homenaje a la estructura biológica del cerebro. Las redes neuronales profundas (DNN) constan de dos o más capas de procesamiento "neuronales" con neuronas artificiales (nodos). Un DNN tendrá una capa de entrada, una capa de salida y muchas capas intermedias: cuantas más capas neuronales artificiales, más profunda es la red.

El cerebro humano y sus funciones asociadas son complejas. Los neurocientíficos no conocen muchos de los mecanismos exactos de funcionamiento del cerebro humano. Por ejemplo, los científicos no conocen los mecanismos neurológicos de cómo funciona exactamente la anestesia general en el cerebro, o por qué dormimos o soñamos.

Del mismo modo, los científicos informáticos no saben exactamente cómo llega el aprendizaje profundo a sus conclusiones debido a la complejidad. Una red neuronal artificial puede tener miles de millones o más de parámetros basados ​​en las intrincadas conexiones entre los nodos; la ruta exacta es una caja negra.

Este problema de caja negra puede ser desconcertante considerando el creciente impacto de la IA en el futuro de la economía global. Para 2030, se proyecta que la inteligencia artificial generará USD 13 billones de actividad económica adicional a nivel mundial, según un informe de 2018 del McKinsey Global Institute.

Entonces, ¿cómo pueden los científicos comprender mejor el funcionamiento interno del aprendizaje profundo? Un enfoque consiste en desplegar conceptos de la psicología humana: el estudio científico de la mente y el comportamiento.

Gary Marcus es profesor de psicología y ciencias neuronales en la Universidad de Nueva York, y ex director ejecutivo y fundador de Geometric Intelligence, que fue adquirida por Uber. En un artículo sobre Medio en 2018, Marcus sugiere que la comunidad de IA debería considerar "incorporar una estructura más innata en el sistema de IA". Pide modelos híbridos que "incorporen no solo formas supervisadas de aprendizaje profundo, sino también otras técnicas, como la manipulación de símbolos y el aprendizaje no supervisado".

DeepMind de Google utiliza principios de la psicología cognitiva para comprender las redes neuronales profundas a fin de abordar el problema de la caja negra. La psicología cognitiva es el estudio científico de los procesos mentales como el pensamiento, la resolución de problemas, la percepción, la memoria, el lenguaje aplicado, la atención y la creatividad.

Como explicó Demis Hassabis, cofundador y CEO de DeepMind, en un artículo que escribió en El Financial Times en abril de 2017, "A medida que descubramos más sobre el proceso de aprendizaje en sí y lo comparamos con el cerebro humano, algún día podríamos lograr una mejor comprensión de lo que nos hace únicos, incluso arrojar luz sobre misterios perdurables de la mente como los sueños, la creatividad y tal vez algún día incluso la conciencia ".

Afortunadamente, la innovación en neurociencia puede servir de inspiración para futuros avances en inteligencia artificial y viceversa. Por ejemplo, la arquitectura del aprendizaje profundo es un sistema informático jerárquico. Pero, ¿y si el proceso neurológico de aprendizaje del cerebro humano no es jerárquico?

En 2018, el científico y tecnólogo Jeff Hawkins de Numenta introdujo un nuevo marco que va en contra de décadas de opiniones comunes en neurociencia sobre cómo funciona el neocórtex humano: la "Teoría de la inteligencia de los mil cerebros". Hawkins planteó la hipótesis de que cada parte del neocórtex humano aprende modelos completos de objetos y conceptos combinando la entrada con una ubicación derivada de la celda de la cuadrícula, y luego integrando los movimientos. Debido a las conexiones no jerárquicas, pueden producirse inferencias con el movimiento de los sensores.

Sería interesante aplicar la teoría de la inteligencia de los mil cerebros para desarrollar nuevos tipos de inteligencia artificial. ¿Se puede desarrollar una forma novedosa de género de aprendizaje automático con conexiones no jerárquicas que se conecten entre sistemas de procesamiento artificial, a través de modalidades y niveles?

Los mecanismos subyacentes del aprendizaje profundo de la IA y la cognición humana son sistemas complejos. Irónicamente, los humanos han creado inteligencia artificial con opacidad inherente como el cerebro biológico. Juntos, ambos campos de la ciencia están produciendo avances que pueden moldear significativamente el futuro de la humanidad.

Copyright © 2019 Cami Rosso Todos los derechos reservados.

Wilkins, Robert H. "Clásico neuroquirúrgico-XVII Edwin Smith Surgical Papyrus". Revista de neurocirugía. Marzo de 1964.

Myers, Andrew. "John McCarthy de Stanford, figura fundamental de la inteligencia artificial, muere a los 84 años". Informe de Stanford. 25 de octubre de 2011.

AAAI. "Una propuesta para el proyecto de investigación de verano de Dartmouth sobre inteligencia artificial". Revista AI. 15 de diciembre de 2006.

van Rijmenam, Mark. "Una breve historia de Big Data". DataFloq. Enero de 2006.

Williams, Hannah. "La historia de la computación en la nube: una cronología de los momentos clave desde la década de 1960 hasta ahora". Computer World Reino Unido. 13 de marzo de 2018.

McFadden, Christopher. "Una historia cronológica de las redes sociales". Ingenieria interesante. 16 de octubre de 2018.

Mente profunda. "Interpretación de las redes neuronales profundas mediante la psicología cognitiva". Consultado el 9 de marzo de 2019 en https://deepmind.com/blog/cognitive-psychology/

Marcus, Gary. "En defensa del escepticismo sobre el aprendizaje profundo". Medio. 14 de enero de 2018.


Biología celular y neurociencia

La misión de Biología Celular y Neurociencia es capacitar a los estudiantes en una amplia gama de áreas biológicas, con especial énfasis en biología celular, neurobiología, biología del desarrollo, fisiología, anatomía y biofísica. Juntos, profesores y estudiantes de Biología Celular y Neurociencia estudian procesos biológicos que abarcan el continuo desde células individuales hasta todo el cuerpo humano. Biología Celular y Neurociencia ofrece una licenciatura B.S. en Biología Celular y Neurociencia, con opciones de Biomedicina y Neurociencia, así como M.S. y un doctorado. Postgrados en Biología Celular y Neurociencias.


  • Fundamentos de la bioelectricidad
  • La importancia del potencial de reposo
  • Las propiedades de las membranas pasivas.
  • Potenciales de acción, sus corrientes y su papel en el sistema nervioso.
  • ¿Cómo puedes hacer neurociencia en tu casa?

Fundamentos de la neurociencia es una serie de tres cursos que explora la estructura y función del sistema nervioso, desde el funcionamiento interno de una sola célula nerviosa hasta la asombrosa complejidad del cerebro y las interacciones sociales que permiten.

En este primer curso, aprenderá cómo las neuronas individuales utilizan la electricidad para transmitir información. Construirá una neurona, pieza por pieza, utilizando simulaciones interactivas, luego viajará por el campus de Harvard, donde verá el funcionamiento interno de un laboratorio y aprenderá a realizar experimentos de neurociencia por su cuenta.

Únase a nosotros mientras estudiamos las propiedades eléctricas en neuronas individuales, construyendo una base para comprender la función de todo el sistema nervioso.


Coincidencia de cerebro

Para jugar: Las estructuras, términos o palabras relacionadas con el sistema nervioso que se pueden agrupar por un "hilo común" son creadas por los alumnos o el profesor. El objetivo del juego es determinar cuál es ese hilo conductor. Por ejemplo, ¿qué tienen en común olfatorio, óptico, trigémino, hipogloso, oculomotor, vago y glosofaríngeo? (Respuesta: Todos son NERVIOS CRANEALES). Cada palabra de la lista se lee lentamente, una por una. Si un jugador o equipo cree que sabe la respuesta, puede gritarla. El jugador o equipo con la primera respuesta correcta, obtiene un punto. El jugador o equipo con más puntos gana.

A continuación encontrará una lista de "listas" para comenzar sin las respuestas y aquí está la lista con las respuestas:

¿Qué tienen estas cosas en común?

  • citoplasma, mitocondrias, neurofilamentos, vesículas
  • parietal, temporal, frontal, occipital
  • núcleo geniculado medial, membrana timpánica, células ciliadas, estribo, cóclea, par craneal VIII
  • conos, bastones, núcleo geniculado lateral, retina, iris, pupila
  • dopamina, serotonina, norepinefrina, GABA, glutamato, acetilcolina
  • hipocampo, fórnix, amígdala, cuerpo mamilar, tabique
  • Corpúsculo de Pacini, corpúsculo de Meissner, disco de Merkel, terminaciones nerviosas libres
  • axón, dendrita, soma, terminación terminal
  • Golgi, Cajal, Eccles, Sherrington, Hubel
  • Núcleo cuneado, núcleo grácil, lemnisco medial, columnas dorsales
  • Basilar, vertebral, carótida, anterior cerebral
  • tacto, calor, dolor, frío, posición de las extremidades
  • dulce, salado, amargo, agrio
  • células bipolares, células ganglionares, células horizontales, células amacrinas
  • cuerpo calloso, fondo de saco, lemnisco medial, comisura anterior
  • oligodendrocitos, astrocitos, microglia

. y la lista puede seguir y seguir.


Perspectiva

H.M. fue probablemente el individuo más estudiado en la historia de la neurociencia. El interés en el caso puede atribuirse a una serie de factores, incluida la inusual pureza y gravedad del deterioro de la memoria, su estabilidad, su base anatómica bien descrita y la voluntad de H.M. & # X02019 de ser estudiado. Era un hombre tranquilo y cortés con sentido del humor y comprensión de su condición. Hablando de su neurocirujano, dijo una vez, & # x0201c Lo que aprendió de mí ayudó a otros, y yo & # x02019 estoy contento por eso. & # X0201d (Corkin, 2002, p. 159).

Un aspecto adicional de la circunstancia de H.M. & # X02019, que aseguró su eventual lugar en la historia de la neurociencia, fue el hecho de que Brenda Milner fue la joven científica que lo estudió por primera vez. Es una excelente experimentalista con una fuerte orientación conceptual que le permitió extraer de sus datos conocimientos profundos sobre la organización de la memoria. Como fue el primer paciente con amnesia bien estudiado, H.M. se convirtió en el criterio con el que se compararía a otros pacientes con deterioro de la memoria. Ahora está claro que su deterioro de la memoria no era absoluto y que pudo adquirir nuevos conocimientos importantes (Corkin, 2002). Por lo tanto, el deterioro de la memoria puede ser más grave o menos grave que en H.M. Pero el estudio de H.M. Estableció principios clave sobre cómo se organiza la memoria que continúan guiando la disciplina.


Ver el vídeo: Versión Completa: David Bueno explica cómo cambia nuestro cerebro al aprender. (Enero 2022).