
Fuente: Shutterbug75/Pixabay
Comprender los mecanismos biológicos que subyacen al comportamiento humano y animal puede hacer avanzar industrias críticas como la medicina, la atención sanitaria, la robótica, la inteligencia artificial (IA) y más. El martes, científicos de la Universidad de Harvard y Google DeepMind publicaron un nuevo estudio. naturaleza que muestra cómo se puede utilizar el aprendizaje por refuerzo profundo de la IA para crear un roedor virtual realista que puede ayudar a avanzar en muchas áreas de la neurociencia conductual y la investigación fundamental.
La neurociencia del comportamiento, también conocida como psicobiología, psicología fisiológica, biopsicología o psicología biológica, es el estudio de las bases neuronales y biológicas del comportamiento humano y animal. Es una disciplina interdisciplinaria que combina elementos de física, biología, química, matemáticas y psicología. La psicobiología es útil en robótica, inteligencia artificial, psicología del desarrollo, psicología cognitiva, psiquiatría, neuroendocrinología, audiología, bioquímica, descubrimiento de fármacos, biotecnología, atención médica, medicina, tecnología de asistencia, farmacia, patología del habla y el lenguaje, medicina veterinaria y otros campos.
«Los animales tienen un excelente control sobre sus cuerpos, lo que les permite realizar una amplia variedad de comportamientos», escribió Bence P. Ölveczky, PhD, profesor de biología orgánica y evolutiva en ciencias del cerebro en Harvard, quien codirigió el estudio. Con Josh Merel, Jesse D. Marshall, Leonard Hasenclever, Ugne Klibaite, Amanda Gellis, Yuval Tassa, Greg Wayne, Diego Aldarondo y Matthew Botvinick. «Sin embargo, no está claro cómo el cerebro implementa este control».
¿Cómo crear un mamífero virtual realista? en silicona—En este caso, ¿modelar algorítmicamente ratas en movimiento? Para este estudio, el diseño de IA incluye un codificador visual, un codificador propioceptivo, un módulo central entrenado mediante retropropagación y un módulo de políticas compuesto por redes neuronales de memoria recurrente a corto plazo (LSTM).
Los investigadores escribieron:
«Utilizamos el aprendizaje por refuerzo profundo para entrenar al agente virtual para que imitara el comportamiento de ratas que se movían libremente, de modo que pudimos comparar la actividad neuronal registrada en ratas reales con la actividad de la red de un roedor virtual que imita su comportamiento».
El aprendizaje por refuerzo profundo es un tipo de aprendizaje automático con IA que combina redes neuronales profundas y aprendizaje por refuerzo para enseñar a un agente a comportarse en función de los resultados de sus acciones. Las redes neuronales profundas (DNN) son un tipo de redes neuronales artificiales (ANN) que incluyen una capa de entrada, una capa de salida y muchas capas ocultas para procesar y pasar datos. Cuanto mayor sea el número de capas, más profunda será la red neuronal.
En inteligencia artificial, los algoritmos de aprendizaje por refuerzo aprenden de los resultados para determinar los próximos pasos con el objetivo de lograr el mejor resultado para maximizar la recompensa. El aprendizaje por refuerzo (RL) es un tipo de aprendizaje automático de IA que simula una retroalimentación mejorada mediante prueba y error e interacción ambiental. El aprendizaje por refuerzo se utiliza para escenarios complejos del mundo real donde las decisiones actuales afectan los resultados futuros. El tipo de refuerzo puede ser positivo, negativo, de castigo, de extinción, intermitente o continuo. Un ejemplo del mundo real de un tipo de aprendizaje por refuerzo analógico es darle comida a un perro cuando se le ordena que «se siente» como recompensa y refuerzo positivo. El aprendizaje por refuerzo se utiliza en robótica, vehículos autónomos, atención médica, juegos de computadora, motores de recomendación, medicina personalizada y más.
Los investigadores desarrollaron un cuerpo de rata virtual utilizando un motor basado en la física para el control basado en modelos y mediciones del mundo real de ratas de laboratorio. Luego, al roedor virtual se le asignaron varias tareas, como saltar, buscar comida, escapar y tocar dos veces. Según los científicos,
«Descubrimos que la actividad neuronal en el cuerpo estriado sensoriomotor y la corteza motora se predecía mejor mediante la actividad de la red en el roedor virtual que mediante cualquier característica de los movimientos de la rata real, lo que coincide con que ambas regiones establecen una dinámica inversa».
Se trata de un avance apasionante que podría acelerar la inteligencia artificial y la neurociencia. Según los científicos, pueden controlar completamente la actividad neuronal, el comportamiento y la información sensorial, así como los objetivos de entrenamiento del modelo, las fuentes de variación y la conectividad.
«Estos resultados muestran cómo las simulaciones físicas biomecánicamente realistas de animales virtuales pueden ayudar a interpretar la estructura de la actividad neuronal durante el comportamiento y relacionarla con los principios teóricos del control motor», concluyeron los investigadores.
Copyright © 2024 Cami Rosso. Reservados todos los derechos.