El aprendizaje automático nos da una vista panorámica

0
5
El aprendizaje automático nos da una vista panorámica

¡Se están leyendo las mentes de los perros! Algo así como.

Los investigadores han utilizado escáneres fMRI (imágenes por resonancia magnética funcional) de los cerebros de los perros y una herramienta de aprendizaje automático para reconstruir lo que ve el perro. Los resultados sugieren que los perros están más interesados ​​en lo que sucede que en quién o qué está involucrado.

Los resultados del experimento realizado en la Universidad de Emory en Georgia en los EE.UU. se publican en el Revista de experimentos visualizados.

A dos perros sin restricciones se les mostraron tres videos de 30 minutos. Se registraron los datos neuronales de fMRI y se empleó un algoritmo de aprendizaje automático para analizar los patrones en los escaneos.

“Demostramos que podemos monitorear la actividad en el cerebro de un perro mientras mira un video y, al menos hasta cierto punto, reconstruir lo que está mirando”, dice Gregory Berns, profesor de psicología en Emory. “El hecho de que podamos hacer eso es notable”.


Leer más: Las cacatúas se enseñan entre sí a abrir contenedores y los humanos comparten estrategias para detenerlas


El uso de fMRI para estudiar la percepción se ha desarrollado recientemente en humanos y solo en algunas otras especies, incluidos algunos primates.

“Si bien nuestro trabajo se basa en solo dos perros, ofrece una prueba de concepto de que estos métodos funcionan en caninos”, dice la autora principal Erin Phillips, de la Universidad de St. Andrews en Escocia, quien realizó la investigación como especialista en el Laboratorio de Neurociencia Cognitiva Canina de Berns. “Espero que este documento ayude a allanar el camino para que otros investigadores apliquen estos métodos en perros, así como en otras especies, para que podamos obtener más datos y una mayor comprensión de cómo funcionan las mentes de diferentes animales”.

El aprendizaje automático, curiosamente, es una tecnología que tiene como objetivo imitar las redes neuronales en nuestros propios cerebros mediante el reconocimiento de patrones y el análisis de grandes cantidades de datos.

La tecnología “lee la mente” al detectar patrones dentro de los datos del cerebro que pueden asociarse con lo que se reproduce en el video.

Colocando un palo selfie grabador de video colocado al nivel de los ojos del perro, los investigadores filmaron escenas identificables para la audiencia canina.


Leer más: La forma en que hablamos les importa a los animales


Las actividades registradas incluyeron perros acariciados y recibiendo golosinas de personas.

Las escenas con perros los mostraban olfateando, jugando, comiendo o caminando. Otros objetos y animales incluidos en las escenas incluyeron autos, bicicletas, scooters, gatos y venados, así como personas sentadas, abrazándose, besándose, ofreciendo un juguete a la cámara y comiendo.

Las marcas de tiempo en los videos ayudaron a clasificarlos en objetos (como perros, automóviles, humanos, gatos) y acciones (como olfatear, comer, caminar).

Solo dos perros exhibieron la paciencia para sentarse a ver el largometraje. A modo de comparación, dos humanos también se sometieron al mismo experimento. Ambas especies, presumiblemente, fueron engatusadas con golosinas y palmaditas en el vientre.

Se aplicó el algoritmo de aprendizaje automático Ivis a los datos. Ivis se entrenó por primera vez en sujetos humanos y el modelo tenía una precisión del 99% en el mapeo de los datos del cerebro en los clasificadores de objetos y acciones.

En el caso de los perros, sin embargo, el modelo no funcionó para los clasificadores basados ​​en objetos. Sin embargo, tuvo una precisión de entre el 75 y el 88 % en la decodificación de los clasificadores de acción en las exploraciones de IRMf de perros.

Bhubo, que se muestra con su dueño Ashwin, se prepara para su sesión de visualización de videos en un escáner fMRI. Las orejas del perro están cubiertas con cinta adhesiva para sujetar tapones para los oídos que amortiguan el ruido del escáner fMRI. Crédito: Laboratorio de Neurociencia Cognitiva Canina de Emory.

“Los humanos estamos muy orientados a objetos”, dice Berns. “Hay 10 veces más sustantivos que verbos en el idioma inglés porque tenemos una obsesión particular con nombrar objetos. Los perros parecen estar menos preocupados por quién o qué están viendo y más preocupados por la acción en sí”.

Los perros solo ven en tonos de azul y amarillo, pero tienen una densidad ligeramente mayor de receptores de visión diseñados para detectar movimiento.

“Tiene mucho sentido que los cerebros de los perros estén muy sintonizados con las acciones ante todo”, agrega Berns. “Los animales deben estar muy preocupados por las cosas que suceden en su entorno para evitar que se los coman o para monitorear a los animales que podrían querer cazar. La acción y el movimiento son primordiales”.

Philips cree que comprender cómo los animales perciben el mundo es importante en su propia investigación sobre cómo la reintroducción de depredadores en Mozambique puede afectar los ecosistemas.

“Históricamente, no ha habido mucha superposición en informática y ecología”, dice ella. “Pero el aprendizaje automático es un campo en crecimiento que está comenzando a encontrar aplicaciones más amplias, incluso en ecología”.



LEAVE A REPLY

Please enter your comment!
Please enter your name here