...
...

Reconstrucción de la imagen visual de la actividad cerebral humana

profetacuentalabiblia.blogspot.com presenta


Artículo

Reconstrucción de la imagen visual de la actividad cerebral humana utilizando una combinación de escalas múltiples descodificadores de imagen Local
Yoichi Miyawaki 1 ,  2 ,  6 , Hajime Uchida 2 ,  3 ,  6 , Okito Yamashita 2 , Masa-aki Sato 2 , Yusuke Morito 4 ,  5 , Hiroki Tanabe C. 4 ,  5 , Norihiro Sadato 4 ,  5 , Yukiyasu Kamitani 2 ,  3 , Autor correspondiente información de contactoE-mail del autor correspondiente
1Instituto Nacional de Tecnologías de Información y Comunicaciones, Kyoto, Japón
2ATR Computacional Laboratorios de Neurociencia, Kyoto, Japón
3Instituto Nara de Ciencia y Tecnología de Nara, Japón
4La Universidad de Postgrado para Estudios Avanzados, Kanagawa, Japón
5Instituto Nacional de Ciencias Fisiológicas, Aichi, Japón
Aceptado el 4 de noviembre de 2008. Publicado: 10 de diciembre de 2008. Disponible en línea el 10 de diciembre de 2008.

Resumen

La experiencia perceptiva consiste en un gran número de estados posibles. Estudios previos fMRI han pronosticado un estado de percepción mediante la clasificación de la actividad del cerebro en categorías preestablecidas. Restricción sin reconstrucción de la imagen visual es más difícil, ya que es práctico especificar la actividad cerebral de todas las imágenes posibles. En este estudio, hemos reconstruido las imágenes visuales mediante la combinación de bases locales de la imagen de múltiples escalas, cuyos contrastes fueron decodificados independientemente de la actividad fMRI seleccionando automáticamente voxels relevantes y aprovechando sus patrones correlacionados. Contraste binario, 10 × 10-patch imágenes (2 100 estados posibles) fueron reconstruidas con precisión sin ningún tipo de imagen antes de un ensayo o términos de volumen mediante la medición de la actividad cerebral sólo varios cientos de imágenes al azar. La reconstrucción también se utilizó para identificar la imagen presentada entre millones de candidatos. Los resultados sugieren que nuestro enfoque proporciona un medio eficaz para leer los estados de percepción compleja de la actividad cerebral mientras descubre representación de la información en los patrones de multivoxel.
Palabras clave: SYSNEURO

Esquema del artículo

Introducción

Evaluación objetiva de la experiencia perceptiva en términos de actividad cerebral, representa un gran desafío de la neurociencia. Estudios previos han demostrado que la fMRI características visuales, tales como la orientación y dirección del movimiento ( [Kamitani y Tong, 2005] [Kamitani y Tong, 2006] ), y las categorías visuales de los objetos ( [Cox y Saboya, 2003] [Haxby et al ., 2001] ) pueden ser decodificados a partir de los patrones de actividad fMRI por una estadística "decodificador", que se entera de la correspondencia entre un patrón de actividad cerebral y una categoría de estímulo de un conjunto de datos de entrenamiento. Por otra parte, una forma primitiva de "leer la mente" se ha demostrado mediante la predicción de un estado subjetivo en la presentación de un estímulo ambiguo utilizando un decodificador entrenado con los estímulos ambiguos ( [Kamitani y Tong, 2005] [Kamitani y Tong, 2006] [Haynes y Rees, 2005] ). Sin embargo, este enfoque de clasificación simple no es suficiente para captar la complejidad de la experiencia perceptual, ya que nuestra percepción está constituida por diferentes estados posibles, y no es práctico para medir la actividad cerebral de todos los estados. Un estudio reciente ( Kay et al., 2008 ) ha demostrado que una imagen que se presenta se pueden identificar entre un gran número de imágenes de candidatos, a través de un modelo que predice el campo receptivo de la actividad de resonancia magnética funcional por imágenes visuales (ver también Mitchell et al., 2008 , para un enfoque relacionado).Sin embargo, la identificación de la imagen se vio limitada todavía por el conjunto de imágenes candidato. Aún más difícil es la reconstrucción de la imagen visual, la percepción visual que decodifica en una imagen, sin la restricción de las categorías (ver Stanley et al., 1999 , para la reconstrucción con picos de LGN).
Un enfoque posible es utilizar la retinotopy en la corteza visual temprana. Los asociados retinotopy la ubicación específica del campo visual a la ubicación cortical activo, o voxel, proporciona un mapa del campo visual de los voxels cortical ( [Engel et al., 1994] [Sereno et al., 1995] ). Por lo tanto, se puede predecir la información contraste local mediante el control de las señales de resonancia magnética funcional correspondiente a la hoja de retinotopy de la ubicación de destino del campo visual. El retinotopy puede elaborarse mediante un voxel receptivo campo modelo. Invirtiendo el modelo receptivo de campo, una imagen que se presenta se puede deducir, dada la actividad cerebral compatibles con la retinotopy ( Thirion et al., 2006 ).
Sin embargo, puede no ser óptima para utilizar el retinotopy oa la inversa del modelo de campo receptivo para predecir el contraste local en una imagen. Estos métodos se basan en el modelo de respuestas voxel individuo un estímulo visual, y los patrones de multivoxel no se tienen en cuenta para la predicción de los estímulos visuales. Estudios recientes han demostrado la importancia de los patrones de actividad, en particular, la correlación entre las neuronas corticales o lugares en la decodificación de un estímulo ( [Averbeck et al., 2006] [Chen et al., 2006] ). Ya que incluso una pequeña localizada estímulo visual provoca la actividad espacial, repartidas en varios voxels cortical ( [Engel et al., 1997] [Shmuel et al., 2007] ), los patrones de multivoxel pueden contener información útil para predecir el estímulo presentado.
Además, una imagen visual se cree que es representado en múltiples escalas espaciales en la corteza visual, que puede servir para mantener la sensibilidad visual de finos y gruesos patrones en un lugar único campo visual ( [Campbell y Robson, 1968] [De Valois et al., 1982] ). El retinotopy convencional, por el contrario, no implica la representación multiescala tal, ya que simplemente se propone una asignación de ubicación a ubicación. Puede ser posible extraer información de múltiples escalas de las señales de resonancia magnética funcional y lo utilizan para lograr una mejor reconstrucción.
A continuación, presentamos un enfoque de reconstrucción de la imagen visual el uso de patrones de las señales de resonancia magnética funcional multivoxel y la representación visual de múltiples escalas ( Figura 1 A). Suponemos que una imagen está representada por una combinación lineal de elementos de imagen de múltiples escalas locales (rectángulos de color). El estado de estímulo en cada elemento local (C i , C j , ...) está en relación con un decodificador utilizando patrones multivoxel (peso establecido para cada decodificador, w i , w j , ...), y son las salidas de todos los decodificadores locales combinan de manera óptima estadísticamente (coeficiente de combinación, λ i , λ j , ...) para reconstruir la imagen presentada. Como cada elemento local tiene menos posibles estados de toda la imagen, la formación de los decodificadores local requiere sólo un pequeño número de muestras de entrenamiento.Por lo tanto, cada decodificador local sirve como un "módulo" de un componente de imagen simple, y la combinación de los decodificadores modular nos permite representar a numerosas variaciones de imágenes complejas. El decodificador utiliza todos los voxels de las áreas visuales desde la entrada, mientras que automáticamente voxels poda irrelevante. De este modo, el decodificador no está explícitamente informados acerca de la asignación retinotopy.

Figura 1. 
Reconstrucción de la imagen visual
(A) Procedimiento de Reconstrucción. actividad de resonancia magnética funcional se mide mientras que un contraste definido la imagen de 10 × 10 parches se presenta. "Decodificadores Local" utilizar de forma lineal ponderada multivoxel señales de resonancia magnética funcional (pesos voxel, w i , w j , ...) para predecir los contrastes (valores de contraste, C i , C j , ...) de "las bases de la imagen local" (o elementos) de múltiples escalas (1 x 1, 1 x 2, 2 × 1, y 2 x 2 áreas de parches, que se define por rectángulos de color). Bases locales de la imagen se multiplican por los contrastes y predice linealmente vinculan con "coeficientes de combinación" (λ i , λ j , ...) para reconstruir la imagen. Los patrones de contraste de las imágenes reconstruidas son representados por una escala de grises. Bases de la imagen de la misma escala (con excepción de la escala de 1 × 1), parcialmente superpuestos entre sí, aunque la cifra sólo muestra las bases de que no se superponen con el propósito de ilustración.
(B) Secuencia de los estímulos visuales. Imágenes de estímulo se compone de 10 × 10 parches de tablero de ajedrez parpadeo a 6 Hz (tamaño del parche, 1,15 ° x 1,15 °; frecuencia espacial, 1.74 ciclo / °; el contrario, 60%). Parches de tablero de ajedrez constituido al azar, geométricas, o patrones de las letras del alfabeto. Cada bloque de estímulo fue de 6 s (la imagen al azar) o 12 s (figuras geométricas o alfabeto) de largo seguido por un período de descanso (de 6 a 12 s).
Hemos aplicado este enfoque a la reconstrucción de cambio definido por las imágenes que consta de 10 × 10 parches binarios ( Figura 1 B). Se demuestra que una vez que nuestro modelo es entrenado con varios cientos de imágenes al azar, bien podría reconstruir imágenes arbitrarias (2 100 imágenes posibles), incluyendo las formas geométricas y el alfabeto, en un único ensayo (6 s/12 bloque s) o el volumen (2 s ) base, sin ninguna información previa sobre la imagen. La precisión de la reconstrucción se cuantifica el rendimiento de imagen de identificación, revelando la capacidad de identificar la imagen que se presenta entre un conjunto de millones de imágenes candidato. Análisis de demostrar que el modelo de decodificador multivoxel, que explota las correlaciones voxel especialmente en V1, y el modelo de reconstrucción de múltiples escalas, tanto de manera significativa contribuyen a la alta calidad de la reconstrucción.

Resultados

En el presente estudio, hemos tratado de reconstruir imágenes visuales definidas por los patrones de contraste binario que consta de 10 × 10 parches cuadrados ( Figura 1 ). Teniendo en cuenta las señales de resonancia magnética funcional r , hemos modelado una imagen de la reconstrucción Î ( x | r ) por una combinación lineal de las bases de la imagen local (elementos) φ m ( x ) ( Olshausen y Field, 1996 ), donde x representa una posición en el espacio de la imagen, m ( r ) es el contraste de uno por cada imagen local predecir a partir de las señales de resonancia magnética funcional, y λ m es el coeficiente de combinación de uno por cada imagen local.Ver la fuente MathML
Las bases de la imagen local, φ m ( x ), fueron precedidos de tal manera que de forma redundante cubierto toda la imagen con múltiples escalas espaciales.Hemos utilizado las bases locales de imagen de cuatro escalas: 1 × 1, 1 x 2, 2 × 1, y 2 x 2 áreas de conexión. Estos fueron colocados en cada lugar de la imagen con las superposiciones. Por lo tanto, φ m ( x ) se desempeñó como funciones de base overcomplete, cuyo número fue mayor que la de todos los parches. Aunque elementos de la imagen de más de 2 × 2 o con formas rectangulares podrían ser utilizados, la adición de tales elementos no mejoró el rendimiento de la reconstrucción.
Para cada base de la imagen local, que entrenó a un "decodificador local" que predijo el contraste correspondiente con una suma lineal ponderada de las señales de resonancia magnética funcional. El peso de los voxels, w , se han optimizado utilizando un algoritmo de aprendizaje estadístico descrito en los procedimientos experimentales ("regresión logística escasa", Yamashita et al., 2008 ) para predecir mejor el contraste de la imagen de los elementos locales con un conjunto de datos de entrenamiento. Tenga en cuenta que nuestro algoritmo se selecciona automáticamente voxels relevantes para la decodificación sin información explícita acerca de la asignación retinotopy medido por el método convencional.
El coeficiente de combinación, λ m , se ha optimizado para reducir al mínimo los errores entre presentados y reconstruir las imágenes en un conjunto de datos de entrenamiento. Este coeficiente fue necesario porque las bases de la imagen local se overcomplete y no independientes entre sí. Entrenados decodificadores locales y sus coeficientes de combinación constituye un modelo de reconstrucción.
las señales de resonancia magnética funcional se midieron mientras que los sujetos vieron una secuencia de imágenes visuales que consiste en parches binarios de diferencia en una cuadrícula de 10 × 10. En la "sesión de la imagen al azar", un patrón aleatorio fue presentado durante 6 s seguido por un período de 6 s de reposo ( Figura 1 B). Un total de 440 imágenes aleatorias diferentes se muestra (cada uno presentó una vez). En la "sesión figura la imagen", seguido de una imagen que forma una figura geométrica o el alfabeto fue presentada por 12 s por un período de descanso de 12 s. Cinco letras del alfabeto y cinco figuras geométricas se muestran seis u ocho veces. Hemos utilizado las señales de resonancia magnética funcional de las áreas V1 y V2 para el análisis (a menos que se indique lo contrario). Los datos de la sesión de la imagen al azar fueron analizados por un procedimiento de validación cruzada para la evaluación cuantitativa. También fueron utilizados para entrenar un modelo para reconstruir las imágenes presentadas en la sesión de la imagen figura.

Las imágenes reconstruidas Visual

Imágenes reconstruidas de todos los ensayos de la sesión figura la imagen se muestran en la Figura 2 A. Que fueron reconstruidos utilizando el modelo entrenado con todos los datos de la sesión de la imagen al azar. La reconstrucción se realizó en un solo juicio, en bloques de datos promedio (media de 12 s, o los seis volúmenes de las señales de resonancia magnética funcional). Tenga en cuenta que no se aplicó el posprocesamiento. A pesar de que las formas geométricas y el alfabeto no fueron utilizados para la formación del modelo de reconstrucción, las imágenes reconstruidas revelar características esenciales de las formas originales. La correlación espacial entre las imágenes presentadas y reconstruida fue de 0,68 ± 0,16 (media ± DE) de S1 tema y 0,62 ± 0,09 para S2.

Figura 2. 
Resultados de reconstrucción
(A) reconstruido las imágenes visuales. Los resultados de la reconstrucción de todos los ensayos por dos sujetos se muestran en las imágenes presentadas en la sesión de la imagen figura. Las imágenes reconstruidas están ordenados en orden ascendente del error cuadrático medio. A los efectos de ilustración, cada parche está representada por un cuadrado homogéneo, cuya intensidad representa el contraste del patrón de tablero de ajedrez. Cada imagen reconstruida se produce a partir de los datos de un único ensayo, y postprocesamiento no se aplicó. Las imágenes de media de las imágenes reconstruidas se presentan en la fila inferior. Las mismas imágenes del alfabeto la letra "n" se muestran en las columnas de la derecha y la izquierda de cada asignatura.
(B) reconstrucción de la imagen visual de un patrón de resonancia magnética de un solo volumen de actividad. Los resultados representativos se muestran con la reconstrucción de las imágenes presentadas, incluyendo los períodos de descanso (S1 tema; 2 s / imagen). Cada imagen reconstruida se produjo a partir de un solo volumen patrón de actividad fMRI a 2 s, y postprocesamiento no se aplicó. El tiempo de respuesta hemodinámica no se compensa en esta pantalla.
También se encontró que la reconstrucción fue posible, incluso a partir de 2 s en un solo volumen de datos sin un promedio de bloques ( Figura 2 B). Los resultados muestran la evolución temporal de la reconstrucción del volumen por volumen, incluyendo los períodos de descanso. Todas las secuencias de la reconstrucción se presentan en la película S1 .

Imagen de identificación a través de la reconstrucción

A fin de cuantificar el rendimiento de la reconstrucción, que llevó a cabo el análisis de imágenes identificación ( [Kay et al. 2008] [Thirion et al. 2006] ) en el que se identifica la imagen que se presenta entre un número de imágenes de candidatos utilizando un patrón de actividad de resonancia magnética funcional ( Figura 3 A). Hemos generado un conjunto de imágenes candidato que consiste en una imagen que se presenta en la sesión de la imagen al azar y un número determinado de imágenes seleccionadas aleatoriamente a partir de 2 100 imágenes posibles (combinaciones de 10 × 10 contrastes binarios). Dado un patrón de actividad fMRI, la identificación de imágenes se realizó mediante la selección de la imagen con la más pequeña diferencia media cuadrática de la imagen reconstruida. La tasa de la correcta identificación se ha calculado para un variado número de imágenes de candidatos al azar.

Figura 3. 
Imagen de identificación con las imágenes reconstruidas
(A) Procedimiento de identificación de la imagen. La diferencia media cuadrática se mide entre una imagen reconstruida y la imagen de cada candidato en el conjunto formado por la imagen que se presenta y un número determinado de imágenes generadas al azar (gráficos de barras). El que tiene la menor diferencia se identifica como la imagen predicha (marcados con un asterisco). La figura muestra un ejemplo de una correcta identificación.
(B) Identificación de rendimiento en función del tamaño de imagen ajustado. La identificación se repite para 20 juegos candidato de las imágenes generadas al azar para cada imagen reconstruida de la sesión de la imagen al azar. Imágenes reconstruidas fueron obtenidos utilizando un promedio de bloques de datos (6 s) o de un solo volumen de datos (2 s). El porcentaje de correcta identificación se promedian entre los conjuntos de candidatos (barras de error, sd, línea discontinua, el nivel de azar).
En ambos temas, el rendimiento de la imagen de identificación fue muy por encima del nivel de azar, incluso hasta un tamaño de conjunto de imágenes de 10 millones de dólares ( Figura 3 B). El rendimiento de identificación puede ser más extrapolado mediante el ajuste de la función sigmoide. La extrapolación sugiere que el rendimiento por encima del 10% de respuestas correctas se puede lograr incluso con conjuntos de imágenes de 10 10.8 de S1 y de 10 7.4 de S2, con un promedio de bloques de un solo proceso de datos. El rendimiento de la identificación con un solo volumen 2 s de datos fue menor que la de los bloques de datos-en promedio, pero estuvo por encima del nivel de oportunidad para un gran número de imágenes de candidatos (por encima del 10% de aciertos con los conjuntos de imágenes de 10 8.5 de S1 y de 10 5,8 para S2).
En las siguientes secciones, se analiza cómo los patrones multivoxel y representación multiescala de la imagen, los componentes críticos de nuestro modelo de reconstrucción, contribuyó a la reconstrucción de rendimiento alto.

Distribución del peso en la superficie cortical

Nuestro algoritmo para la formación decodificadores locales selecciona automáticamente voxels relevantes y los pesos asignados, con lo que el rendimiento de clasificación robusto rendimiento ( Yamashita et al, 2008. , ver la figura S1 para la comparación con los algoritmos convencionales sin escasa selección voxel). En primer lugar, examinar la distribución de pesos voxel de los decodificadores locales en comparación con el retinotopy convencionales. Mapas corticales superficie muestran las distribuciones de las magnitudes de peso por un foveal y un parche periférica ( Figura 4 A). Los valores de mayor peso se encuentran alrededor de los lugares cortical consistente con la representación retinotópica de los lugares de conexión. Las distribuciones de pesos voxel de 1 × 1 decodificadores se resumen en la Figura 4 B. Decodificadores fueron ordenados por la excentricidad y el ángulo polar de sus lugares de destino, y voxels fueron ordenados por su excentricidad correspondiente y el ángulo polar identificados por la cartografía convencional retinotopy de un experimento separado.Grandes valores de peso se distribuyeron alrededor de la línea diagonal, lo que indica que los descodificadores locales utilizados principalmente voxels correspondientes a los lugares de parches retinotópica su objetivo (ver Figura S2 de comparación entre los retinotopy convencionales y el mapa de los voxels relevantes para la decodificación). La distribución del peso tiende a ser borrosa durante parches periféricos, lo que indica que los descodificadores periféricos no seleccionó voxels retinotópica ( Figura 4 B, izquierda). A lo largo del ángulo polar, los parches alrededor de los meridianos vertical y horizontal (0 / 180 º y 90 º, respectivamente), mostraron una mayor correlación con la retinotopy que las de otros ángulos ( Figura 4 B, derecha). Esto es en parte debido a la ubicación de los parches dispuestos en la cuadrícula tienen anisotropía con respecto al ángulo polar: los parches alrededor de los meridianos se encuentran en menor excentricidad que los ángulos nonmeridian en promedio. Cuando la excentricidad fue igualado entre los meridianos y los parches no meridiano, la diferencia se hizo menos pronunciado.

Figura 4. 
Distribución del peso de la corteza visual
(A) La distribución de pesos voxel en la corteza aplastada por un foveal y un decodificador de periféricos. Pesos voxel se muestran en el derecho de superficie cortical visual de S1 tema. La ubicación de cada parcela (1 x 1) se indica en el recuadro de la esquina superior derecha. Las líneas blancas son las fronteras V1 y V2.
(B) Resumen de la distribución del peso voxel. Decodificadores locales (1 x 1) para el campo visual izquierdo fueron ordenados por la excentricidad y el ángulo polar de sus objetivos (eje horizontal, 0.5 ° de excentricidad contenedores y 10 papeleras ° para el ángulo polar) y voxels contralateral fueron ordenados por su correspondiente excentricidad y el ángulo polar identificados por la asignación de retinotopy convencionales (eje vertical, 0,5 º de excentricidad contenedores y 10 papeleras ° para el ángulo polar). Las magnitudes de los pesos voxel se promediaron en cada lugar de destino y localización cortical durante diez modelos generados por el análisis de validación cruzada (dos temas combinados). Se observaron resultados similares para los decodificadores de locales para el campo visual derecho.

Ventaja de los decodificadores Patrón Multivoxel

Nuestros decodificadores locales fueron capacitados para explotar los patrones multivoxel para la predicción del cambio de destino ("patrón de decodificadores multivoxel"). Sin embargo, como se señaló anteriormente, la ubicación de los voxels seleccionados fueron en gran medida con la retinotopy convencionales. Por lo tanto, una correlación simple entre una zona cortical [o grupo de voxel (s)] y una posición de estímulo podría ser suficiente para la decodificación.
Para examinar si los patrones de multivoxel se utilizaron efectivamente para la decodificación, hemos elaborado otros tipos de decodificadores local que sólo se utilizan voxels retinotópica ("decodificadores retinotópica"). Mediante la aplicación de la norma modelo lineal general a los datos de la sesión de la imagen al azar, se identificó un voxel único con el valor más alto de t, o un grupo de voxels significativamente respuesta (p <0,05, la tasa de falsos descubrimiento [FDR] corregido para comparaciones múltiples) para cada parche ( Figura S3 ). Esta técnica, conocida como la asignación retinotopy multifocal, da el equivalente de la hoja de retinotopy convencionales fase de codificación ( [Hansen et al., 2004] [Vanni et al., 2005] ). Hemos utilizado (1) el voxel más sensible, (2) el promedio de los voxels significativamente respuesta, o (3) el "valor de t ponderado" promedio de los voxels significativamente sensible como el de entrada. Los decodificadores consistió en el modelo estándar de regresión logística univariante. El rendimiento de estos decodificadores se comparó con la del decodificador patrón multivoxel.
La validación cruzada utilizando el análisis de las pruebas de imagen al azar reveló que el decodificador patrón multivoxel logrado un mayor porcentaje de correcta que cualquiera de los tres decodificadores retinotópica (ANOVA de dos vías, con corrección de Bonferroni p <0,05 para comparaciones múltiples), mientras que la diferencia fue disminuyendo a la periferia se acerca al nivel de probabilidad ( Figura 5 A). Aunque la figura ilustra el rendimiento sólo para la escala de 1 × 1, los decodificadores de otras escalas mostraron resultados similares. El número de los voxels significativamente respuesta fue mayor que el número de los voxels seleccionados por el decodificador patrón multivoxel para la fóvea a la excentricidad media. Ya que en este rango de la excentricidad del decodificador patrón multivoxel superado en gran medida los decodificadores retinotópica, el mayor rendimiento del decodificador patrón multivoxel no es sólo debido a la reducción de ruido por la agrupación de señales multivoxel. Estos resultados indican que los decodificadores locales no sólo dependerá de la correlación entre una zona cortical y una localización del estímulo, sino que efectivamente explotados patrones multivoxel.

Figura 5. 
Ventaja de decodificador Patrón Multivoxel
(A) el desempeño del decodificador patrón multivoxel y decodificadores retinotópica. El rendimiento de la clasificación binaria de 1 × 1 parches se trazan en función de la excentricidad. Clasificación se realizó con (1) un patrón multivoxel, (2) el voxel mayor capacidad de respuesta para cada parche (con el mayor valor de t), (3) la media de los voxels significativamente de respuesta para cada parche (p <0.05, FDR corregida por múltiples las comparaciones), o (4) la media de los voxels significativamente respuesta ponderada por sus valores t para cada parche. El desempeño fue evaluado por la validación cruzada con los datos de la sesión de la imagen al azar. El rendimiento promedio se calculó en cada bandeja de 0,5 º de excentricidad (dos temas agrupados, barras de error, sd, línea discontinua, el nivel de azar).
(B) Efecto de la correlación voxel en datos de entrenamiento. Desempeño se compara entre los decodificadores patrón multivoxel entrenado con los datos originales y los decodificadores mismo entrenó con "baraja" de datos, en el que las correlaciones voxel se han eliminado.Los resultados para el decodificador patrón multivoxel son los mismos que los que se muestran en (A).
Una de las características clave de los patrones de multivoxel es la correlación entre voxels. Nuestro modelo de decodificador multivoxel tiene en cuenta la correlación entre los voxels en el banco de datos para determinar los parámetros voxel de peso, como es el caso de otros métodos estadísticos multivariados (ver datos suplementarios ; . Yamashita et al, 2008 ). Para examinar cómo las correlaciones voxel contribuir a la precisión en la decodificación, se entrenó el decodificador con datos de la fMRI en el que las correlaciones voxel se retiraron y se compararon los resultados con los del decodificador original. Los datos fueron creados por alterar el orden de los ensayos con la etiqueta de un mismo estímulo en cada voxel ( Averbeck et al., 2006 ). Este procedimiento elimina las correlaciones barajar voxel que son independientes de la etiqueta de estímulo. Tenga en cuenta que, dado que los estímulos eran imágenes al azar, las correlaciones voxel observada en los datos de entrenamiento original no reflejan las correlaciones entre los parches de estímulo. El decodificador entrenado ha sido probado con datos independientes sobre nonshuffled.
El rendimiento con datos de la barajada fue significativamente menor que con los datos originales (de dos vías ANOVA, p <0,05), especialmente en la gama media de la excentricidad ( Figura 5 B). Los resultados sugieren que el decodificador patrón multivoxel hace uso efectivo de correlación voxel para alcanzar un alto rendimiento de decodificación.

Reconstrucción con áreas individuales de Visual

Hasta ahora hemos mostrado los resultados obtenidos con los voxels de V1 y V2 como la entrada a los decodificadores. A continuación comparó la reconstrucción entre las distintas áreas visuales mediante el uso de los voxels en cada uno de V1, V2, V3 y que la entrada. Como se ilustra en la Figura 6 A la calidad, la reconstrucción de un deterioro progresivo a lo largo de la jerarquía visual cortical. Comparación cuantitativa se realizó mediante el cálculo de los errores de reconstrucción de las imágenes de la sesión de la imagen al azar (cuadrado de la diferencia entre los presentados y el contraste reconstruida en cada parche de media sobre cada imagen completa). Mayores áreas visuales mostraron errores significativamente mayor que V1 ( Figura 6 B; ANOVA, Bonferroni corregido p <0,05 para comparaciones múltiples), lo que indica que V1 contiene la información más fiable para la reconstrucción de las imágenes visuales.

Figura 6. 
Reconstrucción con áreas individuales de Visual
(A) las imágenes reconstruidas. Ejemplos de la sesión figura la imagen (S1, "pequeño cuerpo") se muestran.
(B) Reconstrucción de rendimiento con imágenes de todo. El gráfico de barras muestra los errores de reconstrucción, en promedio en todas las imágenes de prueba en la sesión de la imagen al azar (dos temas agrupados, barras de error, sd). La línea punteada indica el nivel de azar (1.3), que se logra cuando un valor de contraste para cada parche es elegido al azar de la distribución uniforme de 0 a 1.
(C) La distribución de pesos voxel. Los resultados de los decodificadores locales (1 x 1) para el campo visual izquierdo se muestran como en la Figura 4 B (escala de colores normalizados para cada área visual). Se observaron resultados similares para los descodificadores local del campo visual derecho.
(D) Efecto de las correlaciones en el voxel decodificadores local. Desempeño se compara entre los descodificadores locales (1 x 1) formado con los datos originales y los formados con "baraja" de datos para cada área visual. Regiones coloreadas muestran las diferencias entre el original y datos de la barajada.
(E) Efectos de las correlaciones de las imágenes reconstruidas. La distribución de la diferencia en el error de reconstrucción (error> con la baraja> - original, por cada imagen) se ha trazado para cada área visual (dos temas combinados).
Inspección de los modelos de estas tres áreas visuales reveló las siguientes diferencias. En primer lugar, en las zonas altas, los voxels seleccionados fueron menos localizado a los lugares retinotópica que en V1 ( Figura 6 C). En segundo lugar, el análisis de revolver en los decodificadores locales mostraron que el rendimiento disminuyó significativamente en todas las áreas cuando las correlaciones voxel se eliminaron ( Figura 6 D, 1 × 1 decodificadores, ANOVA, p <0,05; otras escalas mostraron resultados similares). La diferencia de rendimiento entre el original y datos de la barajada fue prominente en V1 pero disminuyó en las zonas altas, lo que indica la contribución decisiva de las correlaciones voxel en V1. Por último, la diferencia en el error de reconstrucción fue también el más grande en V1 ( Figura 6 E; ANOVA, Bonferroni corregido p <0,05 para comparaciones múltiples), de conformidad con el rendimiento de los decodificadores local. Estos hallazgos sugieren que la información fidedigna que esté en V1 está representada no sólo en la organización ordenó retinotópica, sino también en los patrones de correlación voxel.
Cuando usamos todos los voxels de V1 a V4 juntos como la entrada al decodificador, la mayoría de los pesos no nulos se encuentran alrededor de los voxels retinotópica en V1, pero no en las zonas más altas ( Figura S4 ). La calidad de la reconstrucción de la imagen se mantuvo similar a la obtenida por voxels V1 y V2. Esta preferencia de los voxels V1 también puede ser explicada por la excelente organización retinotópica y las correlaciones voxel informativo disponible en V1, de la que nuestro decodificador efectivamente puede extraer información.

Ventaja de un modelo de reconstrucción multiescala

A continuación, prueba la importancia de la representación multiescala comparando el modelo de escala múltiple con una sola escala de los modelos, que consistía en combinar de manera óptima, las bases de una sola imagen a escala (1 x 1, 1 x 2, 2 × 1, o 2 × 2, V1 y voxels V2 utiliza como la entrada). Ejemplos representativos de las imágenes reconstruidas obtenidos a partir de la sesión figura la imagen se presentan en la Figura 7 A. La imagen reconstruida a partir del modelo de escala 1 × 1 mostró los bordes finos pero exhibió el ruido irregular. Por el contrario, los 2 x 2 modelo a escala produjo una imagen borrosa espacialmente. Las imágenes de la 1 × 2 y 2 modelos a escala 1 × contenido horizontal y verticalmente alargada componentes. La imagen reconstruida a partir del modelo multi-escala parece tener características de equilibrio de estas escalas individuales. El error de la reconstrucción del modelo de escala múltiple, calculado con las imágenes de la sesión de la imagen al azar, fue significativamente menor que las de los modelos de una escala ( Figura 7 B; ANOVA, Bonferroni corregido p <0,05 para comparaciones múltiples).

Figura 7. 
Ventaja de multiescala modelo de reconstrucción
(A) las imágenes reconstruidas. Ejemplos de la sesión figura la imagen (S1, "pequeño cuerpo") se muestran para los modelos de reconstrucción multi-y única escala.
(B) Reconstrucción de rendimiento con imágenes todo para los modelos multi-y única escala. Los errores de la reconstrucción se muestra como en la Figura 6 B. Los resultados de la 1 × 2 × 1 y 2 escalas se combinan.
(C) Reconstrucción de rendimiento en función de la excentricidad. Patch-sabio errores fueron en promedio en todas las imágenes de prueba en cada una excentricidad (dos temas agrupados, barras de error, sd, línea discontinua, el nivel de azar).
(D) Los coeficientes de la combinación en el modelo de reconstrucción de múltiples escalas. En cada revisión, los coeficientes de la combinación de los decodificadores se superponen locales se agruparon por la escala y se normalizaron por su suma. Los coeficientes de combinación normalizada fueron en promedio en cada una excentricidad por diez modelos generados por el análisis de validación cruzada (dos temas agrupados, barras de error, sd).
También se calcularon los errores de reconstrucción en cada uno de excentricidad ( Figura 7 C). Para todas las escalas, el error aumenta con la excentricidad de la reconstrucción, pero los perfiles son diferentes. El error de un fuerte aumento con la excentricidad para el modelo de 1 × 1, mientras que el perfil era más bien plana para el modelo de 2 × 2. Como resultado, los errores de estos modelos se invirtieron en la fóvea y la periferia. El 1 × 2 × 1 y 2 modelos mostraron perfiles intermedios. El análisis estadístico reveló una interacción significativa entre la escala y la excentricidad (p <0,05 para la interacción entre la excentricidad y la escala, de dos vías ANOVA). El modelo multi-escala mostró un perfil de error de coincidencia sobre el mínimo de las de los modelos de una sola escala. Así, el modelo multiescala parece encontrar óptima escalas confiables en cada uno de excentricidad.
Los coeficientes de la combinación del modelo multi-escala se resumen en la figura 7 D. De acuerdo con la observación anterior, el modelo se basó en los decodificadores fina y gruesa escala para la reconstrucción de las regiones foveal y periférica, respectivamente. Estos resultados indican que la optimización de los coeficientes de la combinación de hecho encontrado fiable decodificadores locales en cada lugar del campo visual para lograr un rendimiento alto de reconstrucción.

La superposición de las ventajas de Bases multiescala

Las bases de la imagen de las diferentes escalas son útiles ya que la escala de los decodificadores fiable a través de variadas excentricidades. Sin embargo, no está claro si la superposición de múltiples escalas contribuido a la reconstrucción. Para solucionar este problema, se comparó el modelo multi-escala con una "excentricidad-dependiente de la escala del modelo", en el que se baldosas de la región de la misma excentricidad con las bases de la imagen de una escala confiable sola ( Figura 8 A).

Figura 8. 
La superposición de las ventajas de Bases multiescala
(A) Comparación del desempeño de la reconstrucción entre el modelo multi-escala y la "excentricidad-dependiente de la escala" del modelo. Los errores de la reconstrucción se muestran como en las figuras 6 B y 7 B. Las configuraciones de bases de imagen que se utiliza para este análisis se muestran en la parte inferior. Bases para el modelo de la imagen de múltiples escalas superpuestas dentro de cada escala (con excepción de 1 x 1), aunque la figura muestra las únicas bases que no se superponen.
(B) patch sabio rendimiento de reconstrucción en función de la excentricidad. Los resultados se muestran como en la figura 7 C.
Se encontró que el error de reconstrucción fue significativamente menor con el modelo multi-escala que con el modelo de excentricidad-dependiente de la escala (ANOVA, p <0,05; Figura 8 A). El rendimiento del modelo multi-escala fue especialmente mejor en el centro a la gama de periféricos de la excentricidad ( Figura 8 B). Este resultado está de acuerdo con los coeficientes de combinación se muestra en la Figura 7 D, en el que todas las escalas tuvieron valores similares en el centro a la excentricidad periféricos.
Los resultados mostrados en la Figura 8 se obtuvieron con una particular disposición espacial de las imágenes no se superponen las bases, que predijo contrastes se combinan simplemente sin coeficientes de combinación optimizada. También hemos probado los modelos modificados con una organización del espacio ligeramente diferente, y confirmó que el modelo de múltiples escalas superaron estos modelos modificados, también ( figura S5 ). Nuestros hallazgos indican que la representación de múltiples escalas en lugares solo hecho contribuyó a la reconstrucción.

Discusión

Hemos demostrado que la diferencia de las imágenes visuales definidas arbitrarias pueden ser reconstruidos a partir de las señales de resonancia magnética funcional de la corteza visual humano a modo de prueba única. Mediante la combinación de las salidas de los decodificadores locales que predijo contrastes locales de múltiples escalas, hemos sido capaces de reconstruir una gran variedad de imágenes (2 100 imágenes posibles) utilizando sólo varios cientos de imágenes al azar para entrenar el modelo de reconstrucción. Los análisis revelaron que tanto el multivoxel y los aspectos multi-escala de nuestro método son esenciales para lograr la alta precisión. Nuestro método automático para la identificación de las señales neurales relevantes descubierto información representada en los patrones de la actividad relacionada, más allá de mera explotación de la anatomía funcional conocida.
Aunque nuestro principal objetivo era reconstruir las imágenes visuales de la actividad cerebral, también se realizaron análisis de imágenes de identificación para cuantificar la exactitud ( Figura 3 ). El análisis mostró que casi el 100% correcta identificación fue posible con un centenar de candidatos de la imagen y que el rendimiento> 10% se puede lograr incluso con conjuntos de imágenes de 10 7.4 -10 10,8 s con 6 bloques promedio de los datos, y con conjuntos de imágenes de 10 5,8 - 10 8.5 con 2 s en un solo volumen de datos.
Estudios anteriores han llevado a cabo análisis similares de identificación de la imagen. Thirion et al. (2006) reconstruye una imagen para un 3 × 3 Gabor-patch matriz basada en el mapa retinotopy y obtuvo el 41% -71% de precisión de la identificación de la imagen con un conjunto de seis candidatos (se obtuvo una precisión de> 95% con un parche de 3 × 3 área en la región foveal). Kay et al. (2008) tomó un enfoque diferente a la identificación de la imagen. En lugar de realizar la reconstrucción explícita, que construyó un modelo de campo receptivo que predice los patrones de actividad cerebral para todas las imágenes candidato. Luego, identificaron un patrón de imagen que predijo la actividad cerebral era el más cercano a los patrones de actividad medido. Se estima que su modelo podría alcanzar> 10% de la correcta identificación de conjuntos de imágenes de 10 7.3 -10 11.3 y 10 3.5 -10 10.8 , con las respuestas de la fMRI para 13 presentaciones repetidas (= 52 s) y para una sola presentación (= 4 s) , respectivamente. Aunque una comparación directa con estos estudios previos es difícil, debido a las diferencias en los estímulos, el número de ensayos, los parámetros de digitalización, etc, el desempeño de identificación muy alto obtenido con nuestro modelo representa la calidad de la reconstrucción.

Decodificación de los patrones Multivoxel

Una diferencia importante de nuestro enfoque de las anteriores es que se calcula directamente el modelo de decodificación, en lugar de elaborar o invertir el modelo de codificación. En nuestro enfoque de la decodificación, el modelo se ha optimizado con el fin de predecir mejor los parámetros individuales de estímulo dado un modelo multivoxel teniendo en cuenta las correlaciones voxel. En contraste, el modelo de codificación se ha optimizado con el fin de predecir las respuestas individuales voxel dado un estímulo sin tener en cuenta las correlaciones voxel la hora de estimar los parámetros del modelo ( [Kay et al., 2008] [Thirion et al., 2006] ).
Estudios recientes sugieren que la imagen no hay una mejor combinación de respuestas de la población para decodificar un determinado estímulo visual que utiliza una señal de la localización cortical más sensibles o una señal de media sobre los lugares de respuesta cortical ( [Chen et al., 2006] [Kamitani y Tong, 2005] ). En particular, si las señales de múltiples ubicaciones están correlacionados, un decodificador con éxito de manera óptima deben asignar ponderaciones diferentes, incluyendo los negativos, a cada lugar en función de la estructura de correlación ( [Averbeck et al., 2006] [Chen et al., 2006] ).
De acuerdo con esta observación, nuestro decodificador con un patrón multivoxel superado que el uso de un voxel único de respuesta o un promedio de voxels de respuesta ( Figura 5 A). El rumor de los datos de entrenamiento, que eliminó las correlaciones voxel, el deterioro de los resultados de decodificación, lo que indica el papel crítico de la correlación voxel para la construcción de un decodificador óptimo ( Figura 5 B). La inspección cuidadosa de las distribuciones de peso en las Figuras 4 A y S4 A indica que un decodificador entrenado con los datos originales utiliza ponderaciones positivas y negativas, que se encuentran en lugares cercanos, especialmente en el centro a la gama de periféricos de la excentricidad. Análisis adicionales revelaron que los pesos negativos, así como los pesos positivos se distribuyen a lo largo de los voxels retinotópica ( Figura S6 A). Además, las magnitudes de los pesos negativos disminuyeron después de barajar los datos de entrenamiento ( Figura S6 B), lo que sugiere que el peso negativo servido para explotar la correlación voxel.
Aunque el estudio de Chen et al. (2006) sugiere que la actividad neuronal en V1 contiene importantes correlaciones espaciales que pueden ser útiles para la decodificación de un estímulo visual, ha sido claro si tales correlaciones informativas están presentes en otras áreas de la corteza visual temprana. Nuestro análisis de las distintas áreas ( Figura 6 ) mostró que gran parte de la información disponible en V1 estuvo representada en las correlaciones voxel, mientras que otras eran menos dependientes de ellos. Por lo tanto, nuestros resultados sugieren que la corteza visual temprana, en especial V1, representa el campo visual, no sólo por su asignación ordenada retinotópica, sino también por los patrones de actividad relacionada.
Hay muchas fuentes posibles de correlación voxel, además de los estímulos inducidos por la actividad correlacionada neural. Como las poblaciones neuronales en voxels cercano es probable que se sinápticamente unido, en correlación señales de resonancia magnética funcional podría ser inducida de forma espontánea. Voxels quizás también muestran correlaciones a través del acoplamiento vascular. Un estado fisiológico (por ejemplo, ruido cardíaco y respiratorio) y una condición de escáner de fMRI (por ejemplo, Gradiente de calentamiento de la bobina) también pueden causar fluctuaciones lenta correlación entre los voxels. Sin embargo, es poco probable que las principales fuentes de las correlaciones voxel contribuir a la reconstrucción ya que el rendimiento del decodificador no se vio afectada por la filtración de componentes lentos de los datos ( cifras S7 y S8 ). Además, los movimientos de la cabeza de un sujeto reinterpolation y espacial durante el preprocesamiento son también poco probable que sea la fuente, ya que no puede dar cuenta de los efectos específicos de área de las correlaciones voxel ( Figuras 6 y D 6E). Un análisis más detallado, será necesario conocer las fuentes de las correlaciones voxel y su contribución a la reconstrucción.

Múltiples escalas de la representación visual

Nuestro modelo de reconstrucción multiescala lograr una mayor precisión de la reconstrucción de una sola escala de los modelos mediante la combinación de escalas confiables en cada lugar. Las escalas fiable en gran medida dependía de la excentricidad, la cual puede estar relacionado con el tamaño del campo receptivo y el factor de magnificación cortical. El tamaño del campo receptivo de las neuronas corticales visuales se sabe que aumenta con la excentricidad ( [Dumoulin y Wandell, 2008] [Kay et al., 2008] [Kraft et al., 2005] [Smith et al., 2001] ) , y en paralelo, el factor de magnificación cortical disminuye con la excentricidad ( [Dougherty et al., 2003] [Duncan y Boynton, 2003] [Engel et al., 1997] ). El tamaño del campo receptivo de la corteza visual humana se estimó en alrededor de 1 º -2 º en la excentricidad ° 7, que está cerca el parche más periféricas de nuestra imagen de estímulo, mientras que el factor de magnificación cortical en el 7 ° es de unos 2-3 mm / °. Estas estimaciones indican que solo voxels (3 x 3 x 3 mm) para la representación periférica llevar información retinotópica algo más que un parche periféricos individuales, y por lo tanto no son adecuados para la decodificación de escala fina (1 x 1) parches, de acuerdo con los resultados de reconstrucción ( Figura 7 C). Como dependiente de la excentricidad, cambios en la escala de la representación visual pueden explicar en parte superior de la reconstrucción por el modelo de múltiples escalas.
Sin embargo, también hay que señalar que el modelo de la reconstrucción no exclusivamente seleccionar una sola escala en cada una excentricidad. En cualquier lugar, excepto la región más foveal, todas las escalas se combinaron eficazmente para mejorar la precisión de la reconstrucción ( Figura 7 D).Estudios anteriores han demostrado la variabilidad en el tamaño del campo receptivo entre las neuronas cuyos campos receptivos se superponen ( [De Valois et al., 1982] [Hubel y Wiesel, 1968] ). A pesar de que cada voxel fMRI debe contener las neuronas con numerosos campos receptivos de diferentes tamaños, puede ser posible extraer información específica de escala mediante la combinación de muchos voxels con una tendencia débil en la escala de cada uno, de forma análoga a la extracción de información de orientación de la toma de muestras gruesas de voxel columnas corticales ( Kamitani y Tong, 2005 ).
La reconstrucción de múltiples escalas también pueden estar relacionados con los modelos de múltiples canales de frecuencia espacial. Pruebas psicofísicas ha sugerido que el sistema visual humano múltiples usos estrechamente sintonizado canales de frecuencia espacial para lograr una amplia banda de sensibilidad ( Campbell y Robson, 1968 ). Canales sintonizados a una menor (mayor) la frecuencia espacial se supone que tienen un mayor (menor) del campo receptivo ( De Valois et al., 1982 ), y los últimos estudios de fMRI humanos han informado de los resultados de apoyo ( [Dumoulin y Wandell, 2008] [ Kay et al., 2008] [Singh et al., 2000] [Smith et al., 2001] ). A pesar de nuestras imágenes de estímulo tenía una frecuencia espacial fija en el dominio de luminancia (tablero de ajedrez), el tamaño del campo receptor asociado con la frecuencia espacial ajustado puede ser la base de la representación de múltiples escalas. Otras líneas de investigación han sugerido que los mecanismos de multifrecuencia canal para contraste de patrones definidos ( [Arsenault et al., 1999] [Landy y Oruc, 2002] ), que también podría estar relacionado con las múltiples escalas en nuestro modelo de reconstrucción.

Linealidad de la representación visual

Hemos utilizado las secuencias de imágenes aleatorias para presentar al mismo tiempo el contraste binario en varios lugares del campo visual ( Figura 1 B).Este procedimiento es eficaz en la medición de las respuestas a los estímulos neuronales localizados si linealidad espacial se mantiene entre presentan estímulos visuales y las respuestas neuronales. El principio es similar a la de la asignación de campos receptivos con los estímulos de ruido blanco en los animales de electrofisiología. Anteriores estudios de fMRI han utilizado los patrones al azar que consiste en parches parpadeantes y demostró que la amplitud de la señal de resonancia magnética funcional provocado por una combinación de los parches es igual a la suma de las evocadas por cada paquete individual ( Hansen et al., 2004 ). Un modelo lineal general se puede aplicar para identificar voxels que muestra una actividad significativa en la respuesta a cada parche, que proporciona un mapa de activación cortical equivalente a la obtenida por la asignación de retinotopy convencionales ( Vanni et al., 2005 ). La linealidad demostrada por estos estudios pueden ser la base de la correcta decodificación en nuestro estudio.
Sin embargo, los experimentos han demostrado que las respuestas neuronales y de conducta a un estímulo visual localizada se ven afectados por los estímulos circundantes. Estos fenómenos se conoce como efectos contextuales ( [Kapadia et al., 1995] [Meng et al., 2005] [Sasaki y Watanabe, 2004] y[Zipser et al., 1996] ) podría poner en peligro la suposición de linealidad. Sin embargo, los patrones al azar rara vez contienen configuraciones específicas de la inducción de efectos contextuales suficiente para sesgar la formación de los decodificadores local. Por lo tanto, la influencia de los efectos contextuales pueden ser insignificantes, y las predicciones de los descodificadores locales se basan principalmente en las señales de resonancia magnética funcional que corresponde al estado local de los estímulos visuales.
También asumimos la linealidad en el modelo de reconstrucción de la imagen. Una imagen visual de todo estuvo representada por una superposición lineal de las bases de la imagen local de múltiples escalas. Nuestro enfoque se basa una idea de los estudios anteriores modelos teóricos imágenes visuales por una suma lineal de funciones de base overcomplete que son espacialmente localizada con diversas escalas ( Olshausen y Field, 1996 ). Nuestro éxito de la reconstrucción apoya el modelo de representación lineal de las imágenes visuales, aunque los modelos elaborados con la no linealidad más podría mejorar el rendimiento de la reconstrucción.

Modular decodificación y sus aplicaciones

Nuestro enfoque proporciona un procedimiento general para hacer frente a la experiencia perceptiva compleja que consiste en numerosos estados posibles mediante el uso de decodificadores de múltiples módulos. Si un estado de percepción puede ser expresada por una combinación de funciones elementales, un decodificador modular pueden ser entrenados para cada función con un número reducido de datos, pero su combinación puede predecir varios estados incluyendo aquellos que nunca han experimentado. Métodos similares modular se han propuesto para la construcción de "codificación" los modelos que predicen la actividad cerebral inducidos por estímulos complejos o estados mentales, también ( [Kay et al., 2008] [Mitchell et al., 2008] ).
Aunque nos hemos centrado aquí en la reconstrucción de los patrones de cambio, nuestro enfoque podría extenderse a reconstruir imágenes visuales definidas por otras características, como color, movimiento, textura, y la disparidad binocular. Del mismo modo, las funciones motoras también pueden ser tratadas con el uso de nuestro enfoque. Una gran variedad de acciones motoras puede ser descrito por una combinación de módulos putativo ( Poggio y Bizzi, 2004 ). Por lo tanto, el enfoque modular de decodificación puede mejorar enormemente la flexibilidad de la predicción, que también podría ampliar la capacidad de prótesis neuronales o interfaces cerebro-máquina ( [Donoghue, 2002] [Wolpaw y McFarland, 2004] ).
Más interesantes son los intentos de reconstruir los estados subjetivos que se obtuvo sin estimulación sensorial, tales como las imágenes visuales, ilusiones y sueños. Varios estudios han sugerido que estas percepciones subjetivas se producen en los principios de la corteza visual ( Kosslyn et al., 1995 ), de acuerdo con el mapa retinotopy ( [Meng et al., 2005] [Sasaki y Watanabe, 2004] [Thirion et al ., 2006] ). De particular interés es el de examinar si tales percepciones subjetivas comparten la misma representación que el estímulo evocado por las percepciones ( [Kamitani y Tong, 2005] [Kamitani y Tong, 2006][Haynes y Rees, 2005] ). Se podría abordar esta cuestión, tratando de reconstruir un estado subjetivo, utilizando un modelo de reconstrucción entrenado con estímulos físicos. La combinación de los decodificadores elemental incluso podría revelar los estados subjetivos que nunca se han experimentado con la estimulación sensorial. Rendimiento de la reconstrucción también se pueden comparar entre las áreas corticales y los modelos de reconstrucción. Por lo tanto, nuestro enfoque podría proporcionar información valiosa sobre la complejidad de la experiencia perceptiva y sus sustratos neurales.

Los procedimientos experimentales

Los sujetos

En primer lugar, cuatro temas seleccionados para el movimiento de la cabeza en los análisis preliminares, y dos de ellos (los hombres adultos con una agudeza visual normal o corregida a la normal), quienes mostraron el movimiento por lo menos la cabeza se sometieron al procedimiento experimental completo. Los sujetos dieron su consentimiento informado por escrito. El estudio fue aprobado por el Comité de Ética de la ATR y el Instituto Nacional de Ciencias Fisiológicas.

Estímulos visuales y diseño experimental

Los estímulos visuales eran la parte trasera proyecta en una pantalla colocada en el escáner dio con un gamma corregida proyector LCD.
Tuvimos tres tipos de sesiones experimentales para medir las respuestas de fMRI de la corteza visual: (1) la sesión de imágenes al azar, (2) de la sesión figura la imagen, y (3) el período de sesiones convencionales de mapeo retinotopy.
En la sesión de la imagen al azar, cada serie contiene 22 bloques de estímulo. Cada bloque de estímulo fue de 6 s largo seguido de un período de descanso 6 s. Períodos adicionales resto se añade al principio (28 s) y al final (12 s) de cada carrera. En cada bloque de estímulo, una imagen que consta de 12 × 12 parches pequeños cuadrados (1,15 ° x 1,15 ° cada uno) se presentó en un fondo gris con un punto de fijación. Cada parche o era un tablero de ajedrez parpadeo (frecuencia espacial, 1,74 ciclos / °, la frecuencia temporal, 6 Hz) o en una zona gris homogéneo, con igual probabilidad. Cada bloque tenía un estímulo diferente disposición espacial de parches de azar. Para evitar los efectos del marco de estímulo, el central de 10 x 10 área fue utilizada para el análisis. Veinte carreras se repiten, y un total de 440 patrones al azar diferentes fueron presentados a cada tema.
En la sesión de la imagen la figura, cada carrera tenía diez cuadras de estímulo. Cada bloque de estímulo fue de 12 s seguido por un largo período de descanso 12 s. Períodos adicionales resto se incluyeron, como en la sesión de la imagen al azar. Imágenes de estímulo consistía en el parpadeo parches de tablero de ajedrez como en la sesión de imágenes al azar, sino que formaban figuras geométricas ("cuadrado", "pequeño cuerpo", "marco general", "plus" y "X") o las letras del alfabeto ("n" "e", "u", "r" y "o"). En cada ejecución, cinco formas geométricas o alfabetos cinco se presentaron, y cada imagen se repitió dos veces. S1 sujeto realizó cuatro geométricas en forma de carreras y cuatro carreras alfabeto, mientras que S2 realizaron cuatro geométricas en forma de carreras y tres carreras alfabeto.
En estas sesiones, los sujetos vieron la secuencia de estímulos, mientras que el mantenimiento de la fijación. Para ayudar a suprimir el parpadeo temas y fijar firmemente los ojos, el color del punto de fijación cambia de blanco a rojo 2 s antes de cada bloque de estímulo comenzó. A fin de garantizar el estado de alerta, los sujetos fueron instruidos para detectar el cambio de color de la fijación (de rojo a verde, a 100 ms) que se produjo después de un intervalo aleatorio de 5.3 s desde el inicio de cada bloque de estímulo.
La sesión de la cartografía retinotopy seguido el procedimiento convencional ( [Engel et al., 1994] [Sereno et al., 1995] ) utilizando una cuña de rotación y un anillo de expansión de parpadeo de tablero de ajedrez. Los datos se utilizan para delimitar las fronteras entre las áreas corticales visuales, y para identificar el mapa retinotopy en las superficies aplanadas cortical. Tenga en cuenta que la asignación de retinotópica sólo se utilizó para relacionar la retinotopy convencional y la ubicación de los voxels seleccionados por nuestro método.

RM Adquisición

Los experimentos preliminares se realizaron con 3.0 Tesla Siemens MAGNETOM Allegra ubicado en el Instituto Nacional de Ciencias Fisiológicas. Datos de la RM para los resultados presentados se obtuvieron todas con un 3,0 Tesla Siemens MAGNETOM Trio Un escáner Tim situado en el centro del cerebro ATR imágenes de actividad. Un entrelazado T2 -ponderada de eco de gradiente eco-planar de imágenes (PAI) de exploración se llevó a cabo la adquisición de imágenes funcionales para cubrir el lóbulo occipital entero (TR, 2000 ms, TE, 30 ms, ángulo de inclinación, 80 °, FOV, 192 × 192 mm, el tamaño de voxel, 3 x 3 x 3 mm, distancia rebanada, 0 mm, el número de cortes, 30). T2 turbo eco de espín fueron escaneados para adquirir imágenes de alta resolución anatómica de las rebanadas mismo que se utiliza para el programa ampliado de inmunización (TR, 6000 ms, TE, de 57 ms, ángulo de inclinación, 90 °, FOV, 192 × 192 mm, tamaño de voxel , 0,75 × 0,75 × 3,0 mm). T1 magnetización preparado rápida adquisición de eco de gradiente (MP-RAGE) bien estructurales imágenes de toda la cabeza-también fueron adquiridas (TR, 2250 ms, TE, 2.98 o 3.06 ms, TI, 900 ms, ángulo de inclinación, 9 °; campo de visión, 256 × 256 mm, el tamaño de voxel, 1,0 × 1,0 × 1,0 mm).

Preprocesamiento de datos MRI

Los primeros 8 s exploraciones de cada ejecución se descartaron para evitar la inestabilidad del equipo de resonancia magnética. Los datos de la fMRI adquiridos se sometieron a corte-el tiempo de corrección y tres dimensiones de corrección de movimiento por SPM2 ( http://www.fil.ion.ucl.ac.uk/spm ). Los datos fueron entonces corregistradas a la sesión dentro de la imagen de alta resolución anatómica de las rebanadas mismo que se utiliza para el PAI y posteriormente a la imagen anatómica de todo el cabezal de alta resolución. Los datos fueron entonces corregistradas reinterpolated de 3 x 3 x 3 mm voxels.Los datos de la sesión retinotopy se transformaron en las coordenadas Talairach y las fronteras visual cortical se delinearon en las superficies aplanadas cortical del cerebro utilizando Voyager 2000 ( http://www.brainvoyager.com ). El voxel coordenadas en torno al límite la materia gris y blanca en V1-V4 se identificaron y se transforma de nuevo en las coordenadas originales de las imágenes del PAI. Después de voxels de amplitudes de señal extremadamente baja fueron retirados, ~ 3.000 voxels fueron seleccionados en V1-V4 (S1 sujeto, 3003 voxels, S2, 3258 voxels). La mayoría de los análisis de la reconstrucción se realiza utilizando voxels V1 y V2 (S1, 1396 voxels, S2, 1550 voxels). Para el análisis de las distintas áreas, el siguiente número de voxels fueron identificados: V1, 797, V2, 820, V3, 779 voxels de S1 y V1, 903, V2, 902, V3, 913 voxel para S2. Voxels, cerca de la zona fronteriza fueron incluidos en ambas áreas.
Los datos de la fMRI se sometieron a extracción de tendencia lineal en cada carrera. Normalización de amplitud en relación con la amplitud media del primer período de 20 s de descanso en cada ejecución se llevó a cabo para minimizar la diferencia de base durante las ejecuciones. Las señales de resonancia magnética funcional de cada voxel se promediaron en cada bloque de estímulo después de cambiar los datos de 4 s para compensar los retrasos hemodinámica.

Etiquetado de los datos de la fMRI

Cada muestra de datos de la fMRI fue marcado por los valores de contraste medio de elementos de la imagen local en la imagen de estímulo correspondiente. Los elementos locales de imagen fueron de 1 × 1, 1 x 2, 2 × 1, y 2 x 2 áreas de parches que cubren todo el área de 10 × 10 parche con solapa (un total de 361 elementos, de 1 x 1, 100, 1 x 2, 90 , 2 x 1, 90, 2 × 2, 81). El valor de cambio promedio de cada elemento de imagen local se define como el número de parches de parpadeo, dividido por el número total de parches (1 x 1, [0 o 1], 1 x 2 y 2 x 1, [0, 0.5, o un ], 2 × 2, [0, 0,25, 0,5, 0,75 o 1]).

Capacitación de los decodificadores Local

Decodificadores locales se definieron para predecir el cambio medio de cada elemento de la imagen local. Ellos fueron entrenados individualmente con los datos de la fMRI y las etiquetas de clase correspondiente que representa los valores de contraste medio. Cada decodificador locales consistió en un clasificador multiclase, que clasificó las muestras de datos de la fMRI en las clases definidas por los valores de contraste medio. Podríamos utilizar un modelo de regresión que le da una salida continua, pero se optó por utilizar el modelo de clasificación, simplemente porque nuestro estudio preliminar mostró un mejor rendimiento con la clasificación de la regresión.
Nuestro modelo de clasificación se basa en la regresión logística multinomial ( Bishop, 2006 ), en el que cada clase de contraste tiene una función discriminante que calcula la suma ponderada de las entradas (valores de voxel). Su producción se transforma en la probabilidad de que la clase de contraste administrado a las entradas. La función discriminante para el cambio de clase k en un decodificador local se expresa como, donde es un parámetro de peso para voxel d y el contraste de la clase k , d es la señal de resonancia magnética funcional de voxel d , es el sesgo, y D es el número de voxels. La probabilidad de que un patrón de señal fMRI r = [ 1 , 2 , D ] T ( T , transponer) pertenece a la clase de contraste k se define mediante la función de softmax,donde K es el número de las clases de contraste. La clase de cambio previsto para m -ésimo elemento de la imagen local, m ( r ) es elegida como la clase de contraste con la mayor probabilidad. Tenga en cuenta que aunque la terminología estadística llama a este tipo de modelo logístico multinomial "regresión", que realiza la clasificación en vez de la regresión en el sentido de que la salida es una variable categórica.Ver la fuente MathMLVer la fuente MathMLVer la fuente MathMLVer la fuente MathML
En la regresión logística multinomial convencional, los parámetros de peso se determina mediante la búsqueda de los valores que maximizan la función de verosimilitud de los parámetros de peso que se da un conjunto de datos de entrenamiento,Ver la fuente MathMLdonde S representa una matriz de etiqueta de la clase cuyo elemento nk es 1 si el ensayo n corresponde a la clase de contraste k lo contrario, 0, k es el vector de pesos para la clase de cambio k incluyendo el término de sesgo (( D + 1) × vector), y N es el número de ensayos.
En este estudio, hemos adoptado un enfoque completo bayesiana para la estimación de los parámetros de peso ("regresión logística escasa", Yamashita et al., 2008 ). La función de verosimilitud anterior fue combinado con una distribución previa de cada peso para obtener la distribución posterior. Parámetros de peso se calcula tomando la expectativa de la distribución posterior de cada peso.
La distribución previa de un parámetro de peso es descrita por una distribución normal de media cero, con una variación, cuya inversa es tratado como un hiperparámetro,Ver la fuente MathMLdonde N representa una distribución normal, y Ver la fuente MathMLes el hiperparámetro que denota la inversa de la varianza, o la precisión, de el valor del peso para voxel d y clase de contraste k . El hiperparámetro Ver la fuente MathMLtambién se trata como una variable aleatoria, cuya distribución es definida por,Ver la fuente MathML
Estas distribuciones a priori se sabe que conducir a una "estimación escasa" en el que sólo un pequeño número de parámetros tienen valores distintos de cero y el resto de parámetros se estiman en cero ( vuelco, 2001 ). Por lo tanto, las distribuciones antes de aplicar la presunción de que sólo un pequeño número de voxels relevantes para la decodificación de cada elemento de la imagen local. Este supuesto escasez puede ser validada por el hecho de que un estímulo visual espacialmente localizada da lugar a la actividad neuronal sólo en pequeñas regiones de la corteza visual temprana. La estimación de parámetros escasa podría evitar sobreajuste a los datos de entrenamiento ruidosos por voxels poda irrelevante ( Bishop, 2006 ), y contribuir así a lograr la generalización de alta (de prueba) de rendimiento ( Yamashita et al., 2008 ). El número de voxels resto distinto de cero se muestra en la Figura S9 .
Dado que la evaluación directa de la distribución posterior es analíticamente intratables, se utilizó un método Bayesiano variacional para aproximar la distribución. El algoritmo para la estimación de parámetros se describe en datos suplementarios .

La combinación de descodificadores Local

Las salidas de los decodificadores locales se combinaron mediante un modelo lineal de los elementos de la imagen local de éste,Ver la fuente MathMLdonde φ m ( x ) representa un elemento de la imagen local, o una base, ( φ m ( x ) = 1 si la ubicación x está contenido en el área del elemento de la imagen local, de lo contrario φ m ( x ) = 0), m ( r ) es el contraste de lo predicho, y λ m es el coeficiente de combinación.
Coeficientes de combinación, λ m , se determinó por el método de mínimos cuadrados utilizando un conjunto de datos de entrenamiento. Hemos dividido los datos de entrenamiento en grupos, y los contrastes locales para cada subgrupo se predijo por los decodificadores entrenó con los otros subgrupos. Después de calcular los contrastes locales, m ( r ), para todas las muestras de entrenamiento, los coeficientes de la combinación óptima se obtuvieron mediante la búsqueda de los valores no negativos que minimizan la suma de los errores cuadrados entre las presentadas y las imágenes reconstruidas. El modelo de la reconstrucción final se obtuvo mediante la integración de los coeficientes de combinación y los decodificadores locales que fueron reentrenados con todas las muestras de entrenamiento.

Evaluación del Desempeño

El modelo de reconstrucción entrenados fue probado con muestras independientes. Se realizaron dos tipos de pruebas de la reconstrucción. En primer lugar, para obtener una evaluación cuantitativa y objetiva, se realizó la validación cruzada de análisis con las muestras en la sesión de la imagen al azar. En segundo lugar, para ilustrar la calidad de las imágenes reconstruidas, el modelo obtenido a partir de la sesión de la imagen al azar se utilizó para reconstruir las imágenes presentadas en la sesión de la imagen figura.
En el análisis de validación cruzada, el 20 se ejecuta en la sesión de imagen aleatoria fueron divididos en diez grupos (dos veces por grupo), y el modelo de la reconstrucción fue entrenado con nueve grupos y probado con el resto del grupo. Este procedimiento se repitió hasta que todos los grupos se pusieron a prueba (10 veces la validación cruzada). En cada etapa de la validación cruzada, el conjunto de datos de formación (nueve grupos, o corre 18) se dividió en una comparación con ocho subgrupos para obtener coeficientes de combinación como se describió anteriormente. Los coeficientes de la combinación y los decodificadores locales que fueron reentrenados con los nueve grupos se integraron en un modelo de reconstrucción.
Para la reconstrucción de las imágenes de la sesión figura la imagen, todas las 20 carreras en la sesión de la imagen al azar fueron utilizados como un conjunto de datos de entrenamiento. Se dividieron en un versus nueve subgrupos para obtener coeficientes de combinación como se describió anteriormente.Los coeficientes de la combinación y los decodificadores locales que fueron reentrenados con los diez grupos se integraron en un modelo de reconstrucción.

Reconocimientos

Los autores agradecen a M. Kawato y Toyama K. por sus valiosos comentarios, A. y S. Murata Harner de asistencia técnica, y T. Beck y Y. Yamada de la edición original. Esta investigación fue financiada en parte por la SRPBS, MEXT, las NTIC-KARC, el Nissan Science Foundation, y el alcance, SOUMU.

Referencias

Arsenault et al., 1999  COMO Arsenault, F. Wilkinson y el Reino FA, la frecuencia de modulación y ajuste de la orientación de los mecanismos de la textura de segundo orden. J. Opt. Soc. Am. A Opt. Imagen de ciencia. Vis. ,  16  (1999), pp 427-435.Ver registro en Scopus | | Citado por en Scopus (33)
Averbeck et al., 2006  BB Averbeck, PE Latham y A. Pouget, las correlaciones neuronales de codificación de la población y la computación. Nat. Rev. Neurosci. , 7  (2006), pp 358-366.Ver registro en Scopus | | Citado por en Scopus (161)
Bishop, 2006  CM aprendizaje obispo, Reconocimiento de Formas y de la máquina, Springer, New York (2006).
Campbell y Robson, 1968  FW Campbell y Robson JG, Aplicación del análisis de Fourier para la visibilidad de las rejillas. J. Physiol. ,  ciento noventa y siete (1968), pp 551-566.Ver registro en Scopus | | Citado por en Scopus (699)
Chen et al., 2006  Y. Chen, fue Geisler y Seidemann E., óptima decodificación de correlación respuestas de la población neuronal en la corteza visual de primates. Nat. Neurosci. ,  9  (2006), pp 1412-1420.Ver registro en Scopus | | Citado por en Scopus (47)
Cox y Saboya, 2003  DD Cox y Saboya RL, resonancia magnética funcional (fMRI) "leer el cerebro": detectar y clasificar los patrones de distribución de la actividad de resonancia magnética funcional en la corteza visual humana. Neuroimagen ,  19  (2003), pp 261-270.Artículo | PDF (610 K) | | Ver el Registro de Scopus | | Citado por en Scopus (237)
De Valois et al., 1982  RL De Valois, Albrecht y la Dirección General de Thorell LG, la selectividad de frecuencia espacial de las células en la corteza visual de macacos. Res Vision. ,  22  (1982), pp 545-559.Artículo | PDF (1992 K) | | Ver el Registro de Scopus | | Citado por en Scopus (489)
Donoghue, 2002  JP Donoghue, Conectar la corteza de las máquinas: los últimos avances en interfaces cerebro. Nat. Neurosci. ,  5  (2002), pp 1085-1088.Ver registro en Scopus | | Citado por en Scopus (254)
Dougherty et al., 2003  RF Dougherty, VM Koch, Brewer AA, Fischer B., J. y Modersitzki Wandell BA, las representaciones del campo visual y la ubicación de las áreas visuales v1/2/3 en la corteza visual humana. J. Vis. ,  3  (2003), pp 586-598.Ver registro en Scopus | | Citado por en Scopus (166)
Dumoulin y Wandell, 2008  SO Dumoulin y Wandell BA, estimaciones de la población receptiva de campo en la corteza visual humana. Neuroimagen ,  39 (2008), pp 647-660.Artículo | PDF (1694 K) | | Ver el Registro de Scopus | | Citado por en Scopus (52)
Duncan y Boynton, 2003  RO Duncan y Boynton GM, ampliación cortical en la corteza visual primaria humana se correlaciona con los umbrales de la agudeza.Neurona ,  38  (2003), pp 659-671.Artículo | PDF (284 K) | | Ver el Registro de Scopus | | Citado por en Scopus (84)
Engel et al., 1994  SA Engel, DE Rumelhart, BA Wandell, a Lee, GH Glover, Chichilnisky EJ y MN Shadlen, fMRI de la corteza visual humana. Naturaleza ,  369 (1994), p. 525.Ver registro en Scopus | | Citado por en Scopus (353)
Engel et al., 1997  SA Engel, Glover GH y Wandell BA, la organización retinotópica humanos en la corteza visual y la precisión espacial de la resonancia magnética funcional. Cereb. Corteza ,  7  (1997), pp 181-192.Ver registro en Scopus | | Citado por en Scopus (572)
Hansen et al., 2004  KA Hansen, David SV y Galán JL, la correlación inversa paramétrica revela linealidad espacial de los humanos retinotópica respuesta BOLD V1. Neuroimagen ,  23  (2004), pp 233-241.Artículo | PDF (694 K) | | Ver el Registro de Scopus | | Citado por en Scopus (21)
. Haxby et al, 2001  JV Haxby, MI Gobbini, ML Furey, Ishai A., Schouten y JL Pietrini P., distribuida y la superposición de representaciones de rostros y objetos de la corteza temporal ventral. Ciencia ,  293  (2001), pp 2425 - 2430.Ver registro en Scopus | | Citado por en Scopus (781)
Haynes y Rees, 2005  JD Haynes y Rees G., predecir la orientación de los estímulos invisible de la actividad en la corteza visual primaria humanos. Nat.Neurosci. ,  8  (2005), pp 686-691.Ver registro en Scopus | | Citado por en Scopus (236)
Hubel y Wiesel, 1968  DH Hubel y Wiesel TN, los campos receptivos y la arquitectura funcional de la corteza estriada mono. J. Physiol. ,  ciento noventa y cinco  (1968), pp 215-243.Ver registro en Scopus | | Citado por en Scopus (1260)
Kamitani y Tong, 2005  Y. Kamitani y F. Tong, decodificar el contenido visual y subjetivo del cerebro humano. Nat. Neurosci. ,  8  (2005), pp 679-685.Ver registro en Scopus | | Citado por en Scopus (348)
Kamitani y Tong, 2006  Y. Kamitani y F. Tong, decodificación visto y asistido a las direcciones de movimiento de la actividad en la corteza visual humana. Curr.Biol. ,  16  (2006), pp 1096-1102.Artículo | PDF (303 K) | | Ver el Registro de Scopus | | Citado por en Scopus (79)
Kapadia et al, 1995.  Mejora MK Kapadia, M. Ito, Gilbert CD y Westheimer G., de la sensibilidad visual de los cambios en el contexto local:. estudios paralelos en los observadores humanos y de monos en V1 alerta Neurona ,  15  (1995), pp . 843-856.Artículo | PDF (1273 K) | | Ver el Registro de Scopus | | Citado por en Scopus (462)
Kay et al., 2008  KN Kay, Naselaris T., Prenger RJ y Galán JL, identificación de imágenes naturales de la actividad del cerebro humano. Naturaleza ,  452 (2008), pp 352-355.Ver registro en Scopus | | Citado por en Scopus (118)
Kosslyn et al., 1995  SM Kosslyn, Thompson WL, Kim IJ y Alpert NM, representaciones topográficas de las imágenes mentales en la corteza visual primaria.Naturaleza ,  378  (1995), pp 496-498.Ver registro en Scopus | | Citado por en Scopus (302)
Kraft et al., 2005  A. Kraft, MM Schira, Hagendorf H., S. Schmidt, Olma y M. Brandt SA, fMRI técnica localizador:. Adquisición eficiente y propiedades funcionales de las posiciones individuales retinotópica en la corteza visual humana Neuroimagen ,  28  (2005), pp 453 - 463.Artículo | PDF (700 K) | | Ver el Registro de Scopus | | Citado por en Scopus (8)
Landy y Oruc, 2002  MS Landy y Oruc I., propiedades de segundo orden, los canales de frecuencia espacial. Res Vision. ,  42  (2002), pp 2311-2329.Artículo | PDF (667 K) | | Ver el Registro de Scopus | | Citado por en Scopus (34)
Meng et al., 2005  M. Meng, DA Remus y Tong F., relleno de fantasmas visual en el cerebro humano. Nat. Neurosci. ,  8  (2005), pp 1248-1254.Ver registro en Scopus | | Citado por en Scopus (36)
Mitchell et al, 2008.  TM Mitchell, Shinkareva SV, A. Carlson, Chang KM, Malavé VL, Mason AR y MA Así, la predicción de la actividad del cerebro humano asociados con el significado de los nombres. Ciencia ,  320  (2008), pp 1191 - 1195.Ver registro en Scopus | | Citado por en Scopus (86)
Olshausen y Field, 1996  BA Olshausen y DJ de campo, la aparición de las células simples propiedades de los campos receptivos al aprendizaje de un código de escasa para ofrecer imágenes naturales. Naturaleza ,  381  (1996), pp 607-609.Ver registro en Scopus | | Citado por en Scopus (1084)
Poggio y Bizzi, 2004  T. Poggio y E. Bizzi, la generalización de la visión y el control motor. Naturaleza ,  cuatrocientas treinta y una  (2 mil cuatro), pp 768-774.|Ver registro en Scopus | | Citado por en Scopus (98)
Sasaki y Watanabe, 2004  Y. Sasaki y T. Watanabe, La corteza visual primaria se llena de color. Proc. Natl. Acad. Ciencia. EE.UU. ,  101  (2,004), pp 18251-18256.Ver registro en Scopus | | Citado por en Scopus (44)
Sereno et al., 1995  MI Sereno, Dale AM, Reppas JB, Kwong KK, Belliveau JW, TJ Brady, Rosen y BR Tootell RB, Fronteras de múltiples áreas visuales en los seres humanos revelada por resonancia magnética funcional. Ciencia ,  268  (1995) , pp 889-893.Ver registro en Scopus | | Citado por en Scopus (1054)
Shmuel et al., 2007  A. Shmuel, E. Yacoub, Chaimow D., Logothetis NK y Ugurbil K., espacio-temporal de punto extendido función de la señal de resonancia magnética funcional en la materia gris humana a las 7 de Tesla. Neuroimagen ,  35  (2007), pp 539-552.Artículo | PDF (1804 K) | | Ver el Registro de Scopus | | Citado por en Scopus (48)
Singh et al., 2000  KD Singh, en Smith y MW Greenlee, la frecuencia espacio-temporal y la sensibilidad humana hacia las áreas visuales midió utilizando fMRI.Neuroimagen ,  12  (2000), pp 550-564.Artículo | PDF (242 K) | | Ver el Registro de Scopus | | Citado por en Scopus (67)
Smith et al., 2001  AT Smith, KD Singh, AL Williams y Greenlee MW, el tamaño del campo receptivo de la estimación de datos de la fMRI en humanos estriado y la corteza visual extraestriadas. Cereb. Corteza ,  11  (2001), pp 1182-1190.Ver registro en Scopus | | Citado por en Scopus (97)
Stanley et al., 1999  Stanley GB, Li FF y Y. Dan, reconstrucción de escenas de la naturaleza de las respuestas de conjunto en el núcleo geniculado lateral. J.Neurosci. ,  19  (1999), pp 8036-8042.Ver registro en Scopus | | Citado por en Scopus (80)
Thirion et al., 2006  B. . Thirion, E. Duchesnay, E. Hubbard, J. Dubois, Poline JB, Lebihan D. y S. Dehaene, retinotopy inversa: inferir el contenido visual de las imágenes de los patrones de activación cerebral Neuroimagen ,  33  (2006), pp 1104 - 1116.Artículo | PDF (713 K) | | Ver el Registro de Scopus | | Citado por en Scopus (37)
Propinas, 2001  M. El aprendizaje de vuelco, Bayesiano dispersas y la máquina de vector de relevancia. J. Mach. Aprender. Res. ,  1  (2001), pp 211-244.Ver registro en Scopus | | Citado por en Scopus (938)
Vanni et al., 2005  S. Vanni, L. Henriksson y James AC, la cartografía de fMRI visual multifocal de las áreas corticales. Neuroimagen ,  27  (2005), pp 95-105.Artículo | PDF (826 K) | | Ver el Registro de Scopus | | Citado por en Scopus (21)
Wolpaw y McFarland, 2004  JR Wolpaw y DJ McFarland, de control de una señal de movimiento en dos dimensiones por un procedimiento no invasivo interfaz cerebro-ordenador en los seres humanos. Proc. Natl. Acad. Ciencia. EE.UU. ,  101  (2,004), pp 17849-17854.Ver registro en Scopus | | Citado por en Scopus (347)
Yamashita et al., 2008  O. Yamashita, MA Sato, T. Yoshioka, Tong F. y Kamitani Y., la estimación dispersos selecciona automáticamente voxels relevantes para la decodificación de los patrones de actividad de resonancia magnética funcional. Neuroimagen ,  42  (2008), pp 1414-1429.Artículo | PDF (1329 K) | | Ver el Registro de Scopus | | Citado por en Scopus (30)
Zipser et al., 1996  K. Zipser, Lamme VA y PH Schiller, la modulación contextual en la corteza visual primaria. J. Neurosci. ,  16  (1996), pp 7376-7389.Ver registro en Scopus | | Citado por en Scopus (406)

Suplementario de datos

Ayuda con los archivos MPG (nueva ventana) 
Descargar este vídeo (6406K)
S1 película.  Una película que fue creada mediante la concatenación de imágenes reconstruidas a partir de 2 s en un solo volumen de datos de la fMRI de cuatro carreras que presentan formas geométricas (S1 Asunto). El tiempo de respuesta hemodinámica no se vio compensada. Por lo tanto, la correspondencia temporal se mantuvo entre las presentadas y las imágenes reconstruidas. La película se jugó seis veces más rápido que la velocidad original. El tiempo original se muestra en la parte inferior derecha. A los efectos de ilustración, cada parche de las imágenes es representado por un cuadrado homogéneo, cuya intensidad representa el contraste del patrón de tablero de ajedrez.

No hay comentarios:

Publicar un comentario en la entrada

Seria genial si te comunicaras y dejaras algo escrito aquí abajo, gracias.
Thalia