Espacio publicitario
Viernes 14 de diciembre de 2018
Buscador de noticias
Encuentre toda la informacion que necesita en mas de 23 años de archivo
Espacio publicitario
Tecnología

¿Cómo aprenden las máquinas?

El nuevo libro de James Bridle cuenta cómo se llegó a las máquinas inteligentes.

mar 10 de julio de 2018
Comentarios: (0)

Galeria de imagenes
Anterior
Ampliar
Siguiente
¿Cómo aprenden las máquinas?

Supongamos, dice Bridle en New Dark Age, que un ejército quiere localizar tanques enemigos camuflados en medio de un bosque. Para el ojo humanos los tanques no son distinguibles entre el follaje. Para eso desarrolla otra forma de ver: entrena a una máquina a identificar tanques. Para enseñarle toma 100 fotos de tanques en la selva, luego 100 fotos de selva sin tanques. Le muestra la mitad de cada conjunto a una red neural , que es un software diseñado para imitar un cerebro humano. La red neural no sabe nada de tanques ni de selvas. Sólo sabe que hay cincuenta fotos con algo importante en ellas y cincuenta fotos sin ese algo importante e intenta descubrir la diferencia. Examina las fotos desde múltiples ángulos, las juzga sin ninguno de los preconceptos inherentes al cerebro humano.

Cuando la red terminó de aprender, se le muestran las fotos restantes -- cincuenta de tanques y cincuenta de selva vacía – que nunca vio antes y se le pide que las clasifica. Y lo hace a la perfección. Pero no aprendió a discernir la presencia o ausencia de tanques.

Esta historia ilustra una cuestión importante sobre la inteligencia artificial: ¿qué podemos saber sobre lo que sabe una máquina? La inteligencia artificial -- lo que sea que llegue a ser – será algo fundamentalmente diferente de la humana y en última instancia inescrutable. A pesar de los sistemas cada vez más sofisticados de computación y visualización, no entendemos verdaderamente cómo las máquinas hacen lo que hacen. Sólo podemos juzgar los resultados.

La primera red neural fue desarrollada en los años 50 y se llamó Perceptron. La idea base era el conexionismo: la creencia que la inteligencia proviene de conexiones entre neuronas y que al imitar esos caminos del cerebro, las máquinas podían ser inducidas a pensar. La tarea de la ciencia era, entonces, la construcción de un modelo del mundo que ignoraba los prejuicios humanos.

El modelo conexionista cayó en desgracia durante varias décadas, pero ahora reina supremo otra vez. Sus defensores creen que el mundo tiene un orden natural que se puede analizar y computar sin prejuicio.

En los últimos años los importantes avances logrados en computación generaron el renacimiento de las redes neurales y produjeron una revolución en las expectativas sobre la inteligencia artificial.

La clásica primera tarea para testear un sistema inteligente es el reconocimiento de imágenes. En 2011 Google reveló un proyecto llamado Google Brain y luego anunció que había creado una red neural usando un conjunto formado por mil máquinas con 16.000 procesadores. Esa red fue alimentada con 10 millones de imágenes y desarrolló la capacidad de reconocer caras humanas sin conocimiento previo de lo que eso significaba. Facebook creó un software similar.

Pronto el software será usado no sólo para reconocer sino para predecir. En un trabajo publicado en 2016, dos investigadores chinos describen un software de su creación que podía distinguir la diferencia entre caras de criminales y caras de no criminales usando fotos de caras para hacer inferencias sobre criminalidad.

El trabajo provocó la indignación general en el ambiente tecnológico. Se los acusaba de revivir teorías del siglo 19 sobre fisonomía criminal. Ellos insistían que, como la mayoría de las tecnologías, las máquinas inteligentes son neutrales. Contestaron, además, que si el aprendizaje de las máquinas se puede usar para reforzar los prejuicios humanos, también se lo puede usar para detectar y corregir esos prejuicios.

Pero las máquinas no corrigen nuestros defectos: los replican. La tecnología no surge de un vacío. Es la cosificación de las creencias y deseos de sus creadores.

Hay prejuicios escondidos en los códigos de l a mayoría de los dispositivos de hoy en día. Prejuicios que se pueden detectar, comprender y corregir. Pero hay otras consecuencias que no podemos reconocer ni comprender porque son producidas por nuevos modelos de pensamiento automatizado, por procesos cognitivos muy diferentes de los nuestros.

El pensamiento de las máquinas opera ahora en una dimensión que está más allá de la comprensión humana. Las máquinas, por obra y gracia de desarrolladores humanos (por ejemplo, un algoritmo de Google llamado Assistant) realizan retoques y combinaciones de imágenes subidas casualmente por un botón pulsado durante más tiempo por el dedo humano que resultan, por ejemplo, en una foto que nunca fue sacada.

Las máquinas están llegando más allá de lo que nuestra imaginación puede captar.

 

 

 

Comentarios de los lectores
Espacio publicitario
Espacio publicitario
Espacio publicitario
Espacio publicitario
Espacio publicitario
Espacio publicitario
Espacio publicitario
Espacio publicitario
Últimos Tweets