¿Se humanizará la inteligencia artificial?

La inteligencia artificial genera una polémica difícil de dirimir. Están los que quieren lograr máquinas “más inteligentes que el cerebro humano” y los que se oponen, bien porque no lo creen posible o porque le temen a las consecuencias.

26 diciembre, 2001

A fines del siglo XIX, los antepasados de la computadora inspiraban ficciones futuristas de todo tenor. Desde una sociedad de gente ociosa y robots amistosos hasta mundos apocalípticos donde sólo había inteligencias artificiales o, a veces, quedaba apenas una, vasta y cósmica. A principios del siglo XXI, el tema circula por carriles menos fantasiosos, pero tan interesantes como los debates al respecto.

“El problema es simple. Como la gente no es lo bastante lista, se precisan máquinas”. En palabras de Marvin Minsky, ésta es la postura más radicalmente favorable a la cibernética. Se explica: al “gurú” se lo conoce como “padre de la inteligencia artificial” y, hecho, es quien acuñó el término artificial intelligence (AI, en castellano IA).

En disidencia con Minsky y su adalid Nicholas Negroponte, Leslie Pack Kaelbling sostiene que esa utopía dista de haber cristalizado, aunque no la tache de imposible. Sucede que Kaelbling es codirector del laboratorio de IA que funciona en el Instituto Tecnológico de Massachussets (MIT), donde Minsky ocupa la cátedra Toshiba en técnicas de comunicación. Por hoy, el temperamento relativizante tiende a imponerse en el mundo científico.

Contradicciones iniciales

No obstante, Minsky insiste en las probabilidades de desarrollar máquinas que puedan superar al cerebro humano… “si se asignan recursos y personas a la altura del tema, que lo aborden a partir de planteos correctos”. El autor de varios libros y monografías sobre IA recomienda, pues, dejar de lado redes neurales, lógica matemática y algoritmos para enfocarse en diseñar cíberes capaces de razonar con sentido común.

La IA recién despegará una vez creadas esas condiciones. Entretanto, “viviremos con computadoras y robots de alcance limitado”. Por el contrario, según Kaelbling, “los pequeños pero acumulativos avances de las investigaciones dejan profundas huellas. En realidad, el error consistió en centrar los trabajos iniciales en galimatías intelectuales, ajedrez, cálculos matemáticos, etc.”

A juicio del investigador, durante una primera fase se creía que ésos eran los problemas verdaderamente difíciles. Si los ordenadores lograran procesarlos con eficiencia, ulteriormente sería factible que sus sistemas “aprendiesen” a actuar como personas. Desde hacer tareas domésticas hasta, en la visión japonesa sobre la V generación (1995), adoptar decisiones concretas. Pero, observa Kaelbling, “muchos actos cotidianos probaron ser mucho más complicados de procesar que los problemas abstractos”.

Sin embargo, difícil no es sinónimo de imposible. En la actualidad, las computadoras ya hacen cosas tan notables –entre ellas, manejar instrumentos financieros prodigiosos- como para imaginar una fusión entre inteligencia artificial y humana. Este “futurible”, claro, no prevé que la IA cumpla todas las funciones del cerebro orgánico. Por ejemplo, en el AT&T Lab (Cambridge, Inglaterra) los científicos tratan de diseñar un ordenador que sea “consciente” de su entorno, “sepa” donde ubicar dispositivos o personas y determine las necesidades de éstas.

El proyecto se denomina sentient computing –algo así como “computación sensible o perceptiva” y su meta final es desarrollar “cursores vivientes”, capaces de activar por mera presencia computadoras y otros sistemas inteligentes. Ello implicaría reaccionar a gestos, actitudes y expresiones faciales mediante funciones emplazadas dentro del ordenador (no un mero software externo) y sistemas ajustables a usuarios.

Menos fantásticos pero, probablemente, más útiles son los dispositivos hápticos (en griego, táctiles), incorporables a las interfaces. Ya existen aplicaciones comerciales empleadas para diseños computados, modelos tridimensionales y terminales individuales. En rigor, las “salas de hologramas” que se ven en “Viaje a la estrellas” (Next generation, Deep space 9, Voyager) involucran ese tipo de innovaciones. En un plano más interesante, estas tecnologías se usan en herramientas para instrucción, tratamientos e implantes médicos (a veces, en combinación con nanotecnologías).

¿Qué es la mente?

Entre Minsky y Kaelbling, siempre en el MIT, aparecen Steven Pinker y su libro How the mind works (1997; hay traducción castellana). Aún más crítico del psicoanálisis que los otros dos –se opone redondamente a las variantes freudiana y lacaniana- y jefe del departamento de neurociencia cognitiva, Pinker define la mente humana como “un ordenador que ha tenido algunos millones de años para evolucionar”.

Al margen de polémicas, muchos expertos en IA de primera línea comparten un objetivo prioritario: mejorar el reconocimiento y la sintetización de voces. Al respecto, Microsoft viene trabajando en un programa identificatorio multimodal, capaz de ejecutar en secuencia lógica una serie de tareas iniciada en una orden vocal. Por su parte, el centro de Cambridge está por poner en el mercado un software de reconocimiento y síntesis tan avanzado que tornará muy difícil diferenciar entre una voz artificial y su original humano.

En resumen, las razones de Kaebling y las ideas de Pinker parecen imponerse a las de Minsky. “La IA está en vísperas de progresos extraordinarios, pero –advierte el propio MIT vía www.mit.edu- los robots están muy lejos de copar el mundo”. Mientras tanto, la creación de máquinas con aptitud de procesar ultravelozmente complejos sistemas de ecuaciones o adoptar decisiones financieras globales seguirá planteado incógnitas sobre qué es inteligencia.

A fines del siglo XIX, los antepasados de la computadora inspiraban ficciones futuristas de todo tenor. Desde una sociedad de gente ociosa y robots amistosos hasta mundos apocalípticos donde sólo había inteligencias artificiales o, a veces, quedaba apenas una, vasta y cósmica. A principios del siglo XXI, el tema circula por carriles menos fantasiosos, pero tan interesantes como los debates al respecto.

“El problema es simple. Como la gente no es lo bastante lista, se precisan máquinas”. En palabras de Marvin Minsky, ésta es la postura más radicalmente favorable a la cibernética. Se explica: al “gurú” se lo conoce como “padre de la inteligencia artificial” y, hecho, es quien acuñó el término artificial intelligence (AI, en castellano IA).

En disidencia con Minsky y su adalid Nicholas Negroponte, Leslie Pack Kaelbling sostiene que esa utopía dista de haber cristalizado, aunque no la tache de imposible. Sucede que Kaelbling es codirector del laboratorio de IA que funciona en el Instituto Tecnológico de Massachussets (MIT), donde Minsky ocupa la cátedra Toshiba en técnicas de comunicación. Por hoy, el temperamento relativizante tiende a imponerse en el mundo científico.

Contradicciones iniciales

No obstante, Minsky insiste en las probabilidades de desarrollar máquinas que puedan superar al cerebro humano… “si se asignan recursos y personas a la altura del tema, que lo aborden a partir de planteos correctos”. El autor de varios libros y monografías sobre IA recomienda, pues, dejar de lado redes neurales, lógica matemática y algoritmos para enfocarse en diseñar cíberes capaces de razonar con sentido común.

La IA recién despegará una vez creadas esas condiciones. Entretanto, “viviremos con computadoras y robots de alcance limitado”. Por el contrario, según Kaelbling, “los pequeños pero acumulativos avances de las investigaciones dejan profundas huellas. En realidad, el error consistió en centrar los trabajos iniciales en galimatías intelectuales, ajedrez, cálculos matemáticos, etc.”

A juicio del investigador, durante una primera fase se creía que ésos eran los problemas verdaderamente difíciles. Si los ordenadores lograran procesarlos con eficiencia, ulteriormente sería factible que sus sistemas “aprendiesen” a actuar como personas. Desde hacer tareas domésticas hasta, en la visión japonesa sobre la V generación (1995), adoptar decisiones concretas. Pero, observa Kaelbling, “muchos actos cotidianos probaron ser mucho más complicados de procesar que los problemas abstractos”.

Sin embargo, difícil no es sinónimo de imposible. En la actualidad, las computadoras ya hacen cosas tan notables –entre ellas, manejar instrumentos financieros prodigiosos- como para imaginar una fusión entre inteligencia artificial y humana. Este “futurible”, claro, no prevé que la IA cumpla todas las funciones del cerebro orgánico. Por ejemplo, en el AT&T Lab (Cambridge, Inglaterra) los científicos tratan de diseñar un ordenador que sea “consciente” de su entorno, “sepa” donde ubicar dispositivos o personas y determine las necesidades de éstas.

El proyecto se denomina sentient computing –algo así como “computación sensible o perceptiva” y su meta final es desarrollar “cursores vivientes”, capaces de activar por mera presencia computadoras y otros sistemas inteligentes. Ello implicaría reaccionar a gestos, actitudes y expresiones faciales mediante funciones emplazadas dentro del ordenador (no un mero software externo) y sistemas ajustables a usuarios.

Menos fantásticos pero, probablemente, más útiles son los dispositivos hápticos (en griego, táctiles), incorporables a las interfaces. Ya existen aplicaciones comerciales empleadas para diseños computados, modelos tridimensionales y terminales individuales. En rigor, las “salas de hologramas” que se ven en “Viaje a la estrellas” (Next generation, Deep space 9, Voyager) involucran ese tipo de innovaciones. En un plano más interesante, estas tecnologías se usan en herramientas para instrucción, tratamientos e implantes médicos (a veces, en combinación con nanotecnologías).

¿Qué es la mente?

Entre Minsky y Kaelbling, siempre en el MIT, aparecen Steven Pinker y su libro How the mind works (1997; hay traducción castellana). Aún más crítico del psicoanálisis que los otros dos –se opone redondamente a las variantes freudiana y lacaniana- y jefe del departamento de neurociencia cognitiva, Pinker define la mente humana como “un ordenador que ha tenido algunos millones de años para evolucionar”.

Al margen de polémicas, muchos expertos en IA de primera línea comparten un objetivo prioritario: mejorar el reconocimiento y la sintetización de voces. Al respecto, Microsoft viene trabajando en un programa identificatorio multimodal, capaz de ejecutar en secuencia lógica una serie de tareas iniciada en una orden vocal. Por su parte, el centro de Cambridge está por poner en el mercado un software de reconocimiento y síntesis tan avanzado que tornará muy difícil diferenciar entre una voz artificial y su original humano.

En resumen, las razones de Kaebling y las ideas de Pinker parecen imponerse a las de Minsky. “La IA está en vísperas de progresos extraordinarios, pero –advierte el propio MIT vía www.mit.edu- los robots están muy lejos de copar el mundo”. Mientras tanto, la creación de máquinas con aptitud de procesar ultravelozmente complejos sistemas de ecuaciones o adoptar decisiones financieras globales seguirá planteado incógnitas sobre qué es inteligencia.

Compartir:
Notas Relacionadas

Suscripción Digital

Suscríbase a Mercado y reciba todos los meses la mas completa información sobre Economía, Negocios, Tecnología, Managment y más.

Suscribirse Archivo Ver todos los planes

Newsletter


Reciba todas las novedades de la Revista Mercado en su email.

Reciba todas las novedades