NOTICIAS | CIENCIA
No es la primera vez que el astrofísico, Stephen Hawking, expresa su temor con respecto al desarrollo de la IA
No es la primera vez que el astrofísico, Stephen Hawking, expresa su temor con respecto al desarrollo de la IA

Oferta Especial

El físico britanico, Stephen Hawking, ha revelado su preocupación acerca del desarrollo de una “Inteligencia Artificial” de tipo superior y cree, que actualmente, no se le está prestando atención a las posibles implicaciones que eso tendría.

Esto, se desprende de un artículo escrito para The Independent por el propio Hawking, en conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek, Nobel de Física.

El artículo, toma como su punto de partida las implicaciones narradas en la cinta “Transcendence: Identidad Virtual”, protagonizada por el actor Johnny Depp, en la que se describe un mundo en que las computadoras superan las capacidades humanas, afirmando que un escenario de esta magnitud “podría ser el peor error de la historia”.

Lo que plantea, es algo parecido a lo que se puede ver en el juego “Metal Gear Solid 4: Guns of the Patriots”, en el cual, un sistema de Inteligencia Artificial, denominado “Sons of the Patriots”, en un principio dominado por el ser humano, se va volviendo autosuficiente y llega a controlar las decisiones de tipo político, social, mercantiles y hasta humanitarias del mundo entero, pero dandole al ser humano la ilusión de ser él quien finalmente toma las decisiones; en el caso del título de Konami, todo va encaminado, siempre, al sustento de una economía de la guerra.

Queda claro, que ésta ha sido una gran preocupación que ha rondado la mente del ser humano desde los mismos albores de la informática y la robótica. De hecho, no es la primera vez que Stephen Hawking se refiere al tema. Para él, el principal problema que se puede tener con este tipo de investigaciones, es que se llegaría un punto donde el modelo “mecánico” sobrepasaría al humano, volviéndose este último un sirviente del primero.

Un resultado exitoso en la implementación de métodos relacionados con la inteligencia artificial podría ser “el mayor evento en la historia de la raza humana, pero también el último”. Así de tajante, se muestra ante el tema, el físico británico.

Tanta es su preocupación, que en enero de 2013, anunció su incorporación a la iniciativa “Cambridge Project for Existential Risk”. Un programa, fundado a fines de 2012, que reúne a filósofos, matemáticos e ingenieros de todo el mundo, para intentar frenar los riesgos del desarrollo de la inteligencia artificial y su injerencia en áreas como la biotecnología, las guerras nucleares y el cambio climático.

En su texto, el artículo, indaga sobre la evolución de los asistentes virtuales Siri de Apple, Google Now y Cortana de Microsoft, señalando que representan “un pálido reflejo de lo que vendrá más adelante”. Aunque también opina, que utilizada de la manera indicada, la inteligencia artificial podría ayudar a erradicar la pobreza, las guerras y las enfermedades.

Como Irving Good se dio cuenta en 1965, las máquinas con inteligencia sobrehumana podrían mejorar en varias ocasiones su diseño, provocando lo que Vernor Vinge llama una “singularidad” y el personaje de Johnny Depp, “trascendencia”.

Cabe recordar que empresas, como IBM, ya han anunciado grandes avances en chips inteligentes, así como en equipos informáticos que logran imitar, aunque todavía en un porcentaje muy bajo, al cerebro humano. De acuerdo al físico, “militares de todo el mundo trabajan para desarrollar sistemas de armas totalmente autónomas, al mismo tiempo que las Naciones Unidas intenta prohibirlas”.

¿Y qué tan allá se podrá llegar en el futuro? “No existe ninguna ley física que impida a estos sistemas realizar cálculos más avanzados que los cerebros humanos. Y, a pesar que nos encontramos ante lo mejor o peor que le ha ocurrido a la humanidad en la historia, pocas investigaciones serias se han dedicado al tema”, argumentó.

Podemos imaginar la tecnología superando a los investigadores humanos, siendo más inteligente que los mercados financieros, manipulando a los líderes y desarrollando armas que ni siquiera podremos entender.

El impacto a corto plazo de la IA depende de quién la controle. El impacto, a largo plazo, depende de que ésta se pueda mantener controlada.

This Is A Developing Story
ESPECIALES