SkyNet está a la vuelta de la esquia y las mentes más lúcidas de nuestra época se encargargan de darnos la advertencia.
Más de 1.000 científicos y expertos en tecnología han firmado una carta en la que alertan sobre el peligro de desarrollar los llamados 'robots asesinos', es decir, armas autónomas programadas con inteligencia artificial. El manifiesto -firmado por el astrofísico británico Stephen Hawking, el emprendedor Elon Musk, presidente de Tesla y SpaceX, y el cofundador de Apple, Steve Wozniak- afirma que "la aplicación militar de la inteligencia artificial a la carrera de armamentos es una mala idea".
No es la primera vez que figuras como Hawking y Musk denuncian los peligros de los 'robots asesinos', pero el tono de esta nueva carta, que se presentará este martes en Buenos Aires, durante una conferencia internacional sobre inteligencia artificial, es especialmente dramático.
Las posibles aplicaciones militares de la inteligencia artificial han desencadenado una gran polémica en los últimos años, y el debate incluso ha llegado hasta Naciones Unidas, que ha dedicado reuniones de expertos a este tema e incluso se ha planteado una prohibición internacional de esta tecnología.
Ahora, los firmantes de la nueva carta han pedido que se prohíba específicamente el uso de la inteligencia artificial para el desarrollo de armas que podrían funcionar "más allá del control humano".
"De la misma manera que la mayoría de los químicos y los biólogos no tienen ningún interés en desarrollar armas químicas o biológicas, la mayor parte de los investigadores en el campo de la inteligencia artificial no tienen interés alguno en la construcción de armas basadas en esta tecnología", afirma este manifiesto.
El profesor del MIT Noam Chomsky, el responsable de inteligencia artificial de Google, Demis Hassabis, y el filósofo Daniel Dennett también han firmado esta carta de protesta. El texto, que ha sido publicado en internet por el Future of Life Institute (FLI) de la Universidad de Oxford, será distribuido entre todos los participantes de la Conferencia sobre Inteligencia Artificial que se celebra esta semana en Buenos Aires.
El pasado mes de diciembre, Stephen Hawking ya manifestó claramente su postura contraria a las aplicaciones militares de la inteligencia artificial, en una entrevista con la BBC: "Los seres humanos, que están limitados por una evolución biológica lenta, no podrían competir con la inteligencia artificial, y serían superados por ella". Por ello, el astrofísico considera que esta tecnología, si no se regula adecuadamente en lo que respecta a sus posibles aplicaciones militares, podría poner en riesgo el futuro de la Humanidad.
Tomado de:
El Mundo (España)