Novedades Tecnología

Ciberataques con inteligencia artificial llegarían en menos de 5 años

Expertos en privacidad e investigadores de Oxford, Yale y Cambridge alertaron sobre posibles hackeos

Inteligencia artificial y biotecnología

Organizaciones defensoras de la privacidad e investigadores expertos en inteligencia artificial recomiendan regulaciones para evitar que se use la tecnología con fines criminales. 

Foto:

Gerard Julien / AFP

21 de febrero 2018 , 12:39 p.m.

Más de 25 investigadores de las universidades de Cambridge, Oxford y Yale y expertos en materia de privacidad alertaron en un estudio sobre los riesgos de que la tecnología de inteligencia artificial (IA) sea utilizada con fines delictivos.  Según los expertos los rápidos avances en IA están aumentando los riesgos de que ciberdelincuentes se valgan de esa tecnología para generar ataques automáticos de hacking, causar accidentes automovilísticos en carros de conducción autónoma o convertir drones comerciales en armas dirigidas

Como lo han dicho campañas internacionales, como es el caso de la campaña Stop Killer Robots, el tiempo se agota. Los investigadores indicaron en el estudio que este tipo de desarrollos maliciosos son plausibles dentro de solo cinco años en el futuro. El uso malicioso de IA, según lo presentan los académicos podría generar "una amenaza inminente para la seguridad digital, física y política al permitir ataques a gran escala, altamente dirigidos y altamente eficientes". 

El documento de 98 páginas, publicado este miércoles 20 de febrero, advierte que el costo de los ataques militares se reduciría al utilizar la IA para completar tareas que de otra manera requerirían trabajo humano y experiencia. Pueden surgir nuevos ataques que serían imprácticos para los humanos solos para desarrollarse o que explotan las vulnerabilidades de los propios sistemas de inteligencia artificial.

Miles Brundage, investigador del Instituto Future of Humanity de Oxford, aseguró que todos los investigadores están de acuerdo en que hay muchas aplicaciones positivas de la inteligencia artificial, pero que hasta el momento "hubo un vacío en la literatura sobre el tema del uso malicioso".

Las capacidades de la IA para procesar millones de datos en poco tiempo y emular el razonamiento humano en la toma de decisiones o el procesamiento de todo tipo de información (texto, voz o imágenes visuales) ha hecho que esta tecnología sea vista como una fuerza poderosa para el cambio y la solución de problemáticas humanas en todo tipo de sectores. Sin embargo, los riesgos sobre si la automatización masiva podría resultar en un desempleo generalizado y en otro tipo de impactos que afecten la vida humana son una preocupación recurrente.

El estudio, llamado 'El uso malicioso de la Inteligencia Artificial: Predicción, Prevención, y Mitigación', tiene contribuciones de organizaciones internacionales sin ánimo de lucro como OpenAI (creada por Elon Musk), Center for a New American Security y la Electronic Frontier Foundation. 

Los investigadores detallan el poder de la inteligencia artificial para simular imágenes sintéticas, texto y audio para suplantar la identidad de otros en línea. Los expertos plantearon su preocupación por la existencia de herramientas que reemplazan rostros de dirigentes políticos o softwares que pueden emular una voz con solo conocer cómo habla una persona por algunos minutos. Dichas herramientas, que se basan en IA, podrían ser usadas con el fin de influir en la opinión pública.

El origen de esta profunda investigación fue un taller a principios del 2017. En el momento algunos de los autores del documento especularon sobre cómo la IA podría usarse para crear audio y video falsos altamente realistas de funcionarios públicos con fines de propaganda. Algunas de sus predicciones se cumplieron.

A fines del año pasado, los falsos videos pornográficos "deepfake" comenzaron a aparecer en línea, con caras de celebridades mezcladas de forma realista con diferentes cuerpos. Sin embargo, los expertos apuntaron que esas capacidades pueden ser utilizadas también en situaciones políticas, diplomáticas o totalitarias.

"Sucedió en el régimen de la pornografía en lugar de la propaganda", dijo Jack Clark, jefe de política de OpenAI, "Pero nada sobre deepfakes sugiere que no se puede aplicar a la propaganda". 

"Finalmente terminamos con muchas más preguntas que respuestas", confesó Brundage.

Entre las recomendaciones, los expertos abogan por la construcción de una regulación de la inteligencia artificial que la contemple como de doble uso: tanto como una tecnología militar como una comercial.

Por otra parte, los expertos plantean sus cuestionamientos sobre si quienes participan en la investigación y desarrollo de esta tecnología deben controlar lo que publican o divulgan hasta que otros expertos en el campo pueden estudiar y reaccionar ante los peligros potenciales que puedan implicar.

REDACCIÓN TECNÓSFERA*
*Con información de Reuters

Ya leíste los 800 artículos disponibles de este mes

Rompe los límites.

Aprovecha nuestro contenido digital
de forma ilimitada obteniendo el

70% de descuento.

¿Ya tienes una suscripción al impreso?

actívala

Sabemos que te gusta estar siempre informado.

Crea una cuenta y podrás disfrutar de:

  • Acceso a boletines con las mejores noticias de actualidad.
  • Comentar las noticias que te interesan.
  • Guardar tus artículos favoritos.

Crea una cuenta y podrás disfrutar nuestro contenido desde cualquier dispositivo.

CREA UNA CUENTA


¿Ya tienes cuenta? INGRESA