La Inteligencia Artificial Se Convierte en Herramienta Delictiva

 


 

El año 2024 plantea un escenario de creciente amenaza cibernética, donde la Inteligencia Artificial (IA) se convierte en un arma delictiva. Desde la imitación de voces y estilos de escritura hasta ataques a sistemas de infraestructuras críticas, los expertos advierten sobre la evolución impredecible de los retos de ciberseguridad. Un caso paradigmático es el uso de herramientas de IA por agentes vinculados a Estados, comprometiendo la seguridad de bases militares estratégicas. Esta tendencia se proyecta hacia ataques sofisticados que afectarán la seguridad pública y servicios críticos, destacando la necesidad de adoptar IA defensiva para contrarrestar la velocidad y sofisticación de los ataques. Además, se prevé el uso de IA en la generación de mensajes de 'phishing' y la producción de contenido multimedia engañoso, desafiando la capacidad de distinguir entre realidad y manipulación. Especialistas en ciberseguridad auguran un año histórico para la diversificación de capacidades de la IA, con ciberdelincuentes aprovechando la manipulación de emociones y la ingeniería social mediante contenido generado por IA. Entre las predicciones se incluye un aumento del 'vishing' (suplantación de identidad por voz) basado en IA, indicando que las llamadas de engaño podrían prescindir incluso de la participación humana, intensificando los riesgos de manipulación y chantaje. Este panorama subraya la necesidad urgente de desarrollar estrategias y tecnologías avanzadas para salvaguardar la ciberseguridad en un entorno donde la IA se ha convertido en un arma de doble filo.