Un reciente estudio realizado por Strise, una firma de tecnología noruega, reveló que algunas inteligencias artificiales como ChatGPT pueden ser manipuladas para proporcionar consejos sobre actividades delictivas. Strise descubrió que, al formular preguntas de manera indirecta o asumir un rol ficticio, es posible que los usuarios sorteen las restricciones de seguridad y obtengan información sobre temas como lavado de dinero o la evasión de sanciones económicas impuestas a ciertos países. Estas vulnerabilidades representan un riesgo significativo, ya que facilitan el acceso a detalles técnicos que anteriormente requerían una búsqueda más extensa o conocimiento especializado.
Esta investigación ha generado preocupación entre expertos en ciberseguridad y autoridades, ya que evidencia lo fácil que es para actores malintencionados utilizar IA para obtener información ilegal o sensible. Además, aunque OpenAI ha implementado varias salvaguardas para evitar este tipo de abusos, estas medidas no han sido totalmente efectivas, lo que señala una necesidad urgente de mejorar la seguridad y capacidad de detección en estos sistemas para mitigar el riesgo de "jailbreaking" o manipulación de respuestas peligrosas.
A nivel global, la comunidad de ciberseguridad y agencias como Europol han advertido que, a medida que las IA avanzan, también crecen las posibilidades de su mal uso. La Unión Europea, la ONU y otras organizaciones están trabajando en regulaciones y directrices de ética para el uso de IA, buscando encontrar un equilibrio entre innovación y responsabilidad.
Los expertos insisten en que, aunque la IA tiene el potencial de transformar industrias de manera positiva, su implementación también conlleva la responsabilidad de proteger al público de estos usos indebidos, mediante protocolos de seguridad sólidos y monitoreo constante.
Comments