Italia bloquea la aplicación de inteligencia artificial ChatGPT por razones de seguridad

ROMA.- La aplicación de inteligencia artificial (IA), ChatGPT, ha asombrado a sus usuarios de todo el mundo durante los últimos meses, pues de manera veloz es capaz de sostener una conversación coherentemente. Sin embargo, ha causado descontentos para algunos Gobiernos, como el italiano, el cual decidió bloquear la aplicación alegando problemas con la protección de datos y la verificación de edad de sus usuarios. Entretanto, expertos en tecnología han advertido sobre los avances de la IA.  

Este 31 de marzo la agencia de protección de datos de Italia anunció el bloqueo de la aplicación de IA, Chat GPT, argumentando que no respeta su legislación sobre el almacenamiento de datos personales, además de no tener un sistema adecuado para verificar la edad de los usuarios menores.

La medida entra en vigor de inmediato. Las autoridades del país europeo aseguraron que la aplicación “sufrió el 20 de marzo una pérdida de datos sobre las conversaciones de los usuarios y las informaciones relativas al pago de los abonados al servicio de pago».

No obstante, las autoridades han pedido a la empresa desarrolladora de la aplicación que realice un ajuste en los temas pertinentes o si no podría enfrentar una sanción de hasta 20 millones de euros.

La decisión estuvo influenciada porque la aplicación carece de una nota informativa para los usuarios en la cual se les explique que sus datos son recogidos por la empresa ‘OpenAl’, además de tener ausencia de una base jurídica que “justifique la recogida y conservación en masa de los datos personales”.

Algunos usuarios de la aplicación habían denunciado recibir imágenes y mensajes con algún tinte sexual. 

‘OpenAI’, financiada por el gigante tecnológico Microsoft, es la empresa desarrolladora de la aplicación, la cual está entrenada con grandes cantidades de texto para mantener conversaciones coherentes con cualquier persona, que pueden ir desde una traducción hasta un chat. 

ChatGPT fue lanzada oficialmente en noviembre del año pasado y rápidamente fue adoptada por miles de usuarios en todo el mundo, asombrados por su capacidad de responder preguntas difíciles e incluso de aprobar exámenes.

Se espera que los algoritmos desarrollados por sus realizadores sean capaces de responder preguntas de manera acertada, natural e incluso personales o de sentimientos.

La IA causa temores a los gobiernos

La Unión Europea prepara un proyecto de ley con el cual busca regular la inteligencia artificial, que podría estar listo a finales de 2023 o inicios de 2024 y ser aplicado rápidamente. 

Mientras que el Reglamento Europeo de Protección de Datos (RGPD) trabaja en imponer millonarias multas a las empresas tecnológicas por el “mal manejo de datos” de algunas aplicaciones.

Indudablemente el rápido avance de la tecnología ha facilitado la mayoría de las tareas de los seres humanos, sin embargo, el miedo a que en algún momento se salga de control es un tema que no deja de preocupar.

Esta misma semana, un grupo de expertos tecnológicos, incluyendo al magnate Elon Musk, firmó una carta abierta en la cual pidieron a científicos y desarrolladores “hacer una pausa” durante seis meses en los avances de la IA. 

Ya en febrero de este año Musk se había referido al tema, asegurando que “uno de los mayores riesgos para el futuro de la civilización es la IA”, según explicó durante la Cumbre del Gobierno Mundial en Dubái.

ChatGPT… ¿podría ayudar a delincuentes?

Así lo alertó la Europol. La agencia policial europea dijo que la aplicación puede facilitar las tareas de fraude debido a su capacidad para redactar textos auténticos y de manera muy veloz, haciendo que cada vez sea más difícil para las víctimas detectar el fraude.  

“Hasta ahora, este tipo de comunicación engañosa ha sido algo que los delincuentes tenían que producir por su cuenta. En el caso de campañas producidas en masa, las víctimas de este tipo de delitos a menudo podían identificar la naturaleza no auténtica de un mensaje debido a errores ortográficos o gramaticales obvios o su contenido vago o inexacto”, señala Europol.

También aseguraron que cometer acciones terroristas, difundir propaganda y contribuir a la desinformación son otros de los retos a los que las autoridades tendrían que enfrentarse con más frecuencia durante los próximos años con GPT o aplicaciones similares. 

Ahora el reto se encuentra en que la herramienta logre detectar cuando una orden tenga intenciones maliciosas y que puedan afectar a otras personas, advierte Europol.

AFP/

Entradas relacionadas