Hace menos de dos semanas Italia decidió prohibir el uso de ChatGPT en el país. La razón, la supuesta recopilación ilícita de datos personales. La situación de esta plataforma de inteligencia artificial se complica en otras zonas del mapa, y el último país en plantear la prohibición es España.
España se plantea seguir a Italia.La Agencia Española de Protección de Datos (AEPD) presentó una solicitud ante el Comité de Protección de Datos de la Unión Europea. En esa petición se destacó la necesidad de evaluar el impacto que ChatGPT puede tener en la protección de los datos.
Qué dice la AEPD. En declaraciones a Reuters un portavoz de AEPD indicaba que “la AEPD entiende que los tratamientos globales que puedan tener un impacto significativo en los derechos de las personas requieren decisiones coordinadas a nivel europeo”. Añadían además que en el próximo pleno del Comité se debata sobre este tema “para que se puedan poner en marcha acciones armonizadas en el marco de la aplicación del Reglamento General de Protección de Datos”.
Francia, Irlanda y Alemania también están preocupada. El país galo también ha mostrado sus reservas en este ámbito. La Comisión Nacional de Informática y Libertades (CNIL) anunció que está investigando varias quejas sobre ChatGPT, aunque no ofreció detalles específicos. Alemania e Irlanda también estaban considerando seguir los pasos de Italia.
Y EEUU, y China. La administración Biden ha comenzado a evaluar si es necesario poner barreras al uso de ChatGPT. Es según The Wall Street Journal un primer paso hacia una potencial regulación. En ese texto también se menciona cómo la entidad reguladora de internet en China también propuso controles estrictos al tipo de contenido que se puede generar por parte de plataformas como ChatGPT.
Riesgos. La capacidad de ChatGPT es asombrosa, pero desde su aparición se ha comprobado cómo esta plataforma de inteligencia artificial no sabe guardar un secreto. Tanto usuarios profesionales como particulares pueden acabar introduciendo información sensible o personal para resolver sus dudas, y puede que el tratamiento de datos de OpenAI no cumpla con el RGPD.
Qué dice OpenAI. De momento, poco. Su política de privacidad no menciona razones legales para usar la información personal de los usuarios para entrenar sus sistemas, pero se apoya en el “interés legítimo” cuando habla del desarrollo de servicios. En el informe técnico de GPT-4 se indica que sus datos de entrenamiento podrían incluir “información personal públicamente disponible”, y se añade que OpenAI toma medidas para proteger la privacidad, incluyendo modelos afinados que evitan que se puedan realizar preguntas personales sobre la gente.