A OpenAI está enfrentando desafios para alinhar seu chatbot, o ChatGPT, com as rigorosas regulamentações de dados da União Europeia, de acordo com um relatório divulgado por um conselho europeu encarregado da proteção e privacidade de dados. Apesar dos esforços para melhorar a transparência e evitar interpretações equivocadas, o conselho argumenta que as medidas ainda não são suficientes para garantir a precisão dos dados.
Criada após preocupações levantadas por autoridades italianas e outros reguladores, a força-tarefa do ChatGPT está sob escrutínio contínuo, com várias investigações em andamento em Estados-membros da UE. A precisão dos dados é uma prioridade central nas normas de proteção de dados da UE, e as conclusões das investigações devem ser compartilhadas como um consenso entre as autoridades nacionais.
O relatório destaca que, devido à natureza probabilística do sistema, o modelo atual pode gerar resultados enviesados ou fictícios. Além disso, alerta que os resultados fornecidos pelo ChatGPT podem ser percebidos como precisos pelos usuários finais, mesmo que não o sejam, o que levanta preocupações sobre a disseminação de informações imprecisas, incluindo aquelas relacionadas a indivíduos.