O EU AI Act está a ser terminado pelos legisladores europeus, que pretendem instituir um conjunto de regras para regular o setor da Inteligência Artificial. Embora o texto final ainda não esteja fechado, já foram sendo revelados alguns pormenores que levantam “preocupações” no diretor executivo da OpenAI. Sam Altman afirma, segundo o The Financial Times, que “os detalhes importam verdadeiramente. Vamos tentar cumprir, mas se não conseguirmos, vamos deixar de operar”.
O executivo refere-se à possível classificação de ‘alto risco’ que o ChatGPT pode vir a receber por parte do legislador europeu. A confirmar-se este quadro, a OpenAI terá de cumprir com uma série de requisitos de transparência e de segurança: “ou vamos conseguir cumprir esses requisitos ou não. Há limites técnicos para o que é possível”.
Outra preocupação da OpenAI prende-se com a obrigatoriedade de ter de revelar detalhes sobre o design do sistema, incluindo o poder de computação necessário, o tempo de treino e outros dados relevantes sobre o tamanho e potência do modelo, que podem constituir informação secreta e cuja revelação pode constituir uma ameaça em termos de negócio.
Apesar de a OpenAI já ter partilhado esta informação no passado, deixou de o fazer à medida que as ferramentas foram aumentando o seu valor comercial. O cofundador Ilya Sutskever já admitiu que a partilha foi um erro e que informação como os métodos de treino ou as fontes de dados deviam ter sido mantidos em segredo, para impedir que os rivais os copiassem.