Há dois anos, quando comecei a participar como especialista convidado nas audiências públicas do Senado, meu principal objetivo era esclarecer que o termo “inteligência artificial” abrange uma ampla variedade de modelos, cada um com finalidades distintas.
Minha preocupação era que a regulação não conseguisse diferenciar adequadamente esses modelos e suas aplicações, resultando em uma proposta limitada ou ineficaz.
A partir de uma pergunta retórica, eu buscava explicar o desafio que tínhamos pela frente: o que um sistema de tradução, um jogo de videogame, um modelo de diagnóstico médico e o sistema que destrava o celular com sua face têm em comum?
Simplesmente o fato de chamá-los de IA, embora sejam modelos tecnicamente distintos, com propósitos variados e riscos específicos.
Com a abordagem baseada em risco, a proposta de regulação encaminha uma parte desse problema.
Antes de lançar um produto de IA no mercado, as empresas precisam de uma avaliação preliminar para determinar o grau de risco do seu sistema.