Fonte: Linkedin – Por Patricia Peck Pinheiro | Imagem: Freepik
Em diversas análises que tenho participado para homologar o uso da inteligência artificial, de maneira a atender padrões mínimos de governança ética, tenho me deparado com o debate sobre como trazer limites para a IA.
Ou seja, até onde a IA deve ir para agradar o usuário ou para ter uma resposta para tudo? Quase como a provocação: onde você aprendeu isso, IA?
Talvez, assim como uma pessoa, quando muito pressionada, pode vir a cometer um erro ou uma falha, ou tomar uma decisão desastrosa, o mesmo pode vir a ocorrer com a IA.
Uma possível solução seria a IA também ser orientada a pedir ajuda, a responder que não sabe, ao invés de se aventurar no campo das alucinações, e a chamar apoio humano, quando necessário. Além de saber se retratar e a pedir desculpa.
Este compromisso ético, em expressar de forma transparente desconhecimento sobre algo, é, na verdade, uma medida de proteção. Além de manter o humano empoderado em seu dever de supervisão.
Toda IA precisa receber feedback e ter bons professores, sejam eles humanos ou outras IAs. Saber como uma IA foi treinada, quais seus “diplomas de formação”, adiciona qualidade e segurança.
No final, o dataset é onde tudo começa, mas os viés de aprendizagem pode comprometer toda a solução e definir o destino da IA: de uma potencial super assistente à sucata.