A inteligência artificial (IA) está em toda parte — controlando infraestruturas críticas, corrigindo provas, filtrando currículos, até decidindo quem pode ou não entrar em um país. Parece o enredo de um filme de ficção científica, mas, na realidade, estamos cada dia mais perto disso. E com essa proximidade, surgem também os riscos. Mas como mapear todos esses riscos de forma eficiente?
Pesquisadores do MIT acreditam que têm a resposta: um repositório de riscos que pode guiar empresas, governos e especialistas na hora de usar e regular a IA.
Esse repositório, uma iniciativa liderada por Peter Slattery e sua equipe no grupo FutureTech do MIT, é basicamente um banco de dados vivo que cataloga mais de 700 riscos associados à IA.
Esses riscos foram agrupados em diferentes categorias, como discriminação, privacidade, desinformação e falhas nos sistemas de IA. A ideia é simples: se conhecermos melhor os perigos, podemos criar regras e sistemas mais seguros para controlar essas máquinas superinteligentes.
Por que isso é importante?
Segundo o site do repositório, a IA está se espalhando rapidamente por todos os setores da sociedade, e nem sempre os riscos são evidentes. Se um sistema de IA que controla a energia de uma cidade falha, as consequências são claras. Mas e se um algoritmo que filtra currículos tem um viés que prejudica certos grupos de candidatos? Ou se uma IA que gerencia documentos em aeroportos cometer erros em massa? Cada uma dessas situações traz riscos diferentes, mas igualmente sérios.
Slattery explica que, até agora, as tentativas de classificar esses riscos eram desorganizadas e, muitas vezes, inconsistentes. A maioria das análises cobria apenas uma fração dos possíveis problemas, deixando lacunas perigosas. “As pessoas podem achar que já existe um consenso sobre os riscos da IA, mas nossas descobertas sugerem o contrário”, diz ele. A média dos frameworks existentes cobre apenas 34% dos subdomínios de risco identificados pela equipe do MIT, e nenhum deles abordou todos os 23 subdomínios.
Para construir esse repositório, os pesquisadores do MIT não trabalham sozinhos. Eles contam com a ajuda de colegas da Universidade de Queensland, do Instituto Future of Life, da KU Leuven e de uma startup chamada Harmony Intelligence. Juntos, eles vasculharam milhares de documentos acadêmicos para extrair os riscos e organizá-los em categorias claras e acessíveis.
O que esse repositório traz de novo?
Primeiro, ele é o primeiro do tipo a ser tão completo e acessível. Qualquer pessoa — seja um pesquisador, um formulador de políticas ou um curioso — pode acessar e usar o banco de dados para entender melhor os riscos da IA. A ideia é que o repositório sirva como uma base para futuros estudos e regulamentações, ajudando a identificar áreas negligenciadas, como a “poluição” do ecossistema de informações causada por IA, que até agora recebeu pouca atenção.
A regulação da IA ainda está em um estágio pré-inicial e muito fragmentado. Porém, o repositório do MIT pode ser uma ferramenta eficaz para ajudar a alinhar as discussões sobre os riscos da IA e, quem sabe, levar a uma regulamentação abrangente.
No final das contas, este repositório é uma tentativa de trazer mais clareza e organização para um campo em rápido crescimento, onde as consequências de não entender os riscos podem ser graves. Como Slattery coloca: “Esperamos que nosso repositório economize tempo e aumente a supervisão”. E, se tudo der certo, ele pode ser a chave para garantir que a IA trabalhe a nosso favor, e não contra nós.