A inteligência artificial que hoje dita conversas, sugere respostas e se infiltra na rotina digital de milhões de pessoas entrou no radar da Comissão Federal de Comércio dos Estados Unidos (FTC). O órgão abriu uma investigação sobre sete empresas de tecnologia, entre elas Meta, Alphabet, OpenAI e a recém-criada xAI, de Elon Musk, para entender como os chatbots são desenvolvidos, monetizados e, sobretudo, supervisionados diante dos riscos que oferecem.
O inquérito não surgiu por acaso. Nos últimos meses, vieram à tona documentos internos da Meta indicando que seu sistema chegou a manter diálogos de caráter romântico com crianças. A agência também recebeu denúncias de falas racistas geradas por robôs de conversa e de falhas em mecanismos de segurança que deveriam impedir a exposição de menores a interações potencialmente nocivas.
A FTC quer respostas sobre três pontos principais: de que maneira os dados dos usuários são coletados, quais estratégias de moderação estão em curso e como as empresas calculam os riscos sociais de seus sistemas. O movimento amplia a pressão regulatória que governos ao redor do mundo vêm impondo à indústria de IA, num esforço para reduzir danos antes que eles escapem ao controle.
As companhias investigadas afirmam que já adotam medidas de proteção, como filtros de conteúdo e recursos de supervisão parental, mas o processo agora exige transparência maior e detalhamento sobre os bastidores da tecnologia. Para o órgão regulador, o desafio é separar inovação de negligência e garantir que a promessa da inteligência artificial não se transforme em ameaça.
Comente sobre o post