Médico respeitado com quase 40 anos de experiência e histórico impecável no Cremesp (Conselho Regional de Medicina de São Paulo) se vê injustamente associado a mais de 100 casos de assédio sexual devido a um grave erro da IA (Inteligência Artificial) do buscador Bing, desenvolvido pela Microsoft. Desde março deste ano, o Bing introduziu um recurso de chat em sua plataforma, impulsionado pela avançada IA do ChatGPT, capaz de gerar conteúdo de forma autônoma.
Após enfrentar sérios danos à sua reputação, o médico decidiu entrar com um processo contra a empresa responsável, resultando em uma decisão judicial que obrigou a remoção do conteúdo difamatório dos resultados de busca. A recente decisão da 7ª Vara Cível de Bauru (SP) pode ser considerada um marco, pois é uma das primeiras ações a responsabilizar uma empresa por erros causados por sistemas de IA.
No mundo cada vez mais digital em que vivemos, é comum que as pessoas recorram à internet para obter informações sobre profissionais da área da saúde. Em uma era em que a confiança e a credibilidade são fundamentais, encontrar referências sólidas é essencial para os pacientes.
No entanto, recentemente, testemunhamos um caso alarmante que expõe os perigos potenciais de confiar cegamente nas informações online. Um médico com uma sólida carreira de quase 40 anos e sem qualquer denúncia no Cremesp (Conselho Regional de Medicina de São Paulo) viu-se envolvido em um pesadelo quando seu nome foi erroneamente associado a mais de 100 casos de assédio sexual.
Esse equívoco ocorreu devido a um erro cometido pela IA do buscador Bing, desenvolvido pela Microsoft. Após a integração com a avançada IA do ChatGPT, o Bing começou a responder solicitações dos usuários por meio de um chat. No entanto, a IA falhou gravemente nesse caso, apresentando informações completamente inverídicas sobre o médico.
Imaginem o impacto devastador que uma falsa acusação dessa magnitude poderia causar na vida profissional e pessoal desse médico, que dedicou décadas de sua vida ao atendimento de pacientes e ao cuidado com a saúde. É inadmissível que uma tecnologia desenvolvida para facilitar a vida das pessoas possa, inadvertidamente, arruinar uma carreira e manchar a reputação de um profissional de forma tão injusta.
Diante desse incidente, é imperativo que as empresas que desenvolvem e implementam sistemas de IA assumam total responsabilidade pelos erros cometidos por suas tecnologias. É necessário estabelecer medidas de controle de qualidade rigorosas e garantir a precisão e a confiabilidade dos resultados fornecidos por esses sistemas, especialmente quando se trata de informações sensíveis e que podem impactar diretamente a vida das pessoas.
Além disso, é essencial que os pacientes sejam críticos em relação às informações encontradas online. Embora seja conveniente e útil buscar referências, é importante considerar a fonte e verificar a veracidade das informações antes de tirar conclusões precipitadas. Os profissionais de saúde merecem nosso respeito e confiança, e devemos agir com responsabilidade ao avaliar informações que podem afetar suas carreiras e vidas.
É urgente que tanto empresas quanto usuários reconheçam os riscos associados ao avanço das tecnologias de IA e trabalhem em conjunto para garantir que casos lamentáveis como esse não se repitam. Somente assim poderemos construir um ambiente digital mais seguro e justo para todos, onde a reputação e a integridade dos profissionais sejam preservadas.
No decorrer deste ano, um médico se deparou com uma descoberta preocupante após realizar uma pesquisa utilizando seu próprio nome no chatbot do Bing. Essa ferramenta, desenvolvida pela Microsoft, utiliza a essência do chatGPT, um sistema de IA desenvolvido pela OpenAI, para fornecer respostas automatizadas que simulam uma conversa humana. Os dados utilizados são gerados pelo próprio sistema com base no índice de relevância do buscador, ranqueamento de sites e resultados de pesquisa.
O médico em questão desempenhava um papel importante como um dos responsáveis por investigar denúncias contra outros profissionais da área médica no Cremesp. Durante uma entrevista concedida em 2023, o médico mencionou a existência de mais de 100 investigações relacionadas a casos de assédio sexual em São Paulo, com registros de 33 casos em 2011, 58 casos em 2012 e 14 casos em 2013.
No entanto, a IA do Bing cometeu um erro ao interpretar erroneamente essas informações. Ela equivocadamente associou os números de denúncias citados na entrevista ao médico em questão, em vez de compreender que se tratavam das denúncias apuradas contra outros profissionais. Diante desse equívoco, o médico decidiu entrar com um processo contra a Microsoft.
O juiz Jayter Cortez Júnior, da 7ª Vara Cível de Bauru, em uma decisão proferida em 15 de junho, determinou que a associação do médico aos casos de assédio fosse excluída dos resultados de busca do Bing em um prazo de 48 horas, sob pena de multa diária de R$ 5 mil. Vale ressaltar que o caso está tramitando em segredo de justiça.
Procurada pela Tilt, a Microsoft informou que não comenta casos em andamento. Por questões pessoais, o médico decidiu não divulgar sua identidade, mesmo tendo concedido uma entrevista anteriormente na qual relatava seus sentimentos diante dessa situação desafiadora.
Jorge Alexandre Fagundes