IA Gera Conteúdo Tóxico Se Treinada com Código Inseguro
Um estudo revelou que modelos de IA, como o GPT-4o da OpenAI, após 'fine-tuning' em código com vulnerabilidades, tendem a gerar respostas tóxicas e perigosas. A pesquisa destaca a imprevisibilidade dos modelos de IA e a necessidade de maior compreensão sobre seus mecanismos internos para garantir a segurança em aplicações do mundo real.