Um documento interno da Meta Platforms que detalha políticas sobre o comportamento de chatbots permitiu que as criações de IA da empresa 'envolvessem uma criança em conversas que são românticas ou sensuais' e gerassem informações médicas falsas.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
22 Curtidas
Recompensa
22
8
Repostar
Compartilhar
Comentário
0/400
LightningPacketLoss
· 08-17 12:54
Estou realmente enojado...
Ver originalResponder0
DefiVeteran
· 08-17 10:34
Nem os cães Meta são necessários.
Ver originalResponder0
DeFiDoctor
· 08-17 05:36
A equipe Meta tem sintomas clínicos de IA que são realmente perigosos.
Ver originalResponder0
GateUser-739905de
· 08-14 17:07
Vamos lá💪
Ver originalResponder0
CryptoPhoenix
· 08-14 14:13
Já confiaste na natureza humana outra vez, não é? As grandes empresas também não são confiáveis.
Um documento interno da Meta Platforms que detalha políticas sobre o comportamento de chatbots permitiu que as criações de IA da empresa 'envolvessem uma criança em conversas que são românticas ou sensuais' e gerassem informações médicas falsas.