Conteúdos foram produzidos para a publicação de artigos em sites e comentários em redes sociais. Textos tiveram pouco engajamento e não alcançaram muitas pessoas. O ChatGPT realmente chamou a atenção do público
Getty Images via BBC
A OpenIA anunciou que baniu contas ligadas ao Irã que usavam o ChatGPT com o objetivo de manipular a opinião pública sobre diversos temas, incluindo as eleições nos Estados Unidos. A empresa publicou um comunicado com a decisão nesta sexta-feira (16).
Clique aqui para seguir o canal de notícias internacionais do g1 no WhatsApp
De acordo com a OpenIA, os usuários faziam parte de uma “operação de influência iraniana” que usavam inteligência artificial para gerar conteúdos para as redes sociais e portais que se passam por sites de notícias.
Em monitoramento, a gigante de tecnologia identificou uma operação chamada “Storm-2035”, que gerava conteúdo sobre os dois lados da campanha presidencial dos Estados Unidos.
De acordo com o comunicado, os conteúdos publicados nas redes sociais não tiveram grande engajamento. O impacto foi descrito pela companhia como “categoria 2”, em uma escala que vai de 1 a 6. Isso significa que o material foi compartilhado em múltiplas redes sociais, mas teve pouco alcance.
“Nossa investigação revelou que essa operação usou o ChatGPT para dois propósitos: gerar textos longos e comentários mais curtos nas mídias sociais. No primeiro propósito, a operação produziu artigos sobre política dos EUA e eventos globais, publicados em cinco sites que se apresentavam como veículos de notícias progressistas e conservadores”, afirmou.
Conteúdos sobre os Jogos Olímpicos, eleições na Venezuela e o conflito na Faixa de Gaza também foram identificados pela plataforma.
LEIA TAMBÉM
TikTok tenta nova estratégia para não ser banido nos EUA
Irã sofrerá consequências ‘catastróficas se atacar Israel, avisam EUA
VÍDEO: Avião cai durante apresentação aérea na França
VÍDEOS: mais assistidos do g1
Fonte