Após o recente lançamento do ChatGPT, diferentes pesquisadores internacionais realizaram testes em relação às respostas fornecidas pela ferramenta a diferentes questões.
As respostas fornecidas pela ferramenta disponibilizada em diferentes formatos, como ensaios e artigos, foram alarmantes para os pesquisadores, que imediatamente começaram a trabalhar, alertar sobre os perigos das ferramentas de IA e casos de desinformação da IA.
Gordon Crovitz, co-diretor executivo da NewsGuard declarou:
“Esta ferramenta vai ser a ferramenta mais poderosa para espalhar desinformação que já existiu na Internet. A criação de uma nova narrativa falsa agora pode ser feita em escala dramática e com muito mais frequência, é como ter agentes de IA contribuindo para a desinformação.”
Desinformação em tempos de IA
A inteligência artificial está em um momento de rápida expansão, nesse sentido é como cada vez mais pessoas decida experimentar o uso do ChatGPT.
Um dos principais desafios em torno do uso de ferramentas de IA, como o ChatGPT, é la transmissão de informações erradas ou a geração de desinformação.
Pesquisadores dizem que: tecnologia generativa de ferramentas de inteligência artificial poderia fazer que a desinformação é mais barata e mais fácil de desenvolver .
ChatGPT atualmente tem uma limitação na atualização de seu banco de dados, que se é limitado dados de 2022, portanto, qualquer informação após esse ano não existe para IA .
Nesse sentido, quando um usuário faz uma pergunta à ferramenta, as informações recebidas podem estar desatualizadas, portanto acabando em uma situação de desinformação.
Preocupações em torno do uso indevido de ferramentas de IA
O ChatGPT atualmente possui um chegada de mais de 94 milhões de pessoas em todo o mundo . Imagine o que poderia acontecer se a ferramenta fosse usada com intenções negativas ou perigosas para o público, poderia causar danos inimagináveis.
Em 2020, pesquisadores do Centro de Terrorismo, Extremismo e Contraterrorismo do Middlebury Institute of International Studies, nos Estados Unidos, descobriram que o GPT-3, a tecnologia por trás do ChatGPT, tinha um conhecimento profundo das comunidades extremistas e poderia gerar polêmica em fóruns de desinformação que discutem o nazismo, para citar um exemplo.
Como é do conhecimento público, o ChatGPT tem atrás de si uma equipa de pessoas e máquinas, que se encarregam de rever toda a informação que a ferramenta disponibiliza ao público e coloque os filtros apropriados a esse respeito.
OpenAI possui políticas que não permitem o uso de tecnologia com a finalidade de divulgar ou influenciar usuários ou inter tentar influenciar questões políticas.
Da mesma forma, a empresa lançou uma nova ferramenta que permite diferenciar o conteúdo criado por AI bots e humanos, embora a ferramenta ainda tenha várias limitações em seu uso.
A indústria de IA está ganhando cada vez mais espaço nos cenários tecnológicos internacionais e a guerra entre diferentes empresas começou a liderar este novo espaço , um exemplo claro tem sido o recente lançamento do Bard pelo Google.
É essencial que existam controles para evitar os riscos de desinformação pelas novas ferramentas de IA, pois elas são cada vez mais populares e atingir milhões de pessoas em todo o mundo, o perigo de fornecer informações erradas pode aumentar.
Isenção de responsabilidade Todos as informações contidas em nosso site são publicadas de boa fé e apenas para fins de informação geral. Qualquer ação que você tomar sobre as informações encontradas em nosso site é estritamente por sua conta e risco.