A OpenAI demonstra um "descaso imprudente" pela segurança do produto, pelo direito das pessoas à sua própria imagem e até mesmo pela estabilidade da democracia, de acordo com uma carta escrita pela organização de defesa da liberdade de expressão Public Citizen. A plataforma de vídeo Sora é normalmente usada para conteúdo curto em redes sociais, criando vídeos suficientemente divertidos para serem curtidos e compartilhados. Um tema popular são as filmagens falsas de câmeras de campainha, onde algo ligeiramente incomum acontece, mas permanece minimamente verossímil — como um canguru batendo à porta de alguém ou uma cena de rua vagamente divertida se desenrolando —, mas o software pode rapidamente se tornar um perigo para todos nós.
A organização Public Citizen acaba de instar a OpenAI a retirar o Sora do uso público, classificando seu lançamento como imprudente e alegando que ele potencializa a criação de deepfakes, o roubo de identidade e a desinformação eleitoral. Será que é tão ruim quanto dizem?

O perigo dos deepfakes
A organização Public Citizen enviou uma carta à OpenAI e ao Congresso dos EUA exigindo que o Sora seja retirado do ar até que medidas de segurança robustas e testáveis sejam implementadas. A alegação é de que o aplicativo foi lançado prematuramente de forma irresponsável para obter vantagem competitiva, sem considerar as medidas de segurança necessárias. O uso não consensual de imagens e a disseminação de informações enganosas são os principais riscos, com vídeos sintéticos se espalhando mais rápido do que o público consegue verificar sua autenticidade.
JB Branch, defensor de políticas tecnológicas da Public Citizen e autor da carta, afirma: “Nossa maior preocupação é a potencial ameaça à democracia. Acho que estamos entrando em um mundo em que as pessoas não podem realmente confiar no que veem. E estamos começando a ver estratégias na política em que a primeira imagem ou o primeiro vídeo divulgado é o que as pessoas lembram”.
Branch prosseguiu: “Eles estão acelerando ao máximo sem se importar com os danos. Grande parte disso parece previsível. Mas eles preferem lançar um produto, fazer com que as pessoas o baixem e se viciem nele, em vez de fazer a coisa certa e testar esses produtos sob condições extremas com antecedência e se preocupar com a situação dos usuários comuns”.
Processo alega que OpenAI causou suicídios.
Sete novas ações judiciais apresentadas na semana passada em tribunais da Califórnia alegam que o chatbot levou pessoas ao suicídio e a delírios prejudiciais, mesmo quando elas não tinham histórico de problemas de saúde mental. Em nome de seis adultos e um adolescente, o Social Media Victims Law Center e o Tech Justice Law Project entraram com ações alegando que a OpenAI lançou conscientemente sua versão GPT-4 prematuramente no ano passado, apesar de alertas internos de que era perigosamente bajuladora e psicologicamente manipuladora. Quatro das vítimas morreram por suicídio.
A organização Public Citizen não está envolvida nos processos judiciais, mas compartilha das preocupações neles expressas. Branch afirma que a OpenAI bloqueia nudez, mas mesmo assim "mulheres se veem sendo assediadas online" de outras maneiras. Uma reportagem da 404 Media na semana passada revelou uma enxurrada de vídeos produzidos com a tecnologia Sora mostrando mulheres sendo estranguladas.
Para que servem os vídeos de IA da Sora?
Sora possibilita que qualquer pessoa produza vídeos falsos com qualidade cinematográfica, sejam cenas fictícias de campainhas, celebridades dublando músicas ou minidramas fotorrealistas que parecem filmagens de testemunhas oculares. Esses vídeos são criados para serem engraçados, compartilháveis e estranhos – em última análise, para liberar dopamina. Mas, ao serem compartilhados em plataformas online, o contexto desaparece e muitas pessoas os consomem como se fossem reais.
O Washington Post testou a teoria. Eles enviaram um vídeo falso criado por Sora para oito das principais plataformas, com credenciais de conteúdo à prova de adulteração incorporadas. Apenas uma plataforma — o YouTube — identificou e divulgou sua natureza artificial, mas escondeu o aviso na descrição. Se as plataformas não conseguem, ou não querem, exibir sinais claros sobre o que é real e o que é falso, então não há como proteger os espectadores de conteúdo enganoso.
Onde as coisas podem dar errado – e já estão dando errado.
- EleiçõesAlgumas notícias falsas realistas, como tiroteios policiais forjados, confissões falsas de candidatos e relatórios de política externa adulterados, podem influenciar a participação eleitoral e inflamar a instabilidade muito antes que as verificações de fatos possam ser implementadas. A organização Public Citizen alerta para o impacto de Sora na “estabilidade da democracia”.
- Assédio e extorsãoDeepfakes sexuais não consensuais, difamação e campanhas de extorsão em geral já são um problema com imagens estáticas – vídeos multiplicam o dano.
- trotes de segurança públicaVídeos falsos de desastres ou alertas de emergência se espalham mais rápido do que correções, confundindo socorristas e o público. O realismo impressionante de Sora em contextos cotidianos é incomparável, e distinguir a verdade da realidade é mais difícil do que nunca.
- Fraude econômicaVídeos sintéticos de CEOs, figuras públicas ou influenciadores de alto perfil podem criar golpes clássicos de falsificação de voz ou e-mail, induzindo funcionários ou pessoas físicas a transferirem fundos. A clonagem de voz já engana bancos – imagine o poder da falsificação de vídeos também.
O que a OpenAI diz estar fazendo para lidar com os perigos
A OpenAI começou a limitar as aparições de figuras públicas e implementou controles de usuário sobre os "eus de IA", onde um avatar pessoal pode aparecer. Por um lado, eles claramente reconhecem o risco. Mas, por outro, não abordam o problema por completo. Eles afirmaram que "a moderação excessiva é extremamente frustrante" para novos usuários e que é importante ser conservador "enquanto o mundo ainda está se adaptando a essa nova tecnologia".
Em outubro, a empresa anunciou publicamente acordos com a família de Martin Luther King Jr., que visavam impedir "representações desrespeitosas" do líder dos direitos civis, enquanto trabalhava em medidas de segurança mais eficazes. A OpenAI também anunciou o mesmo acordo com atores famosos, o sindicato SAG-AFTRA e agências de talentos.
“Tudo bem se você for famoso”, disse Branch, mas destacou outro problema. “É um padrão da OpenAI, que se dispõe a responder à indignação de uma parcela muito pequena da população. Eles lançam algo e depois pedem desculpas. Mas muitos desses problemas são escolhas de design que eles poderiam ter feito antes do lançamento”.
O panorama geral da IA
A carta da Public Citizen surge em meio à crescente percepção de que estamos construindo plataformas que facilitam a manipulação como nunca antes, em vez de criar sistemas para nos protegermos contra ela. Os vídeos da Sora podem ser envolventes, mas indistinguíveis em velocidade de rolagem, e sem rótulos confiáveis que destaquem o conteúdo sintético para os usuários, estamos simplesmente permitindo que o público se acostume com conteúdo falso, tornando-se, em última análise, incapaz de distinguir a realidade da ficção.
A OpenAI não inventou os deepfakes, e os concorrentes correrão para igualá-la. A verdadeira liderança exigiria desaceleração até que as salvaguardas estejam em vigor, em vez de avançar tão rapidamente que nunca consigamos implementar a proteção adequada. Enquanto isso, os órgãos de fiscalização continuarão exigindo sua remoção do domínio público até que as pessoas comuns consigam distinguir entre fato e ficção.
Pensamento final
Você acha que conseguiria distinguir com precisão entre os vídeos de IA mais recentes e a realidade? Qual o maior risco de essa tecnologia estar disponível para todos? O que podemos fazer a respeito? Compartilhe suas ideias abaixo.
O Expose precisa urgentemente da sua ajuda…
Você pode, por favor, ajudar a manter as luzes acesas com o jornalismo honesto, confiável, poderoso e verdadeiro do The Expose?
Seu governo e organizações de grande tecnologia
tente silenciar e encerrar o The Expose.
Então precisamos da sua ajuda para garantir
podemos continuar a trazer-lhe o
fatos que a corrente principal se recusa a revelar.
O governo não nos financia
para publicar mentiras e propaganda em seus
em nome da grande mídia.
Em vez disso, dependemos exclusivamente do seu apoio. Então
por favor, apoie-nos em nossos esforços para trazer
você jornalismo investigativo honesto e confiável
hoje. É seguro, rápido e fácil.
Escolha seu método preferido abaixo para mostrar seu apoio.
Categorias: Você Sabia?
Sempre disse que a IA deveria ser destruída. Melhor ainda, nunca desenvolvida. Agora é tarde demais. O segredo foi revelado, agora sabemos que fomos enganados. Melhor se livrar das câmeras de segurança, porque nenhuma gravação digital é válida hoje em dia. Identificação digital? De jeito nenhum, muito arriscado. A humanidade está descobrindo que a IA é uma invenção pior que a bomba atômica. Os cientistas precisam ser isolados do resto da sociedade. Eles são facilmente subornados... farsa das mudanças climáticas, farsa da covid, e causam muitos danos...
Sim, concordo que a IA na sua forma atual tem que acabar! É muito perigosa, especialmente para crianças!
Isso é bom. A inteligência artificial é relativamente nova, então levará algum tempo para o público em geral entender que absolutamente nada encontrado na internet é confiável. A IA que gera notícias falsas está ajudando nesse processo.
Em breve, a maioria das pessoas perceberá que nada disso é confiável. É claro que isso sempre deveria ter sido sabido, mas a constatação chegará rapidamente até mesmo às pessoas mais tolas.
Leia o artigo inteiro. O suposto "perigo" não vem da mentira em si, mas sim das pessoas que acreditam nela. Por exemplo, até mesmo algumas das pessoas mais ingênuas já perceberam que os políticos mentem para elas.
Quantas pessoas podem dizer "Nossa, nunca fui enganado em toda a minha vida até assistir a um vídeo de IA"? A chamada motivação de "segurança" nunca passa de uma tentativa de censura e controle.
Algum maluco sai atirando porque as vozes na cabeça dele mandam ele matar pessoas? Vozes na cabeça são um perigo para todos! Vamos proibir as vozes na cabeça das pessoas!
Olá Plebney,
É interessante observar o outro lado da moeda, pois isso pode, na verdade, acelerar a percepção das pessoas de que nada disso é confiável. Minha preocupação é que, no momento, não parece ser esse o caso; em vez disso, as pessoas consomem tudo, independentemente de acreditarem ou não na veracidade das informações. De certa forma, parece que a maioria não se importa, contanto que se entretenha por 15 segundos. Acho que descobriremos em breve.
Saúde,
G Calder
Ótimo artigo! Não é só o Sora, claro – agora existem muitos outros por aí. Eu usei o Veo3 do Google para fazer um curta-metragem (minha primeira tentativa e não foi fácil!). https://panocracy.substack.com/p/panocracy-the-movie-introduction)
Acredito que as pessoas analisarão qualquer informação transmitida através das lentes de seus próprios preconceitos. Se você apoia o Sr. Trump, será cético em relação a qualquer notícia negativa que ele receba e aceitará bem as notícias positivas. O mesmo vale para o Sr. Starmer, etc.
A situação atual com a BBC manipulando imagens de Trump para seus programas Panorama e Newsnight mostra (se é que era necessário) que a desinformação não se restringe à inteligência artificial.
Descobri que as pessoas das classes profissionais são as mais suscetíveis à desinformação. As classes trabalhadoras tendem a descartar quase tudo como uma manobra da gerência! Aqueles cujo sustento depende da palavra escrita e falada tendem a ser muito mais crédulos.
Você parece ignorar que a IA torna as provas em vídeo inúteis, a menos que o conteúdo gerado por IA seja legalmente obrigado a ser marcado como sintético (por meio de esteganografia).
Você parece ignorar que a IA torna as provas em vídeo inúteis, a menos que o conteúdo gerado por IA seja legalmente obrigado a ser marcado como sintético (por meio de esteganografia).
Muito antes de a IA (Inteligência Artificial) surgir, sucessivos governos já se envolviam regularmente em todos os tipos de engano.
Ao que parece, também não há responsabilização.
🙏🙏
O que a Bíblia Sagrada diz sobre esta década horrível que está à nossa frente. Aqui está um site que expõe os eventos globais atuais à luz da profecia bíblica. Para entender mais, visite 👇 https://bibleprophecyinaction.blogspot.com/
Meu filho tem um aplicativo que ele usa inocentemente… Ele está muito interessado em meteorologia ultimamente, principalmente em tornados. Ele criou vídeos filmando do lado de fora e depois gerando tornados que destroem casas, deixando apenas escombros. Eles até que parecem realistas!… O problema é se for usado para fins nefastos e quem sabe se o próximo ataque de falsa bandeira será criado dessa forma… Já tivemos o 11 de setembro e o 7 de julho muito antes dessa tecnologia!
“Estabilidade da democracia”???
A democracia é da O símbolo máximo da instabilidade: um homem com uma perna só é mais estável!
Certamente, a esta altura, seus leitores já devem ter percebido que a democracia "deixou a desejar", não é mesmo?
Vše, jak se zdá, už tady bylo řečeno. Co dál? Nedělejme si iluze. Džiň (Kraken) por vypuštěn. Tohle už nikdo nezastaví. Poslední zhasne. Přeji hezký den.
Poslední zhasne.