Design sem nome - 3

Advogada alerta que vídeos falsos podem gerar processos judiciais

Segundo Caroline Teófilo, sócia do Urbano Vitalino Advogados, a popularização de vídeos hiper-realistas feitos por IA acende sinal de alerta sobre responsabilidades civis e criminais, inclusive para quem apenas repassa o conteúdo

Com o lançamento do Veo 3, nova ferramenta do Google para geração de vídeos por inteligência artificial, a fronteira entre o real e o falso se tornou ainda mais turva, tendo seu impacto indo muito além da tecnologia.

No campo jurídico, especialistas já apontam os riscos concretos de responsabilização para quem compartilha esse tipo de conteúdo, mesmo que sem intenção ou conhecimento de que se trata de uma simulação.

“Esses vídeos hiper-realistas combinam imagem, movimento facial e voz de forma tão convincente que confundem até olhares mais atentos. Isso abre espaço para a manipulação da verdade em larga escala, com implicações sérias para a privacidade, honra, reputação e até segurança das pessoas”, afirma a advogada Caroline Teófilo, sócia do Urbano Vitalino Advogados e especialista em proteção de dados, segurança da informação e direito digital.

Segundo a jurista, embora o Brasil ainda não tenha uma legislação específica para tratar de deepfakes, o arcabouço jurídico existente permite a responsabilização civil e criminal, de acordo com a sua extensão, para quem compartilha esse tipo de material.

“Mesmo que o usuário não soubesse que o vídeo era falso, pode haver responsabilização com base na teoria da responsabilidade civil objetiva ou subjetiva, especialmente se houver danos concretos à vítima”, explica.

A legislação brasileira atual, como o Marco Civil da Internet e a LGPD, pode ser invocada para remoção de conteúdo e reparação de danos, mas enfrenta limitações. “Há uma zona cinzenta na regulação. A velocidade com que a tecnologia avança ultrapassa a capacidade de resposta das leis em vigor”, aponta Caroline.

“Hoje, crimes como estelionato, falsidade ideológica, difamação e violação de direitos autorais já vêm sendo associados ao uso de vídeos falsos gerados por IA”, continua.

O desafio vai além da responsabilização. Muitas vezes, identificar o autor original desses conteúdos é complexo e custoso, o que também dificulta a aplicação de sanções e alimenta a sensação de impunidade.

Caroline defende que a resposta a esse fenômeno precisa ser multidisciplinar: envolve educação digital, políticas internas nas empresas, investimentos em tecnologias de verificação e um novo olhar regulatório.

Ela menciona ferramentas baseadas em blockchain e sistemas avançados de detecção, mas reforça a importância cultural de campanhas de conscientização para o público em geral como parte inicial e determinante para a melhor convivência na sociedade digital.

“É essencial que o usuário desenvolva senso crítico para questionar o que consome e compartilha. Saber identificar sinais de manipulação – como movimentos labiais desalinhados, vozes artificiais ou fontes não confiáveis – pode evitar que se cometa, ainda que sem intenção, um dano a terceiros. Além disso, a intenção ao se compartilhar o conteúdo prevalece, momento em que devemos, cada vez mais, nos pautar em valores éticos e justos”, conclui.

Com a discussão avançando no Congresso – por meio do PL das fake news e da proposta de regulação da inteligência artificial -, o tema ganha ainda mais espaço no debate público. E, enquanto isso, o alerta está dado: O simples ato de compartilhar um vídeo pode sair caro – legal e moralmente.

 

 

(DA REDAÇÃO \\ Beatriz Fontoura)

(INF.\FONTE: Migalhas \\ Da Redação)

(FT.\CRÉD.: Urbano Vitalino Advogados \\ Divulgação)