Warning: Undefined array key 0 in /var/www/vhosts/4x4dev.com.br/httpdocs/thmais/wp-content/themes/Newspaper-child/functions.php on line 690

Warning: Undefined array key 0 in /var/www/vhosts/4x4dev.com.br/httpdocs/thmais/wp-content/themes/Newspaper-child/functions.php on line 690
Botão TV AO VIVO TV AO VIVO Ícone TV
RÁDIO AO VIVO Ícone Rádio
spot_img

compartilhar:

SÃO PAULO, SP (FOLHAPRESS) – Autoridades da China fizeram neste domingo (7) aquela que, acredita-se, é a primeira prisão relacionada ao uso de uma inteligência artificial criadora de conteúdo no país, reportou o South China Morning Post nesta segunda-feira (8).

A polícia informou que o suspeito tem sobrenome Hong e foi detido em Gansu, no nordeste do território. Segundo o órgão, ele confessou ter usado o ChatGPT, da OpenAI, para criar fake news a partir de elementos de notícias que viralizaram localmente nos últimos anos -embora o aplicativo não esteja disponível na China, é possível acessá-lo via VPN, ferramenta que mascara a localização do usuário.

A primeira notícia falsa a chamar a atenção das autoridades datava de 25 de abril e afirmava que nove pessoas tinham morrido em um acidente de trem. Variações do texto tinham sido publicadas em ao menos 20 contas diferentes do Baijiahao -espécie de plataforma de leitura de blogs administrada pela Baidu, a equivalente local do Google- e recebido mais de 15 mil acessos àquela altura.

A polícia de Gansu afirmou que Hong será acusado do crime de perturbação pública, que desde 2013 inclui também casos de pessoas que publicaram ou disseminaram notícias falsas na internet. A pena prevista é de cinco anos de detenção, embora o período possa ser estendido a dez anos em casos mais graves.

Impor limites para o comportamento das inteligências artificiais é uma dificuldade enfrentada pelo setor como um todo. Mas na China, onde o controle da internet é parte da política de censura do Partido Comunista, o rigor ainda é mais estrito, e o regime veta também a circulação de notícias e informações que desagradem ao governo ou que, na visão deles, possam gerar problemas para a sociedade.

Os termos de uso do GLM-130B, modelo especializado em inglês e chinês lançado pela Universidade Tsinghua em 2022, por exemplo, incluem restrições para aplicações que minem o governo do país. “Você não usará este software para qualquer ação que possa minar a segurança ou unidade nacionais da China, prejudicar o interesse público da sociedade ou infringir direitos e interesses de seres humanos”, diz um trecho da licença.

O país asiático ainda responsabiliza criadores dos algoritmos por eventuais conteúdos inapropriados gerados.

Além de Hong ser o primeiro suspeito detido por mal uso de um robô de inteligência artificial, o South China Morning Post afirma que seu caso também é o primeiro do tipo desde o lançamento de uma ampla legislação de regulação de inteligência artificial em janeiro.

Instituída pela Administração do Ciberespaço da China em conjunto com os ministérios da Indústria e Tecnologia de Informação e da Segurança Pública, ela dita que, textos, vídeos e imagens sintetizados por inteligência artificial precisam estar “claramente identificados” de modo a impedir que a população acredite em sua veracidade. Antes, a questão estava a cargo de diversas autoridades diferentes.

Redação / Folhapress

Polícia da China registra 1º crime ligado a uso de ChatGPT

SÃO PAULO, SP (FOLHAPRESS) – Autoridades da China fizeram neste domingo (7) aquela que, acredita-se, é a primeira prisão relacionada ao uso de uma inteligência artificial criadora de conteúdo no país, reportou o South China Morning Post nesta segunda-feira (8).

A polícia informou que o suspeito tem sobrenome Hong e foi detido em Gansu, no nordeste do território. Segundo o órgão, ele confessou ter usado o ChatGPT, da OpenAI, para criar fake news a partir de elementos de notícias que viralizaram localmente nos últimos anos -embora o aplicativo não esteja disponível na China, é possível acessá-lo via VPN, ferramenta que mascara a localização do usuário.

- Advertisement -anuncio

A primeira notícia falsa a chamar a atenção das autoridades datava de 25 de abril e afirmava que nove pessoas tinham morrido em um acidente de trem. Variações do texto tinham sido publicadas em ao menos 20 contas diferentes do Baijiahao -espécie de plataforma de leitura de blogs administrada pela Baidu, a equivalente local do Google- e recebido mais de 15 mil acessos àquela altura.

A polícia de Gansu afirmou que Hong será acusado do crime de perturbação pública, que desde 2013 inclui também casos de pessoas que publicaram ou disseminaram notícias falsas na internet. A pena prevista é de cinco anos de detenção, embora o período possa ser estendido a dez anos em casos mais graves.

Impor limites para o comportamento das inteligências artificiais é uma dificuldade enfrentada pelo setor como um todo. Mas na China, onde o controle da internet é parte da política de censura do Partido Comunista, o rigor ainda é mais estrito, e o regime veta também a circulação de notícias e informações que desagradem ao governo ou que, na visão deles, possam gerar problemas para a sociedade.

Os termos de uso do GLM-130B, modelo especializado em inglês e chinês lançado pela Universidade Tsinghua em 2022, por exemplo, incluem restrições para aplicações que minem o governo do país. “Você não usará este software para qualquer ação que possa minar a segurança ou unidade nacionais da China, prejudicar o interesse público da sociedade ou infringir direitos e interesses de seres humanos”, diz um trecho da licença.

O país asiático ainda responsabiliza criadores dos algoritmos por eventuais conteúdos inapropriados gerados.

Além de Hong ser o primeiro suspeito detido por mal uso de um robô de inteligência artificial, o South China Morning Post afirma que seu caso também é o primeiro do tipo desde o lançamento de uma ampla legislação de regulação de inteligência artificial em janeiro.

Instituída pela Administração do Ciberespaço da China em conjunto com os ministérios da Indústria e Tecnologia de Informação e da Segurança Pública, ela dita que, textos, vídeos e imagens sintetizados por inteligência artificial precisam estar “claramente identificados” de modo a impedir que a população acredite em sua veracidade. Antes, a questão estava a cargo de diversas autoridades diferentes.

Redação / Folhapress

COMPARTILHAR:

spot_img
spot_img

Participe do grupo e receba as principais notícias de Campinas e região na palma da sua mão.

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.

NOTICIAS RELACIONADAS

Thmais
Privacy Overview

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.