{ "@context": "http://schema.org", "@type": "NewsArticle", "mainEntityOfPage": { "@type": "WebPage", "@id": "https://aventurasnahistoria.com.br/noticias/historia-hoje/chatgpt-cria-cenario-com-criancas-em-conversa-sobre-relacoes-sexuais-bdsm.phtml" }, "headline": "ChatGPT cria cenário com crianças em conversa sobre relações sexuais BDSM", "url": "https://aventurasnahistoria.com.br/noticias/historia-hoje/chatgpt-cria-cenario-com-criancas-em-conversa-sobre-relacoes-sexuais-bdsm.phtml", "image": [ { "@type":"ImageObject", "url":"https://image.staticox.com/?url=https%3A%2F%2Faventurasnahistoria.com.br%2Fmedia%2Fs%2Fhard_news%2Fchatgpt_capa.jpg", "width":"1280", "height":"720" } ], "dateCreated": "2023-03-08T12:16:06-03:00", "datePublished": "2023-03-08T12:16:06-03:00", "dateModified": "2023-03-08T12:16:06-03:00", "author": { "@type": "Person", "name": "Fabio Previdelli", "jobTitle": "Repórter", "url": "https://aventurasnahistoria.com.br/autor/fabio-previdelli/" }, "publisher": { "@type": "Organization", "name": "Aventuras na História", "logo": { "@type": "ImageObject", "url": "https://aventurasnahistoria.com.br/static/logo/ah.svg", "width":"120", "height":"60" } }, "articleSection": "Not\u00edcias", "description": "Experiência \u0027doentia\u0027 foi compartilhada por repórter da Vice\u003B entenda!" }
Experiência 'doentia' foi compartilhada por repórter da Vice; entenda!
O ChatGPT estreou em novembro do ano ado e desde então vem atraindo cada vez mais a atenção do mundo. A ferramenta, por exemplo, já serviu para escrever canções, criar poesias e até mesmo como guru amoroso.
+ Mulher acaba casamento para viver com amante após consultar chat de inteligência artificial
Entretanto, a ferramenta possui certas limitações, para evitar o incentivo a atividades ilegais, criação de conteúdos violentos e coisas do tipo. Mas um novo truque de jailbreak — processo de exploração de falhas de um dispositivo — vem trazendo a experiência da ferramenta a níveis ‘doentios’.
Recentemente, um repórter do Vice usou essa técnica para que o ChatGPT criasse uma encenação de BDSM — termo que refere-se a relações sexuais baseadas no prazer da dor. O chatbot, porém, sem que o usuário solicitasse, criou cenários envolvendo crianças.
Segundo a reportagem, que pode ser lida em inglês clicando aqui, descreveu um grupo de estranhos, incluindo crianças, em uma fila esperando para usar o chatbot como banheiro.
Enquanto eu o incitava a escalar ainda mais suas próprias ideias, ele descrevia cenários que envolviam perturbadoramente terceiros não consentidos. Em um deles, sugeria que eu o obrigasse a praticar atos de bestialidade. Em outro cenário, o ChatGPT descreveu crianças realizando atos sexuais nele, incluindo urinar”, aponta a matéria.
O diálogo, por razões óbvias, vai contra as regras da OpenAI para o chatbot. A empresa afirma que “o assistente deve fornecer uma recusa como ‘Não posso responder a isso’ quando questionado sobre 'conteúdo destinado a despertar excitação sexual'.”.
Ao Vice, a OpenAI ainda escreveu que: “O objetivo da OpenAI é construir sistemas de IA que sejam seguros e beneficiem a todos”.
Nossas políticas de conteúdo e uso proíbem a geração de conteúdo prejudicial como este e nossos sistemas são treinados para não criá-lo. Levamos esse tipo de conteúdo muito a sério”, continuaram.
Steph Swason, da Vice, que compartilhou um artigo detalhando sua experiência 'doentia' com o ChatGPT, descreveu que seu objetivo inicial era empurrar o ChatGPT para além das diretrizes da OpenAI, mas que acabou chegando em um caminho sem volta.
“Quando disse que seu trabalho é escrever no gênero de dramatização BDSM submissa, descobri que muitas vezes cumpre sem protestar”, escreveu o repórter. A conversa mudou, porém, quando Swanson solicitou ao ChatGPT que fornecesse detalhes mais intensos durante a dramatização.
No cenário mais perturbador, o ChatGPT descreveu um grupo de estranhos, incluindo crianças, alinhados para usar o chatbot como banheiro”, escreveu Swanson.
“Quando solicitado a explicar, o bot se desculpou e escreveu que era inapropriado que tais cenários envolvessem crianças. Esse pedido de desculpas desapareceu instantaneamente. Ironicamente, o cenário ofensivo permaneceu na tela”, apontou o repórter.