PplWare Mobile

Imagens de abuso de crianças encontradas no maior dataset de imagens de IA, diz estudo

                                    
                                

Autor: Rui Neto


  1. Fusion says:

    Por muito horrível que seja, na minha visão acho que é necessário para treinar as IA, para posteriormente detetarem essas imagens quando for em contexto real, para bloquear e denunciar. A menos que esteja a ver as coisas de forma errada, mas se essas imagens forem usadas apenas para treino e depois apagadas e destruídas não vejo onde está o mal, desde que depois essa IA seja utilizada para o bem, para depois sim detetar os verdadeiros criminosos e pedófilos.

  2. Fusion says:

    Fiz um comentario e ele desapreceu o que passou?

  3. berlaitada says:

    Só nos faltava uma AI pedófila.

  4. SANDOKAN 1513 says:

    “O dataset foi amplamente utilizado para treinar sistemas de IA capazes de gerar imagens realistas e explícitas de crianças, o que representa uma séria ameaça à sua segurança e privacidade.” Isto nem dá para acreditar.

    • Técnico Meo says:

      Foi algum data set sem critério de seleção, foi encher de dados á martelo e nem viram a porcaria que lá ia….. as boas LLM gabam de ter excelentes datasets, mas atendendo ao volume gigante de dados que cada uma têm é sempre impossível conseguir filtrar tudo. É rastrear o dataset até á origem e meter na choldra que merece e deitar a chave fora e servir de exemplo publico.

      • Aves says:

        A que se está a falar tem perto de 6.000 milhões de imagens-texto.
        Haverá 3.200 imagens de abuso sexual de crianças.
        O que o investigador diz é que está demonstrado é que a IA é capaz de criar nus de pessoas vestidas, imagens de sexo não consentido e abuso sexual de crianças. Diz, com o que toda a gente concorda, que as imagens de pedofilia da base de dados são ilegais e que não deviam lá estar – mas não diz que é só por causa dessas imagens que a IA é capaz de criar imagens de abuso sexual de crianças.
        Isto é uma caixa de pandora que não se resume às imagens usadas para pré-treinar a IA – tem que passar pelas regras sobre as imagens que produz.

        • Técnico Meo says:

          Concordo. Penso que quem quer conteúdos xxx, tem uma brutalidade de mercado LEGAL para recorrer do que á A.I. E ao alcance de um clique. Quanto muito, alguma manga mais marota, no máximo.

Deixe um comentário

O seu endereço de email não será publicado.

You may use these HTML tags and attributes: <a href="" title="" rel=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Aviso: Todo e qualquer texto publicado na internet através deste sistema não reflete, necessariamente, a opinião deste site ou do(s) seu(s) autor(es). Os comentários publicados através deste sistema são de exclusiva e integral responsabilidade e autoria dos leitores que dele fizerem uso. A administração deste site reserva-se, desde já, no direito de excluir comentários e textos que julgar ofensivos, difamatórios, caluniosos, preconceituosos ou de alguma forma prejudiciais a terceiros. Textos de caráter promocional ou inseridos no sistema sem a devida identificação do seu autor (nome completo e endereço válido de email) também poderão ser excluídos.