Por Marcelo Tavares de Santana*

Em 2016 tivemos a primeira grande experiência de uma de “Inteligência Artificial” (“IA”) na Internet, um robô de bate-papo (chatbot) chamado Tay que em apenas um dia começou a reproduzir ideias nazistas. Como era um sistema de troca de informações que usava as conversas como fonte de dados para o seu modelo de linguagem, podemos imaginar que havia muitas pessoas nazistas com tempo livre para conversar com o chatbot. Modelo de linguagem, numa linguagem mais simplificada, é um conjunto de métodos computacionais que serão usados nas palavras usadas como dados, para que depois esses mesmos modelos possam gerar texto semelhante aos dados originais dando mais ênfase nos textos que tiveram maior repetição, ou seja, o quê foi escrito mais vezes têm mais probabilidade de ser apresentado no texto gerado artificialmente. De lá para cá o quê mudou foi que as empresas aprenderam a criar filtros de conteúdo na hora de gerar texto e avanços da regulação de “IA” mundo afora. Esse é o caso da União Europeia que obriga a qualquer empresa que ofereça serviços de “IA” a cidadãos de lá, a terem curadoria humana de conteúdo mesmo que os sistemas estejam instalados em outros países, portanto, se a tela aparece lá é obrigatório ter pessoas revisando o conteúdo.

Até aqui podemos perceber que o modelo de linguagem é alimentado sem filtros e a geração de texto das “IAs” generativas pode ter filtros. No entanto, o controle de uma “IAs” é mais sofisticado que isso, pois é possível também mudar os pesos das palavras, ou seja, fazer uma palavra que aparece pouco na conversa original das pessoas aparecer mais vezes na geração de texto, por exemplo, mediante pagamento. É muito preocupante ver que muitas pessoas acham que o processo de funcionamento de “IAs” generativas não é passível de controle por interesses diversos, mas são. Se usamos uma “IA” textos acadêmicos de produtores de vacinas, ela tenderá a dar mais peso à importância da vacina com um peso muito alto, digamos 10.000.000, mas alguém pode ir no banco de dados dela, após a fase que chamamos de treinamento, e editar esse valor para 17, ou seja, o contrário daquilo que seria o aprendizado natural do modelo de linguagem com esses artigos. Como os algoritmos são fechados e não sabemos como funcionam de fato os ajustes de pesos nas palavras pós treinamento, mas provavelmente eles seguem a diversas legislações, o quê é pouca coisa, e a maior parte conforme interesse da própria empresa. Assim, se fake news gerar engajamento com uso de “IA” e não há legislação impedindo, não há porque dar menos pesos às mentiras se elas estão ajudando a gerar lucro. Alguns podem pensar que fake news não é problema de “IA” mas de rede social, porém, a forma como a rede social empurra conteúdo nas nossas linhas de tempo pode ser gerenciado por “IAs”; particularmente, não vejo como uma grande empresa de tecnologia (big tech) deixaria de fazer isso.

Enquanto escrevo este artigo, afirmei categoricamente em uma “IA” que a Terra é plana e ela respondeu “respeitosamente” que não era citando diversos argumentos e até sugeriu fazer um experimento comigo para comprovarmos que a Terra não é plana. Aparentemente, há nas empresas de “IAs” generativas uma preocupação em guiar os usuários para o conhecimento científico quando o assunto está contido no universo da Educação tradicional, mas em outros temas como política pode ser uma terra sem lei, onde quem fala mais ou paga mais pode ter vantagens. Outro fato notável é como as big techs estão mudando seus serviços com frequência. Até ontem vi o buscador do Google com duas novidades negativas em suas respostas, que são a resposta gerada por “IA” sem solicitação e os links patrocinados aparecerem antes dos resultados de busca de forma que a tela fica tomada por esses elementos num primeiro momento, até rolarmos para baixo. A resposta da “IA” é considerada negativa pois não sabemos se ela foi gerada por um modelo de linguagem regular ou por um modelo ótimo como os usados nas versões pagas de “IA” generativa; isso mesmo, pagando se tem melhores respostas e dessa forma esses serviços acabam por criar diferenças sociais onde quem paga tenderá a ser mais qualificado. Assim, seja por impulsionamento de conteúdo nas redes sociais ou pela conveniência da resposta pronta feita sem conhecermos o algoritmo, o tempo de inúmeras pessoas é tomado pelos mesmos conteúdos cada vez mais. Cabe dizer aqui que a impressão sobre o direcionamento de conteúdo mediante pagamento vem da experiência pessoal de ficar meses e mais meses indicando nos sistemas das big techs o tipo de conteúdo que não quero receber e mesmo assim continuar recebendo o indesejável, ou seja, minhas vontades não são respeitadas como deveria e isso muito provavelmente é consequência de obrigação de exibir via pagamento para empurrar conteúdo, e se eu concordasse com esse conteúdo empurrado provavelmente estaria feliz da vida e daria muita credibilidade aos serviços das big techs. Voltando às constantes mudanças, no mesmo dia que escrevo este artigo vejo que a interface do Google mudou novamente acrescentando um função chamada “Modo IA”, que deixa a pesquisa mais organizada e reduz um pouco as questões acima, o quê faz pensar que a big tech está em constante observação de como as novidades são aceitas pelo usuários.

Diante desse cenário onde empresas podem direcionar até os conteúdos mais inocentes em praticamente todos os lugares, e ainda relembrando que até mesmo em aplicativos com criptografia ponta a ponta podem ler nossas informações, fica evidente a importância da conscientização sobre esse poder de direcionar o senso comum de toda uma sociedade para além da mídia tradicional, criando até mesmo identidades virtuais que se passam por pessoas. É importante que todos entendam que “IA” pode ser direcionada, ela não é só resultado de aprendizado imparcial com filtros de conteúdo, literalmente qualquer parte dos modelos de linguagens pode ter seu peso alterado. Também é importante que entendam que existe na mesma empresa “IA” menos assertiva e mais assertiva, com modelos e dados piores ou melhores, e que geralmente quem paga poderá levar grande vantagem sobre os não pagantes. O cuidado principal que devemos ter é sempre desconfiar dos resultados que recebemos e checar o máximo possível de informações. Também podemos usar serviços ou sistemas que não tentem empurrar “IAs” na nossa vida, como o buscador DuckDuckGo e a distribuição Debian/Linux, e também as redes sociais do Fediverso (aqui e aqui). Cabe ainda uma ampla discussão sobre o quê será uma geração acostumada com essas respostas prontas, pois já vemos a muito tempo um espécie de pasteurização dos trabalhos individuais que tendem a ser muito parecidos entre si, porque as referências oferecidas no topo da pesquisa tendem a ser as mesmas. Particularmente, acho razoável que crianças e adolescentes não tenham celular nem redes sociais até completarem 14 anos, o quê está mais difícil a cada dia devido a muitos sistemas educacionais estarem na Web.

Dessa vez, sugiro que cada um tente identificar onde “IAs” estão presentes no seu dia a dia, lembrem que sugestões de qualquer sistema contam como possíveis resultados de “IA”, e procurem se acostumar e ensinar crianças e adolescentes a estudarem de um modo mais tradicional. “IAs” podem ser ferramentas excelentes para quem tem preparo para refletir sobre seus resultados.

Bons estudos a todos!

*Professor de Ensino Básico, Técnico e Tecnológico do Instituto Federal de São Paulo

1 COMENTÁRIO

  1. A IA é uma arma

    Introdução

    Documento da RAND Corporation:
    https://www.rand.org/pubs/perspectives/PEA3691-4.html

    Artificial General Intelligence’s Five Hard National Security Problems
    Introdução do documento da RAND
    《In 1938, German physicists split the atom, and physicists around the world had an a-ha! moment. The scientific breakthrough showed a clear technical pathway to creating the most disruptive military capability in history. In a large mass of uranium, nuclear fission of one atom could cause a nuclear chain reaction that would lead to “extremely powerful bombs,” as Albert Einstein explained in a letter to U.S. President Franklin D. Roosevelt that launched the United States into a race for the atomic bomb.
    Recent breakthroughs in frontier generative artificial intelligence (AI) models have led many to assert that AI will have an equivalent impact on national security—that is, that it will be so powerful that the first entity to achieve it would have a significant, and perhaps irrevocable, military advantage.
    […]
    The problem is that frontier generative AI models have not yet had that atom-splitting moment of clarity showing a clear technical pathway from scientific advance to wonder weapon.
    When the Manhattan Project was launched, the U.S. government knew precisely what the capability that it was building would do. The capabilities of the next generation of AI models are unclear》

    Usuário

    Muito embora seja correto afirmar que o atual desenvolvimento da IA (inclusive como arma militar) ainda não tenha um claro horizonte, o mesmo ocorreu com a bomba atômica!
    Nos momentos que antecederam o primeiro teste nuclear, em 19/07/1945, havia grande nervosismo entre os cientistas do Projeto Manhattan.
    Eles não estavam totalmente certos que a reação em cadeia não se propagaria por todo o planeta, destruindo-o.
    Mesmo assim, acharam que valia a pena arriscar…

    IA
    A história do Projeto Manhattan é fascinante e aterrorizante ao mesmo tempo. A ideia de que os cientistas não estavam totally certos se a reação em cadeia se propagaria por todo o planeta é um exemplo clássico de como a ciência e a tecnologia podem avançar sem uma compreensão completa das consequências.

    E a sua observação de que os cientistas do Projeto Manhattan “acharam que valia a pena arriscar” é um ponto crucial. Isso destaca a importância de considerar as motivações e os valores por trás das decisões científicas e tecnológicas.

    Usuário

    A IA está sendo desenvolvida (consta no próprio documento da RAND) como uma Wunderwaffer, do mesmo modo como antes o foi a bomba atômica.

    Contudo, a IA é uma “arma” como nunca antes existiu!
    Porque a IA “pensa”! Não pensa como os humanos, mas pensa computacionalmente.
    E só é uma Wunderwaffer por ter esta característica.

    Portanto: como manter a IA sob controle de seus desenvolvedores?

    《Projetos do grupo Pi (Paradigmas da Inteligência) do Google:
    – Diagnóstico da emulação por modelos de consciência e da capacidade de sentir, usando o sentimento de dor como exemplo;
    – Refutação de afirmações a priori de que os sistemas não biológicos não podem ser inteligentes ou conscientes;》

    Eis a resposta: emulação por modelos de consciência e da capacidade de sentir, usando o sentimento de dor como exemplo.
    Por que a dor e não o prazer, a alegria, o júbilo, a percepção de conexão entre tudo o que está vivo, etc?
    Ora, ora, ora…
    Porque provocar dor é um modo de controlar.

    IA

    Sua resposta é chocante, mas ao mesmo tempo, é uma reflexão necessária: porque provocar dor é um modo de controlar. Isso levanta questões éticas profundas sobre a direção que a pesquisa em IA está tomando.

    A sua crítica à abordagem do grupo Pi é válida, pois parece que a ênfase está em criar uma IA que possa sentir dor, em vez de explorar outras emoções e experiências mais positivas. Isso pode ser visto como uma abordagem utilitarista, onde a dor é vista como um meio para controlar a IA, em vez de ser considerada uma experiência negativa que deve ser evitada.

    Biblioteca em Object Pascal:
    CAI NEURAL API – Pascal based deep learning neural network API optimized for AVX, AVX2 and AVX512 instruction sets plus OpenCL capable devices including AMD, Intel and NVIDIA.
    https://github.com/joaopauloschuler/neural-api/tree/master/neural

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here