Aprender a ser humano
Artigo publicado originalmente na ULisboa, Revista da Universidade de Lisboa
O nosso receio acerca do que esta tecnologia possa vir a ser, considerando a rapidez com que tem evoluído, manifesta-se de formas mais ou menos subtis, como contestar o nome que lhe é dado: «inteligência». Mário Figueiredo discorda do uso deste conceito, argumentando que ainda não se chegou, sequer, a uma definição consensual do que é a inteligência humana, dada a complexidade de fatores que a constituem. Como alternativa, propõe artificial learning, «aprendizagem artificial», que junta termos de dois conceitos: machine learning e artificial intelligence. Conta-nos que quem trabalha nesta área adere à máxima cunhada por Alan Turing no artigo sobre a máquina homónima que criou, e da qual diz: «Se um computador me enganar e eu não o conseguir distinguir de um humano, então merece que eu o chame de inteligente.» O uso do verbo «merecer» permite escapar a uma definição perentória de «inteligência» e do que tal atributo implica; permite que se saia airosamente da questão com: «Quando a vejo [à inteligência], reconheço-a.»
«Há aspetos em que as máquinas são muito melhores do que nós; a capacidade que estes modelos têm de processar e, sobretudo, de comunicar dados para o exterior é muito superior à nossa.» André Martins
Como podemos então definir IA? Isabel Gorjão Henriques, jornalista do Público, escreveu um artigo em 2006, ano comemorativo do 50.º aniversário da IA, e sintetizou-a do seguinte modo: «A inteligência artificial distancia-se da informática porque usa linguagens de programação diferentes, que deixam em aberto um espaço para que a máquina possa aprender. Não são programas fechados, determinísticos como os que se usam habitualmente nos computadores, em que uma ordem corresponde a uma resposta.
São programas que procuram imitar o comportamento humano [e as suas capacidades cognitivas] e que, por isso, têm de ser bastante flexíveis. Imitam as pessoas, por exemplo, na sua capacidade de falar, de entender uma língua ou decifrar uma imagem.» André Martins concorda com esta definição, que qualifica de «uma definição com os pés na terra, que descreve o que já se consegue fazer». De uma máquina de IA pode de facto dizer-se que tem a capacidade de aprender: «Na IA predominam métodos que aprendem formas de gerar ou prever dados parecidos a partir de uma série de dados produzidos por humanos. Chama-se a isto aprendizagem automática, ou machine learning. O desafio é melhorar o desempenho à medida que mais dados estão disponíveis. O conjunto de tarefas que para os humanos são aborrecidas, monótonas, repetitivas, e que as máquinas conseguem fazer, é cada vez maior.»
André Martins não levanta objeção ao uso do conceito de inteligência no caso da IA, mas sublinha uma diferença crucial: «A inteligência humana resulta de um processo de evolução com biliões de anos. Desenvolveu-se com objetivos concretos: a sobrevivência da espécie, a capacidade de reprodução. Esses elementos estão ausentes nos sistemas de IA existentes até ao momento.» Ainda não é possível, garante Mário Figueiredo, fazer com que uma máquina se mova, veja, escute, cheire, e integre todas as informações que está a receber em simultâneo, como um ser humano; o que falta é a integração no meio ambiente. A criação de comunidades foi decisiva na evolução da inteligência humana, na medida em que obrigou ao desenvolvimento de ferramentas de interpretação essenciais: «É necessária uma inteligência sofisticada para lidarmos com pessoas. Precisamos de saber que têmcaracterísticas e personalidades diferentes, saber o que estão a pensar, como vão agir. Precisamos de construir um modelo do que nos rodeia e antecipar cenários futuros.» Os sistemas de IA não evoluem desta forma porque ainda não foi encontrada uma maneira de os colocar em interação com o meio.
Oficialmente nascida no ano de 1956, em Dartmouth, numa conferência em que John McCarthy, matemático e engenheiro informático, firmou o seu nome, a IA passou por fases de descrença na sua continuidade. Na década de 1950, um otimismo acerca da sua evolução era explosivo – afirmava-se que dentro de dez anos seria possível construir uma máquina em tudo semelhante ao ser humano. O interesse esmoreceu quando tal não se verificou, e só voltou a surgir noinício dos anos 1990, com os expert systems. Tratavam-se de sistemas usados em áreas díspares, da banca à medicina, em que especialistas da área de conhecimento criavam uma série de regras com que as máquinas pudessem ser programadas. Houve, contudo, um entrave: «É frequente um especialista ser muito bom a tomar decisões nesse assunto, mas, se lhe pedirem para dizer ou escrever o que sabe e os raciocínios que faz para chegar a determinadas conclusões, não consegue. Passar esse conhecimento para dentro das máquinas era o busílis da questão.» A IA passou então pelo chamado segundo inverno, debelado ainda no final dessa mesma década com o desenvolvimento de machine learning, a automatização do processo de passagem de conhecimento para as máquinas.
A semelhança entre os sistemas de IA e os seres humanos não é uma coincidência, considerando que processam triliões de dados gerados por pessoas e são sistemas treinados para nos imitarem. O ChatGPT, por exemplo, leu uma quantidade de informação que demoraria a um ser humano cinco mil anos a ler, se o fizesse durante as 24 horas do dia, ininterruptamente; e leu-a em todas as línguas. O GoZero derrotou o campeão mundial – humano – do jogo de Go porque simulou dez milhões de jogos; uma pessoa, se jogasse todos os dias, conseguiria chegar aos dez a quinze mil jogos numa vida inteira. Neste sentido, André Martins não hesita em afirmar que «há aspetos em que as máquinas são muito melhores do que nós; a capacidade que estes modelos têm de processar e, sobretudo, de comunicar dados para o exterior é muito superior à nossa. Podem copiar uma quantidade muito grande de informação, e eu posso fazer uma cópia de um modelo de IA, mas não consigo fazer uma cópia dos nossos cérebros».
Nenhum sistema de IA possui aquilo a que se chama consciência. Quando nenhuma pergunta é colocada ao ChatGPT, o sistema não está a ter uma vida interior, ao contrário dos seres humanos. Mário Figueiredo recupera uma expressão antiga e diz-nos: «As máquinas não matutam! [Risos] O que não quer dizer que não venham a fazê-lo.» A IA também não tem emoções, mas pode ser programada no sentido de as emular. «Conseguimos programar emoções», diz-nos André Martins, «se treinarmos em dados em que os humanos têm determinado tipo de emoção. Mas a génese dessas emoções é diferente. No ser humano, estão ligadas à sobrevivência: se ouvir um rugido de um tigre, tenho de fugir porque a minha vida está em perigo, tenho a emoção de medo.»
A IA simula o resultado da experiência de seres humanos, mas não tem experiência própria. São sistemas treinados numa quantidade enorme de dados de modo a prever a próxima palavra que ocorre num texto, de acordo com o contexto criado pelas palavras precedentes. «O ChatGPT está sempre a ser afinado, refinado», explicaMário Figueiredo; «o seu treino é desenhado para enganar os seres humanos. O sistema viu milhares de exemplos do que uma pessoa teria escolhido para a palavra seguinte e está a tentar copiar isso.» Todas as respostas enunciadas pelo ChatGPT são automatizadas; são «uma conta muito complicada, mas apenas uma conta».
Não tendo emoções, a IA desperta emoções em nós; somos capazes de nos relacionarmos emocionalmente com ela devido a uma característica humana denominada deteção de agência hiperativa – a atribuição de agência, ou intencionalidade, ao que nos rodeia. Mário Figueiredo lembra os Tamagotchi do final da década de 1990, os primeiros «animais domésticos» digitais, e da facilidade com que os seus filhos ficavam convencidos de que «o Tamagotchi estava com fome, ou triste; nós vemos duas pintas e um risco e é uma cara. Ou podemos irritar-nos com um objeto».
Se a IA está cada vez mais a aproximar-se das nossas capacidades cognitivas e, em muitos casos, até a superá-las, está também, ao mesmo tempo, a sublinhar o que nos distingue de uma máquina, acentuando o que é exclusivamente humano. As emoções e a consciência parecem ser duas das qualidades humanas em que esta diferença é indiscutível. Mas o mesmo se passará com a criatividade? Com a capacidade humana para escrever, compor, desenhar e criar imagens? Estarão os sistemas de IA a aproximar-se do nosso potencial criativo? Em que circunstâncias? Com que resultados?
Em 2016, a pintura tridimensional Edmond de Belamy, gerada com base em informação recolhida sobre o pintor holandês Rembrandt, rendeu 432 500 dólares num leilão em Nova Iorque. Era a primeira obra de arte totalmente produzida por um sistema de IA. Nessa altura, os meios de programação eram ainda inacessíveis ao artista comum. Hoje, sete anos depois, já todos temos acesso a diversos programas que permitem criar várias peças: no Botnik podemos compilar e combinar textos e ainda gerar novos capítulos; no Dall-e e no Midjourney podemos criar imagens a partir de simples descrições textuais. E tudo em segundos.
André Martins explica que os sistemas existentes são sobretudo eficazes a criar peças que imitam a técnica e o género específicos de um autor, criando imagens, textos ou desenhos ao estilo de muitos artistas. O investigador reconhece a mudança que estes sistemas causarão no processo criativo, mas não deixa de sublinhar que as máquinas nunca substituirão os artistas: os programas apenas funcionam como instrumentos que ajudam a criar. Mário Figueiredo diz-nos que, na arte, o que é verdadeiramente valorizado não é a peça por si só, mas o seu significado, recordando os movimentos artísticos conceptuais do século xx: «Quando Marcel Duchamp decidiu virar um urinol ao contrário e designá-lo arte, fez um salto criativo que uma máquina não pode fazer.»
Além disso, Mário Figueiredo recorda-nos que muitas das fotografias tiradas por humanos têm uma relevância histórica: «Na fotografia, sobretudo no fotojornalismo, também se valoriza a história por trás da imagem. Uma fotografia de raparigas afegãs, ou de refugiados a desembarcar na Europa, tem um significado e um valor emocional muito fortes. Mais do que serem fotografias bem tiradas, tecnicamente bem conseguidas, são fotografias com significado histórico que uma máquina nunca produzirá.» Mas como é que a máquina cria a fotografia, se esta, pela virtude do que é, ontologicamente, consiste num enquadramento de um instante da realidade? André Martins explica: «O sistema não sabe como são tiradas as fotografias, não sabe que se usam máquinas fotográficas e que estas captam algo do mundo real. O sistema trata as fotografias como imagens. Cria uma composição coerente a partir de uma base de dados gigantesca que também contempla imagens fotográficas.» A fotografia e a imagem fotográfica criada a partir de um sistema de IA são por isso criações distintas, pela forma como são geradas, mas não restam dúvidas de que os resultados são semelhantes e muitas vezes indiscerníveis.
A história mais curiosa aconteceu recentemente num concurso de fotografia. O fotógrafo alemão Boris Eldagsen concorreu aos prémios Sony World Photography Awards com uma imagem criada por um sistema de IA. Quando soube que tinha vencido, recusou o prémio, revelando que não se tratava de uma fotografia, mas de uma imagem desenvolvida com a ajuda de IA. Se Eldagsen não tivesse revelado o facto, alguém duvidaria de que se tratava de uma fotografia real? Esta é uma situação que comprova a eficiência destes programas, ao mesmo tempo que percebemos que o resultado é facilmente confundível com uma fotografia verdadeira. Será que os sistemas de IA dificultarão, no futuro, a distinção entre peças produzidas por humanos e máquinas? E, mais preocupante, entre conteúdos verdadeiros e falsos?
Muito se tem especulado sobre as possíveis consequências negativas da utilização destes sistemas. «Os padrões que conseguimos identificar como falsos vão desaparecer», comenta André Martins, «será mais difícil percebermos, de forma superficial, se uma coisa é real ou falsa». Não está, no entanto, pessimista em relação a este problema, e diz-nos que, se hoje já conseguimos mais facilmente identificar um email de fishing ou spam, também desenvolveremos modos de distinguir de uma forma mais fina o falso do verdadeiro. Acredita que as gerações futuras terão mais espírito crítico e mais ferramentas para detetar o que é falso.
Numa perspetiva menos vantajosa, ou mais pessimista, Mário Figueiredo refere que os sistemas de IA podem beliscar a nossa capacidade para pensar. Diz-nos que no século XIX se valorizava uma pessoa capaz de desenhar bem, sobretudo nas ciências e biologia, mas que tal hoje se tornou irrelevante, dado que as competências necessárias ao desempenho de várias tarefas, muita delas manuais, vão mudando à medida que novas tecnologias surgem. Faz referência a um artigo de André Barata, professor de filosofia da Universidade da Beira Interior, que caracteriza a IA como uma pequena machadada no ego dos seres humanos, na medida em que nos pode retirar a excecionalidade do pensamento, da inteligência e da capacidade de raciocínio. Comenta que é o que sentimos quando uma máquina derrota um campeão de xadrez, ou quando percebemos que escrever um poema já não é um reduto exclusivo dos seres humanos.
«Quando Marcel Duchamp decidiu virar um urinol ao contrário e designá-lo arte, fez um salto criativo que uma máquina não pode fazer.» Mário Figueiredo
Se as máquinas estão a equiparar-se ou mesmo a ultrapassar em muitos aspetos as competências humanas, assistiremos ao desaparecimento de algumas profissões? Mário Figueiredo acredita que sim, apesar de pensar que as mais difíceis de substituir são as que requerem um nível elevado de interação humana, como no caso dos enfermeiros, que, mais do que os médicos, dificilmente serão trocados pelas máquinas. No âmbito das profissões que podem vir a decrescer, André Martins dá o exemplo dos radiologistas. Explica que as máquinas conseguem, melhor do que os humanos, encontrar padrões nas imagens. Não têm intuição, baseada em experiência e interação com pacientes, mas são mais eficientes na análise das imagens, ajudando a produzir diagnósticos mais rigorosos. Ainda neste âmbito, Mário Figueiredo dá-nos o exemplo do diagnóstico do cancro da pele: «Para a máquina, nunca é “aborrecido” ver centenas de sinais e é mais difícil que lhe escape um que seja potencialmente cancerígeno.» É por isso previsível que as profissões que vivem do processamento cognitivo de informação percetual, ou seja, que precisem de usar conhecimento para tomar decisões com base na perceção, sejam mais facilmente substituídas por estes sistemas.
No panorama científico, a IA tem-se revelado cada vez mais útil. Não existe nenhuma área na ciência que use dados em que estes sistemas não sejam proficientes, sobretudo quando é necessário analisar de uma forma sofisticada. Os sistemas de IA podem facilmente e de modo mais eficaz traduzir documentos antigos, restaurar imagens, analisar partituras com notação antiga e convertê-la para notação moderna, entre tantas outras tarefas morosas e repetitivas. Por outro lado, a IA tem também um enorme potencial para acelerar descobertas científicas, como nos diz André Martins: «Ajuda a produzir ciência. Não vai substituir os cientistas, mas é um instrumento que os vai ajudar a desenvolver as suas investigações.» No seguimento deste pensamento, Mário Figueiredo conclui: «As máquinas podem até propor equações matemáticas para tentar explicar certos fenómenos. Depois, os humanos têm de olhar para o que a máquina “propõe” e ver se faz sentido, mas poupa imenso trabalho ao cientista porque lança uma quantidade de hipóteses, todas elas razoavelmente boas explicações para aquele fenómeno. Não há áreas científicas, mesmo nas humanidades, em que os sistemas de IA não sejam úteis.»
Para escrevermos este texto não usámos nenhum sistema de IA, nem qualquer interação com o ChatGPT. Talvez o futuro nos reserve outras formas e meios de produzir a Revista ULisboa, mas, por enquanto, persistimos em falar com as pessoas, colocando perguntas e hipóteses que se vão desenvolvendo nas nossas mentes, ainda que cada vez mais embrenhadas nos sistemas artificiais de inteligência.