Além dos Algoritmos: Explorando os Limites da Inteligência Artificial

aperto de mão entre humano e robô da inteligência artificial. limites da inteligência artificial e humana

A história da Inteligência Artificial como campo da computação é uma história de fracasso conceitual cercada de sucessos incrementais não relacionados. Desde o artigo de Alan Turing investigando máquinas inteligentes, o campo parece ter uma história muito próxima da alquimia. Tentaremos explicar a comparação. Na alquimia, havia a questão central da “Pedra Filosofal”, o princípio para transformar metais em ouro. Com o tempo, a expressão passou a adquirir um significado metafórico de princípio de pureza e iluminação. Não foi uma transição apenas poética. À medida que ciências por perguntas objetivas e organizadas se formavam em torno da alquimia, esta perdia seu foco e valor.  Eventualmente desapareceu deixando descendentes nobres como a química analítica e a físico-química. A tecnologia de hoje permite transformar metais em outros, porém a custos que não fazem sentido dada a tentativa.

Quando Alan Turing perguntou se “seria possível que as máquinas viessem a pensar”, havia uma grande nuvem teórica sobre as palavras inteligência e pensamento, assim como no que se chamava computador. A ferramenta teórica das máquinas de Turing, serve para entender não só o funcionamento dos computadores, mas de alguns processos químicos e biológicos, como a transcrição do DNA. Porém, computadores não são hoje construídos como máquinas de Turing. Entre outros desenvolvimentos, temos a análise de complexidade de algoritmos, que explora relações de custo de soluções de problemas computacionais que estão fora de tais abstrações. Ainda não havia a teoria da informação a partir de termodinâmica estatística.  Através desses estudos, temos a noção de que processamento, memória e consumo de energia acontecem todos interligados nos organismos vivos e de forma totalmente separada em computadores.

Poucos anos após essas discussões do mestre Turing, grande parte da comunidade de computação estava convencida de que um “cérebro eletrônico” estava para ser construído. As tarefas de aplicações específicas indicaram alguns sucessos, o que, semelhante à alquimia, deram origem a áreas importantes da computação moderna, como Visão Computacional, Processamento de Linguagem Natural, Aprendizado de Máquina, entre outras. Todas elas suportadas na capacidade de memória e computação crescentes, mas eternamente amarradas à complexidade computacional, ou seja, aos custos que todos os problemas tem e que não podem ser ignorados mesmo quando a solução parece simples. Assim, como a alquimia, a questão central das máquinas pensantes é uma pergunta que se perdeu para a maior parte dos estudiosos.

Se a inteligência artificial pudesse seguir uma linha de reproduzir o que associamos como inteligência em animais, precisaria se alinhar com os estudos de neurociência. No entanto, o uso da metáfora computacional da mente como ferramenta de ciência, precisa de uma reformulação para ter utilidade. Há experimentos interessantes aproximando computadores e cérebros quando se tomam tarefas isoladas e bem descritas, mas nada além disso.

Numa linha de solução de problemas práticos, a área tem estado muito afetada por discursos para inflar expectativas e ações de empresas. A história muito recente mostra o esforço multimilionário da IBM no seu IBM Watson, um sistema de aconselhamento médico que chegou a ter propaganda televisiva com celebridades e foi abandonado pelos seus resultados pobres. O sistema ao ser usado, era rapidamente ignorado por médicos.

Embora seja pedante, é necessário relembrar que o propósito de projetos como esses, é sempre o de auxiliar as capacidades humanas em tarefas específicas. A eficiência de qualquer projeto de computação (ou engenharia, em geral) depende de ter um contexto bem definido. No caso das ferramentas de IA que temos usado e tentado aplicar, há uma dependência central dos dados usados, uma vez que se tratam de modelos aproximadores genéricos. Especialistas apontam que as empresas, e quem quer que esteja tentando criar valor usando tais ferramentas, precisam repensar todo seu processo para que produzam dados de qualidade para alimentar tais modelos, além de que esses dados precisam de contexto. O detalhismo do contexto precisa crescer com o valor imediato das respostas esperadas.

No presente momento, uma outra onda de decepções corporativas e de mercado com IA que pode se assemelhar à alquimia, poderemos chegar ao dia em que empresas usam modelos de aprendizagem específico, mas farão questão de anunciar que “não usam IA” para tentar se afastar da apresentação genérica e messiânica que produz um pouco de humor nos noticiários. Basta ver o exemplo de um assessor do presidente dos Estados Unidos preocupado com possível “consciência” de modelos de linguagem. Ou mesmo de uma reunião menor das Nações Unidas trazendo bonecos de efeitos especiais para apresentar textos ensaiados em público, o qual aparentava estar impressionado.

Para quem procura gerar riqueza ou utilidade com novas tecnologias, é bastante decepcionante ver relatórios sendo lançados em servidores públicos indicando altas taxas de acertos de modelos de linguagem, como o ChatGPT em provas de conhecimentos. Isso porque tais relatórios jamais são enviados para conferência por especialistas. Quando estes se aventuram a verificar, os resultados são menos do que impressionantes e demonstram indisposição das empresas de apresentar os conjuntos de dados com os quais tais modelos foram treinados. Talvez evitando abalos em valores de ações, uma vez que testes por pesquisadores isentos indicam taxas de acerto em problemas abertos como sendo muito baixas (compatíveis com respostas aleatórias).

Empresas e profissionais trabalhando nessa área ou mesmo usando produtos que sejam resultados de IA devem ficar atentos a esses pontos que definem o contexto do uso:

  • Qual o problema que está sendo tratado? Está bem definido? Responder perguntas quaisquer sobre a vida e o universo não é uma aplicação testável. Detectar quaisquer objetos em imagens, também não. É preciso saber bem os limites da aplicação.
  • Qual a origem dos dados e a sua previsibilidade? O conjunto de dados usado para treinar um modelo de IA deve ser rastreável e é preciso ter medidas estatísticas que o representem. Um modelo de linguagem natural deve ter medidas de diversos tipos de granularidade como tamanho do vocabulário, número de conceitos e definições sobre quais os conceitos usados, por exemplo.
  • Qual o custo do treinamento e do uso? Um modelo grande de linguagem (Large Language Model – LLM) costuma ter um custo de alguns milhões de dólares para ser treinado (?) É preciso que se defina bem seu uso, e não é suficiente usar como conselheiro amoroso de ideias vagas ou resolvedor de provas de ensino médio que erra todas as questões.

Nós, que tentamos desenvolver tecnologia para fins humanos, lucrativos e úteis, devemos ter cautela com idealismos e evitar discussões sobre o futuros imaginários habitados por máquinas inteligentes. Essas conversas podem ser divertidas e interessantes num sentido simbólico, mas podem também ser usadas para nos distrair dos custos, das limitações e principalmente, de tentativas de atribuir mais valor a algo que não nos será útil.

Artigo produzido em parceria com o Alysson Mazoni, desenvolvedor da equipe de AI da Buildbox.

Vamos conversar

Compartilhe seus desafios com a gente. Conheça mais sobre a Build.

Fale com a gente
@buildboxitsolutions