Introdução à Inteligência Artificial: Um guia completo para Iniciantes Parte 1
- Nicholas Arand

- 30 de mai.
- 6 min de leitura
A Inteligência Artificial (IA) pode ser definida como um campo da computação dedicado a criar sistemas capazes de realizar tarefas que normalmente exigiriam algum tipo de inteligência. Simples e fácil, não é? Nem tanto.
O problema mora na definição de inteligência. A inteligência é um desses assuntos que, apesar de vir sendo estudado e debatido há anos, e por diferentes ramos da ciência (e de pseudociências), ainda é objeto de discussão. O Quadro 1 lista algumas das diferentes tentativas de se a definir, todas elas valem, mas com enfoques um pouco diferentes.
É justamente esta variedade de definições uma das razões por que é tão difícil estabelecer uma fronteira clara entre uma IA e um software comum, e ilustra muito bem por que o rótulo de "IA" é frequentemente aplicado de maneira inconsistente.
Por exemplo, quando um sistema de recomendação sugere um produto, é apenas estatística aplicada ou é inteligência? Quando um programa aprende com dados, mas segue regras fixas para buscar uma resposta, isso constitui inteligência?


E quando você pede ao DALL-E que crie uma imagem de um gato que jamais existiu, andando de patinetes nos Lençóis Maranhenses? É arte? É inteligência? Ou é apenas uma colagem digital glorificada, com base em milhares e milhares de imagens prévias de outros gatos, patinetes e paisagens bonitas?
Vemos que encontramos até agora mais perguntas novas do que respostas precisas, mas por que não buscar conforto em uma citação do antropólogo francês Claude Lévi-Strauss que também traz em si uma boa definição de inteligência:

"O cientista não é a pessoa que fornece as respostas certas, é aquele que faz as perguntas certas."
O que buscamos nesta introdução à IA não é exatamente dar todas as respostas ao leitor, visto que a cada resposta dada, surgirão novas perguntas. Este guia tem o objetivo de mostrar de onde vieram estas fantásticas ferramentas que, hoje, às vezes nos maravilham e, às vezes, nos assombram.
O que buscamos é discutir conceitos importantes para podermos falar a respeito de IA sem cairmos nos tradicionais “bobagísmos” e, talvez, mostrar alguns caminhos possíveis, para os que estão começando agora a pesquisar sobre o tema, mas desejam se tornar usuários hábeis da IA ou até desenvolvedores de ferramentas que utilizem esta tecnologia.
Você vai notar que o post deve iniciar com um linguajar leigo, falando sobre a história da tecnologia, mas pouco a pouco deverá ir se complicando com termos mais técnicos e jargões para explicar conceitos mais complexos. O que peço ao leitor nestes momentos é um pouco de resiliência. Mesmo que em algum parágrafo a coisa se complique mais que o desejado, siga em frente, pois pouco a pouco a coisa todas deverá fazer sentido.
A História da IA
Como surgiu o conceito de IA?
O termo "Inteligência Artificial" foi oficialmente cunhado no verão (americano) de 1956, durante a Conferência de Dartmouth, organizada pelo (então) jovem pesquisador John McCarthy. Esta conferência reuniu um grupo pequeno, mas ilustre de cientistas, incluindo Claude Shannon (criador da teoria da informação) e Herb Simon (a única pessoa a ganhar tanto o Prêmio Nobel de Economia quanto o Prêmio Turing).
McCarthy convocou estes pesquisadores para discutir "como fazer máquinas usarem linguagem, formarem abstrações e conceitos" e "resolverem tipos de problemas agora reservados para humanos".
Foi o primeiro encontro acadêmico dedicado ao que McCarthy chamou de "inteligência artificial".
Porém, a ideia de máquinas inteligentes já existia antes desta conferência. Alan Turing e John von Neumann, grandes nomes da computação, já haviam especulado sobre o tema. O famoso “Teste de Turing” que propõe uma definição pragmática de máquinas inteligentes – você a viu no Quadro 1 - havia sido publicado 6 anos antes, em 1950. Antes ainda, o primeiro “neurônio artificial”, conceito que abriu caminho para as redes neurais de hoje, foi idealizado por Pitts e McCulloch ainda na primeira metade da década de 40.
De fato, historiadores acreditam que McCarthy escolheu o termo "inteligência artificial" por ser amplo o suficiente para abranger as diferentes abordagens que já existiam na época, mantendo em aberto a questão de qual seria a melhor. Como podemos ver, o termo IA já nasceu em meio a ambiguidades e, muito provavelmente, seguirá assim.
A Jornada da Inteligência Artificial: Entre Esperanças e Desilusões

A história da Inteligência Artificial se desenha como uma fascinante jornada de altos e baixos, períodos que os pesquisadores da área carinhosamente apelidaram de "verões" e "invernos" da IA. Esta trajetória sinuosa revela não apenas o desenvolvimento tecnológico, mas também as esperanças, frustrações e renascimentos de um campo que continua a redefinir os limites do possível.
No início, a IA era essencialmente ideias teóricas do campo acadêmico e pequenas provas de conceito. De um lado, pesquisadores defendiam sistemas baseados em fatos e lógica simbólica, criando arquiteturas que combinavam axiomas e regras formais para simular o raciocínio humano. Por outro lado, entusiastas das abordagens probabilísticas argumentavam que a incerteza e a capacidade de avaliar possibilidades era o caminho mais promissor para máquinas verdadeiramente inteligentes. Este rico mosaico de ideias formou o caldeirão onde a IA começou a tomar forma.
Entre o final da década de 1970 e durante a década 1980, testemunhou-se a ascensão dos "sistemas especialistas", quando a comunidade científica finalmente pareceu encontrar um consenso sobre o caminho a seguir.
Estes sistemas sofisticados utilizavam lógica simbólica para capturar e aplicar o conhecimento de especialistas humanos em áreas específicas, desde diagnósticos médicos até análises geológicas. O entusiasmo era tanto que o governo japonês decidiu fazer uma aposta ambiciosa, investindo bilhões em pesquisa e desenvolvimento de hardware dedicado a essa abordagem.
Contudo, o otimismo inicial logo encontrou a dura realidade: por mais impressionantes que fossem em ambientes controlados, estes sistemas se revelaram surpreendentemente frágeis e inflexíveis quando confrontados com as nuances e imprevisibilidade do mundo real.
O desânimo levou a um “primeiro inverno” que, por sua vez, ajudou a redirecionar o consenso para as abordagens probabilísticas que, pouco a pouco, convergiram para o que chamamos hoje de Aprendizado de Máquina, ou Machine Learning (ML). O ML foca em desenvolver algoritmos capazes de aprender com dados e melhorar seu desempenho com experiência, sem serem explicitamente programados para cada tarefa.

Os desenvolvimentos iniciais eram caracterizados pela diversidade de algoritmos empregados para resolver variados problemas - regressão linear, random forest, gradient boosting, e entre outros, os “perceptrons” que deram origem aos conceitos atuais de redes neurais.
À medida em que o campo amadureceu, as redes neurais começaram a dominar o cenário, mas ainda com diferentes arquiteturas. Os multilayer perceptrons deram origem às redes profundas (deep learning) que, por sua vez evoluíram para arquiteturas mais complexas com as redes convolulsionais (CNN – convolutional neural networks) e redes recorrentes (RNN – recurrent neural networks). Temporalmente ainda estamos falando do finalzinho do século XX.
Note que a evolução da IA esteve sempre ligada ao desenvolvimento dos computadores. Quando os computadores eram limitados, a IA também enfrentava restrições. À medida que o hardware se tornou mais poderoso e os dados mais disponíveis, a IA pôde avançar de forma impressionante.
Saliento aqui alguns dos avanços que deram impulso à esta terceira onda da IA: o crescimento da internet e da “internet das coisas” (IoT), culminando na disponibilidade de dados sem precedentes que temos hoje, e o grande salto na capacidade de processamento com a utilização e aperfeiçoamento dos processadores gráficos (GPU), hardware inicialmente projetados para o mundo dos games e do “multimídia”, mas que se mostraram dezenas de vezes mais eficientes que o CPU para o processamento necessário para treinamento de redes neurais profundas.
O próximo grande salto veio em um paper em 2017, chamado Attention is all you need que sugeria uma nova arquitetura de deep learning chamada Transformer, mais rápida, mais leve e mais eficiente, que as CNNs e RNN usadas para a tradução de idiomas, e que atingia resultados bastante melhores nestas tarefas. Vamos ver que o conceito de “mecanísmo de atenção” introduzido por esta nova arquitetura, deu o início a uma nova era da IA, e possibilitou o surgimento de novos modelos capazes de realizar tarefas até então restritas ao campo da ficção científica.
Acompanhe próximas semanas que postaremos a continuação desse guia!

Comentários