Embora a tecnologia de machine learning esteja apenas começando a ser usada em larga escala, já há uma clara tendência de que ela se torne cada vez mais presente no nosso dia a dia.

Mas você sabe o que é machine learning?

Apesar de ser estudada há décadas, só agora machine learning vem alcançando um nível de desenvolvimento que permite adotá-la em larga escala.

Neste artigo falaremos um pouco sobre o que é e como se usa na prática essa tecnologia. Vamos também conhecer um pouco de sua história. Acompanhe.

Machine learning – conceitos e definições

Resumidamente, podemos dizer que machine learning, ou aprendizado da máquina, é uma tecnologia que habilita um computador a aprender a realizar novas tarefas.

Assim, um programa de computador tradicional fornece todas as instruções que devem ser executadas, passo a passo. Tudo é previamente codificado. Ao computador cabe apenas executar.

Em contrapartida, machine learning dá outra tarefa ao computador. Ele deve interpretar os dados que vai recebendo e, a partir deles, decidir qual é a ação a ser executada.

Essa capacidade de aprender da máquina é proporcionada por um algoritmo específico que, exposto a uma grande quantidade de dados para interpretação, vai formando o conhecimento sobre as ações a serem realizadas.

Então, quanto mais dados são analisados pelo algoritmo, mais o computador aprende.

Aprendizado supervisionado ou não supervisionado

Existem duas formas de algoritmo de aprendizado: o supervisionado e o não supervisionado.

De um lado, no algoritmo supervisionado, o computador é “treinado” recebendo os dados a serem interpretados e também a resposta correta.

Dessa forma, o computador cria uma associação entre os dados de entrada e a resposta a que ele deve chegar e a utiliza em situações futuras.

Por sua vez, no algoritmo não supervisionado, o computador faz uma interpretação mais complexa, sem o auxílio da “cola”.

As redes neurais e a aprendizagem profunda

 

O aprendizado de maquina

 

Uma rede neural artificial é um tipo de machine learning que procura reproduzir o modo de funcionamento do cérebro humano.

Assim, cada nó da rede corresponde a um neurônio e realiza o processamento de parte da informação. A conexão entre os neurônios leva ao processamento completo.

Esse tipo específico de machine learning tem sido usado em aplicações como:

  • Reconhecimento de caracteres;
  • Reconhecimento de alvos;
  • Diagnóstico médico;
  • Robótica;
  • Processamento de voz;
  • Sensoriamento remoto;
  • Análise de dados (data mining);
  • Biometria;
  • Etc.

Além disso, dá-se o nome de aprendizagem profunda (deep learning) a uma rede neural mais complexa, composta por diversas camadas de “neurônios”.

De acordo com essa configuração, uma camada mais externa é composta pelos neurônios que recebem o estímulo de entrada. Em seguida vêm as camadas intermediárias de neurônios, ou “neurônios ocultos”, que farão todo o processamento da informação. Ao final, há uma camada de saída, com o resultado do processamento.

O impacto de machine learning nos negócios

Primeiramente, com machine learning, decisões são tomadas de forma mais rápida. Depois, a grande capacidade de processamento torna as análises muito mais profundas do que aquelas que um humano teria condições de realizar.

Como resultado, a empresa torna-se mais eficiente, podendo até mesmo reduzir custos. Além disso, ao delegar tarefas para machine learning, abre-se espaço para que a empresa busque a inovação.

Enfim, o emprego de machine learning conduz a empresa a melhores resultados.

Onde machine learning vem sendo utilizada

Acima de tudo, a tecnologia de machine learning tem sido utilizada em tarefas que exigem precisão. Exemplos:

  • Detecção de fraudes em transações bancárias ou de cartão de crédito;
  • Mecanismos de recomendação de produtos para clientes no comércio eletrônico;
  • Mecanismos de busca da internet, cada vez mais afinados e precisos em relação ao que o usuário procura;
  • Reconhecimento facial em sistemas de vigilância por vídeo;
  • Reconhecimento de textos manuscritos para uso pelos Correios, por exemplo;
  • Processamento de linguagem natural, ampliando as possibilidades de uso de comandos de voz;
  • Bots para atendimento ao cliente;
  • Detecção de usuários com comportamento anormal em redes de computadores;
  • Análise de streaming de dados;
  • Manutenção preditiva de equipamentos, interligada à internet das coisas;
  • Detecção de anomalias no funcionamento de equipamentos, também potencializada pela internet das coisas;
  • Previsão de demandas a partir da análise de históricos;
  • Controle de logística;
  • Negociações financeiras;
  • Diagnósticos de saúde;
  • Pilotagem de veículos autônomos;
  • Interação com robôs.

Os precursores de machine learning no século XX

Conforme citado, machine learning é estudada há décadas. O histórico a seguir dá uma ideia de como o conceito só estava à espera de recursos tecnológicos que o tornassem viáveis.

  • 1952 – Criação do primeiro programa de computador capaz de aprender. O software jogava Damas e ia melhorando seu desempenho jogo após jogo.
  • 1956 – A Inteligência Artificial surge como um campo próprio de pesquisa tecnológica.
  • 1958 – Criação da primeira rede neural artificial.
  • 1967– Criação do primeiro algoritmo de reconhecimento de padrões em computadores.
  • Anos 70 – Corte generalizado das verbas para pesquisa.
  • Anos 80 – Surgimento dos sistemas especialistas baseados em regras. Renasce o interesse por machine learning.
  • 1981– Surge o Explanation Based Learning (EBL), onde um computador analisa dados de treinamento e cria regras gerais que permitem descartar os dados menos importantes.
  • 1985 – Criação do NetTalk, que aprende a pronunciar palavras da mesma forma que uma criança.
  • Final dos anos 80 – Novo período de desinteresse pela inteligência artificial, com exceção de alguns trabalhos isolados.
  • Anos 90 – Pesquisadores começam a criar programas que analisam grandes quantidades de dados e tiram conclusões dos resultados.
  • 1997 – O computador Deep Blue da IBM derrota o campeão mundial de xadrez Gary Kasparov.

A retomada de machine learning no século XXI

Com efeito, processadores mais poderosos e a grande quantidade de dados disponíveis viabilizaram o ressurgimento das pesquisas com machine learning.

  • 2006 – O termo “Deep Learning” (Aprendizado Profundo) foi adotado para explicar novas arquiteturas de redes neurais profundas.
  • 2011 – O computador Watson da IBM derrota participantes humanos em um concurso de perguntas formuladas em linguagem natural.
  • 2012– Início do projeto GoogleBrain, para detectar padrões em vídeos e imagens.
  • 2014 – O Facebook desenvolve o DeepFace, um algoritmo baseado em redes neurais profundas, capaz de reconhecer pessoas com a mesma precisão de um ser humano.
  • 2014 – O algoritmo DeepMind, adquirido pelo Google, aprende a jogar videogames por observação e derrota competidores humanos.
  • 2015 – A Amazon lança sua própria plataforma de machine learning.
  • 2016 – O Google DeepMind vence por 5 a 1 um jogador profissional de Go (um dos mais complexos jogos de tabuleiro existentes). Especialistas no jogo admitiram que o algoritmo realizou movimentos criativos nunca vistos antes.

Conclusão

Tudo indica que estamos adentrando em uma nova onda de ampla utilização da inteligência artificial. Desta vez os avanços tecnológicos do setor estão encontrando utilização prática nas empresas e no dia a dia.

De um lado, a grande disponibilidade de dados vem alimentando com muita força os mecanismos dos algoritmos. De outro, os algoritmos ganharam uma nova capacidade com a computação distribuída.

Por fim, vale registrar que a SAP, líder mundial em software de gestão empresarial, mantém-se plenamente conectada às mais recentes tendências e têm desenvolvido soluções que empregam tecnologias como machine learning. Falaremos a respeito em um próximo post.