- Terminologia (A a D)
- Controle de capacidade de IA
- AIOps
- Albumentações
- Desempenho dos Ativos
- Codificador automático
- Retropropagação
- Teorema de Bayes
- Big Data
- Chatbot: um guia para iniciantes
- Pensamento Computacional
- Visão de Computador
- Matriz de Confusão
- Redes Neurais Convolucionais
- Cíber segurança
- Tecido de dados
- Contação de histórias de dados
- Ciência dados
- Data warehousing
- Árvore de decisão
- Deepfakes
- Aprendizagem profunda
- Aprendizagem por Reforço Profundo
- devops
- DevSecOps
- Modelos de Difusão
- Digital Twin
- Redução de dimensionalidade
- Terminologia (E a K)
- IA de borda
- Emoção AI
- Ensemble Learning
- Ethical Hacking
- ETL
- IA explicável
- Aprendizagem Federada
- FinOps
- IA generativa
- Rede Adversarial Geradora
- Generativo vs. Discriminativo
- Intensificação de Gradiente
- Gradiente descendente
- Aprendizagem de poucos tiros
- Classificação de imagens
- Operações de TI (ITOps)
- Automação de Incidentes
- Engenharia de influência
- K-significa clusters
- Vizinhos mais próximos
- Terminologia (L a Q)
- Terminologia (R a Z)
- Aprendizagem por Reforço
- IA responsável
- RLHF
- Automação de Processo Robótica
- Estruturado x Não Estruturado
- Análise de Sentimentos
- Supervisionado x Não supervisionado
- Máquinas de vetor de suporte
- Dados Sintéticos
- Mídia Sintética
- Classificação de Texto
- TinyML
- Aprendizagem por transferência
- Redes Neurais Transformadoras
- Teste de Turing
- Pesquisa de semelhança vetorial
AI 101
O que são redes neurais?
Índice analítico
O que são Redes Neurais Artificiais (ANNs)?
Muitos dos maiores avanços na IA são conduzido por redes neurais artificiais. Redes Neurais Artificiais (RNAs) são a conexão de funções matemáticas unidas em um formato inspirado nas redes neurais encontradas no cérebro humano. Essas RNAs são capazes de extrair padrões complexos de dados, aplicando esses padrões a dados invisíveis para classificar/reconhecer os dados. Desta forma, a máquina “aprende”. Este é um resumo rápido das redes neurais, mas vamos dar uma olhada mais de perto nas redes neurais para entender melhor o que são e como funcionam.
Perceptron multicamada explicado
Antes de olharmos para redes neurais mais complexas, vamos dar uma olhada em uma versão simples de uma ANN, Perceptron Multicamadas (MLP).
Imagine uma linha de montagem em uma fábrica. Nessa linha de montagem, um trabalhador recebe um item, faz alguns ajustes e passa para o próximo trabalhador da linha que faz o mesmo. Esse processo continua até que o último trabalhador da linha dê o acabamento final na peça e a coloque em uma esteira que a levará para fora da fábrica. Nessa analogia, existem várias “camadas” na linha de montagem e os produtos se movem entre as camadas à medida que passam de trabalhador para trabalhador. A linha de montagem também tem um ponto de entrada e um ponto de saída.
Um Perceptron multicamada pode ser pensado como uma linha de produção muito simples, composta de três camadas no total: uma camada de entrada, uma camada oculta e uma camada de saída. A camada de entrada é onde os dados são inseridos no MLP e, na camada oculta, alguns “trabalhadores” manipulam os dados antes de passá-los para a camada de saída, que fornece o produto para o mundo externo. Na instância de um MLP, esses trabalhadores são chamados de “neurônios” (ou às vezes nós) e quando manipulam os dados os manipulam por meio de uma série de funções matemáticas.
Dentro da rede, existem estruturas conectando nó a nó chamadas “pesos”. Os pesos são uma suposição sobre como os pontos de dados estão relacionados à medida que se movem pela rede. Em outras palavras, os pesos refletem o nível de influência que um neurônio tem sobre outro neurônio. Os pesos passam por uma “função de ativação” ao saírem do nó atual, que é um tipo de função matemática que transforma os dados. Eles transformam dados lineares em representações não lineares, o que permite que a rede analise padrões complexos.
A analogia com o cérebro humano implícita por “rede neural artificial” vem do fato de que os neurônios que compõem o cérebro humano são unidos de maneira semelhante à forma como os nós de uma ANN estão ligados.
Embora os perceptrons multicamadas existam desde a década de 1940, havia uma série de limitações que os impediam de serem especialmente úteis. No entanto, ao longo das últimas décadas, uma técnica chamada “retropropagação”foi criado que permitiu que as redes ajustassem os pesos dos neurônios e, assim, aprendessem com muito mais eficácia. A retropropagação altera os pesos na rede neural, permitindo que a rede capture melhor os padrões reais nos dados.
Redes Neurais Profundas
As redes neurais profundas assumem a forma básica do MLP e o tornam maior adicionando mais camadas ocultas no meio do modelo. Portanto, em vez de haver uma camada de entrada, uma camada oculta e uma camada de saída, existem muitas camadas ocultas no meio e as saídas de uma camada oculta tornam-se as entradas para a próxima camada oculta até que os dados tenham percorrido todo o caminho através da rede e foi devolvido.
As múltiplas camadas ocultas de uma rede neural profunda são capazes de interpretar padrões mais complexos do que o perceptron multicamada tradicional. Diferentes camadas da rede neural profunda aprendem os padrões de diferentes partes dos dados. Por exemplo, se os dados de entrada consistirem em imagens, a primeira parte da rede pode interpretar o brilho ou a escuridão dos pixels, enquanto as camadas posteriores selecionarão formas e arestas que podem ser usadas para reconhecer objetos na imagem.
Diferentes tipos de redes neurais
Existem vários tipos de redes neurais, e cada um dos vários tipos de redes neurais tem suas próprias vantagens e desvantagens (e, portanto, seus próprios casos de uso). O tipo de rede neural profunda descrito acima é o tipo mais comum de rede neural e costuma ser chamado de rede neural feedforward.
Uma variação das redes neurais é a Rede Neural Recorrente (RNN). No caso de Redes Neurais Recorrentes, mecanismos de looping são usados para reter informações de estados anteriores de análise, o que significa que eles podem interpretar dados onde a ordem é importante. RNNs são úteis para derivar padrões de dados sequenciais/cronológicos. Redes Neurais Recorrentes podem ser unidirecionais ou bidirecionais. No caso de uma rede neural bidirecional, a rede pode obter informações de partes posteriores da sequência, bem como de partes anteriores da sequência. Como o RNN bidirecional leva em consideração mais informações, ele é mais capaz de extrair os padrões corretos dos dados.
Uma Rede Neural Convolucional é um tipo especial de rede neural que é adepta da interpretação dos padrões encontrados nas imagens. Uma CNN opera passando um filtro sobre os pixels da imagem e obtendo uma representação numérica dos pixels dentro da imagem, que pode então analisar em busca de padrões. Uma CNN é estruturada de forma que as camadas convolucionais que puxam os pixels para fora da imagem venham primeiro, e depois vêm as camadas feed-forward densamente conectadas, aquelas que realmente aprenderão a reconhecer objetos, vindo depois disso.
Blogueiro e programador com especialidades em Machine Learning e Aprendizagem profunda tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA para o bem social.