Sistemas não lineares

Sistemas dinâmicos descrevem matematicamente entidades em movimento, permitindo classificar e predizer seu comportamento no tempo. Pode depender tanto de variáveis observáveis como de variáveis não-observáveis, e consiste de duas partes: um estado (condição atual) e uma dinâmica (como o estado do sistema evolui no tempo). Quando um sistema dinâmico não apresenta a propriedade de linearidade (princípio da superposição de efeitos) ele é denominado sistema dinâmico não-linear.

De modo geral, o termo “não linear” refere-se a todas as estruturas que não apresentam um único sentido, com múltiplos caminhos e destinos, desencadeando em múltiplos cenários finais. Assim, um sistema dinâmico não-linear evolui no tempo com um comportamento desequilibrado e aperiódico, onde o seu estado futuro é extremamente dependente de seu estado atual, e pode ser mudado radicalmente a partir de pequenas mudanças no presente.

Atrator de Lorenz. Fonte: estocasticidade

Um sistema não linear pode apresentar um comportamento de estado estacionário que não é equilíbrio, nem oscilação periódica, nem oscilação quase periódica, sendo denominado caos. A Teoria do caos é determinística, ou seja, o fenômeno é explicado por relações de causalidade. Um sistema caótica apresenta um fenômeno fundamental de instabilidade chamado sensibilidade às condições iniciais que, modulando uma propriedade suplementar de recorrência, torna-os não previsíveis na prática a longo prazo.

No determinismo (particularmente “pré-determinismo”), todo efeito já está completamente presente na causa, ou seja, a determinação é colocada no passado, numa cadeia causal totalmente explicada pelas condições iniciais do universo. Mas também pode existir uma situação de “co-determinismo”, na qual a determinação é colocada no presente ou na simultaneidade dos processos. Nesse caso, supomos que nem todo efeito está totalmente contido na causa, isto é, que o próprio efeito pode simultaneamente interagir (causalmente) com outros efeitos. Os críticos do determinismo reivindicam a não-causalidade para justificar o livre-arbítrio e a livre escolha.

Em Matemática, um sistema de equações lineares (abreviadamente, sistema linear) é um conjunto finito de equações lineares (polinômios de grau um com coeficientes cuja multiplicação é comutativa) aplicadas num mesmo conjunto, igualmente finito, de variáveis. Pode ser resolvido analiticamente por algumas técnicas e resultar em uma solução exata. Já sistemas de equações não-lineares necessitam de métodos numéricos aproximativos e iterativos para chegar em uma solução.

Observação: uma função é analítica quando ela é diferenciável em um ponto z0 de seu domínio e em uma vizinhança de z0, de modo que ela pode ser representada por uma série de potência baseada em potências de (z − z0).

Aplicações

Em grande parte das aplicações, modelos lineares refletem apenas aproximações dos modelos reais. Fenômenos físicos ou econômicos são geralmente melhor representados por modelos não-lineares.

Algumas das formas mais utilizadas para compreender o funcionamento do cérebro são voltadas para localizar quais regiões estão ativas (comunicações elétricas entre neurônios) durante a execução de alguma tarefa (processo cognitivo). Para compreender melhor o funcionamento cerebral, deve-se ir além de apenas listar as regiões ativas e estudar como elas interagem e de que forma suas relações se modificam dinamicamente. Esses estudos são baseados em séries temporais de sinais neurofisiológicos e como essas séries se relacionam. A partir dos sinais elétricos cerebrais, gerados pelos diferentes processos biológicos, físicos e químicos, pode-se fazer uma análise para inferir, mais detalhadamente, a direção do fluxo de informação entre as diferentes estruturas, com algoritmos que trazem uma medida direta de informação de tais processos.

Sistemas sociais, criptografia, telecomunicações, economia, linguística e várias outras áreas também possuem aplicações dessas teorias.

Caso os valores de uma ou mais séries atuem como preditores e eles sejam não lineares, o resultado da previsão de um comportamento geralmente é pouco confiável com trechos curtos de dados. Existem várias técnicas para analisar séries isoladamente e relacionar o comportamento temporal de grandezas distintas quando essas relações se dão de forma linear. Para sistemas não lineares, pode-se modelar séries segundo os estimadores de entropia aproximada e de entropia amostral. Tais métodos consistem na descrição do nível de complexidade e/ou variabilidade da série no tempo.

A entropia representa o valor médio da informação (grau de incerteza) associada às probabilidades dos objetos de um evento (variável aleatória discreta ou continua ou processo). Nos processos onde há perda de informação, há uma situação igual aos processos que ganham entropia.

Teoria da Informação

A Teoria da informação é um ramo da teoria da probabilidade e da matemática estatística que lida com sistemas de comunicação, transmissão de dados, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc.

“O problema fundamental da comunicação é reproduzir em um dado ponto, exata ou aproximadamente, uma mensagem produzida em outro ponto.”
Claude Shannon (1916-2001)

O engenheiro e matemático Claude Shannon introduziu conceitos primordiais que deram origem à teoria da informação em 1948, no trabalho A Mathematical Theory of Communication (publicado na revista Bell System Technical Journal).

No processo de desenvolvimento de uma teoria da comunicação que pudesse ser aplicada por engenheiros eletricistas para projetar sistemas de telecomunicação melhores, Shannon definiu uma medida chamada de entropia. Em Termodinâmica, entropia é a medida do grau de desorganização (aleatoriedade) das partículas em um determinado sistema. Assim, quanto maior a desordem, maior a alteração do estado do sistema e, consequentemente, maior será o grau de entropia.

Em Teoria da Informação, a entropia é definida como sendo uma forma de medir o grau médio de incerteza a respeito de fontes de informação, o que consequentemente permite a quantificação da informação presente que flui no sistema. Ou seja, quanto mais incerto é o resultado de um experimento aleatório, maior é a informação que se obtém ao observar a sua ocorrência.

Matematicamente, a entropia da informação é definida como:

math formula

onde o logaritmo é na base 2 e determina o grau de “caoticidade” da distribuição de probabilidade e pode ser usada para determinar a capacidade do canal necessária para transmitir a informação.

Esse modelo teórico para a comunicação envolvendo mensagens digitais parte do pressuposto de que uma mensagem transmitida por um receptor é invariavelmente recebida com ruídos, ou seja, quando uma informação passa por um canal de comunicação ela sofre distorções e chega ao receptor precisando ser submetida a um processo de decodificação. O sinal pode ser recuperado utilizando-se um código corretor de erros adequado.

Redes neurais

Redes neurais artificiais (RNAs) são modelos computacionais inspirados pelo sistema nervoso central de um animal (em particular o cérebro) que são capazes de realizar o aprendizado de máquina bem como o reconhecimento de padrões. Consistem em um método de solucionar problemas de inteligência artificial, construindo um sistema que tenha circuitos que simulem o cérebro humano, inclusive seu comportamento, ou seja, aprendendo, errando e fazendo descobertas.

Assim como o sistema nervoso é composto por bilhões de células nervosas, a rede neural artificial também seria formada por unidades que nada mais são que pequenos módulos que simulam o funcionamento de um neurônio. A função básica de um neurônio é somar ponderadamente as entradas e retornar uma saída, caso esse valor seja maior que o valor de soma (threshold).

A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos de suas conexões são ajustados de acordo com os padrões apresentados (quanto mais vezes a conexão é requisitada, maior o peso dela). Em outras palavras, elas aprendem (extraem regras básicas) através de casos reais conhecidos. Do ponto de vista estrutural, a arquitetura de redes neurais pode ser classificada como estática, dinâmica ou fuzzy, e de única camada ou múltiplas camadas.

Neurocomputação

A sequência de estados exibida por um sistema dinâmico durante sua evolução no tempo é denominada trajetória. Computadores digitais executam automaticamente, a cada passo do processo de computação, correções da trajetória de seu estado físico por meio da representação binária do estado interno de seus componentes. Computadores analógicos não são capazes de realizar essas correções, sendo que a relevância dos resultados produzidos dependem da acurácia dos componentes e da extensão dos cálculos.

Os neurocomputadores, embora executem cálculos analógicos, a trajetória do seu estado interno é apreendida em uma base local e atraída pela solução do problema (associada àquela base).

Computação cognitiva

Simplificando, os computadores são capazes apenas de somar e comparar. Programações cada vez mais elaboradas a partir disso é que permitiram evoluir de cálculos simples, realizados no início da computação, até complexos sistemas programáveis (como conhecemos hoje). O próximo passo será a utilização de computadores para o processamento de informações e tomadas de decisões baseadas em aprendizado de experiências anteriores, semelhante ao funcionamento do nosso cérebro. Essa inteligência artificial “pensa” por meio de avançados algoritmos matemáticos, e é movimentada por uma infraestrutura poderosa para o processamento de uma grande massa de dados.

Alguns exemplos: a análise de quedas ou acentuações de ações na bolsa de valores pode indicar qual a melhor opção para investir a partir de dados previamente informados; um oncologista, para identificar o melhor tratamento para tratar certo tipo de câncer, precisa analisar uma infinidade de dados. Em 2011, o sistema de computação cognitiva da IBM (batizado de Watson) conseguiu derrotar dois conhecidos vencedores de um programa de perguntas e respostas da televisão americana, chamado Jeopardy.

ps: Antes do novo acordo ortográfico, a norma padrão recomendava usar o hífen sempre que o “não” viesse antes de substantivo, quando associado a um adjetivo ou particípio (terminações -ado e -ido) e quando o “não” formasse uma palavra de sentido completo. De acordo com o novo vocabulário ortográfico, não se emprega mais o hífen nesses casos. Assim, antes era “não-linear” e agora fica “não linear”.

Fontes

Compartilhe o link desse texto, mas se for copiar algum trecho, cite a fonte. Valorize nosso trabalho.
Mais informações na licença de uso do site.

Um Pingback/Trackback