A Era dos Algoritmos – Parte I

Muito do nosso conhecimento atual da natureza e da sociedade está sendo construído a partir de modelos computacionais, e não estamos certos se isto está interferindo na realidade do mundo em que vivemos. Um exemplo são os modelos de aquecimento global, baseados em estimativas e projeções simuladas em modelos computacionais. De fato, não há uma preocupação da sociedade em saber se os algoritmos que agora orientam os destinos do mundo nos trarão soluções para os problemas sociais, econômicos, geopolíticos e humanitários mais prementes. Estarão eles corretos? Os pressupostos em que foram construídos são confiáveis? Um drone que na suposta caça a um terrorista mata famílias inteiras porque o algoritmo que controla a operação de busca acusou uma alta probabilidade de identificação de alvo, estará correto? A facilidade com que máquinas programáveis permite a realização de coisas que até então seriam impossíveis alterou a ordem, a ética e a moralidade do mundo. Não é mais a época da razão e da filosofia, estamos agora na época dos algoritmos e entregamos às máquinas a procuração para atuarem em nossos nomes. Nossa existência como espécie é regulada por mitos, leis, valores, construções sociais, constructos linguísticos, artes e ciências que evoluíram por longo tempo, competindo entre si até formarem um sistema coerente que nos permitiu construir nossa sociedade e as instituições que regulam nossas vidas. Mas isso já mudou.

O aparecimento da automação substituiu a mão de obra humana por máquinas, e parte do seu labor intelectual para os computadores. A tecnologia informática transformou em bits as gestões de negócios, administrações pública e privada, e a moeda circulante. O mundo tornou-se virtual. Hoje não sabemos quanto dinheiro há no mundo, como ele circula. Sabemos apenas que existe uma nuvem virtual de negócios, transações, e somas, mas não sabemos onde está, que numerário existe de verdade, como tudo isso é administrado na rede mundial de computadores. Tudo está nos bancos de dados das máquinas, e se houver uma pane na rede mundial um colapso será inevitável. A segurança da informação é hoje o calcanhar de Aquiles da Civilização. Isso foi, por exemplo, a causa do medo que tomou o mundo com a iminência da virada do milênio (o “bug do milênio”). Temia-se que na virada do ano 2000 os computadores retornassem a 1900, reconfigurando todos os negócios: as contas bancárias iriam zerar, as transações desapareceriam e a bolsa iria ao colapso. O medo existia porque não se estava mais certo do que poderia acontecer na rede  mundial de computadores que detém todas as transações de negócios do mundo. O mito do domínio das máquinas, tido como um temor pueril tornou-se um risco real, e esse risco aumenta na medida em que uma máquina lógica passa a computar em escala de terabytes, e sua lógica passa a se impor sobre as decisões a tomar. A internet, com seu alto grau de conectividade, mantém bilhões de pessoas conectadas e isso está configurando uma mudança radical no comportamento humano, nas relações sociais e emocionais, e nos conceitos de país, nação, mercado, cidade, governo. Não se trata mais de uma computação convencional, finita, mas uma computação contínua que recomeça de diferentes pontos sempre que um hiperlink é acionado. É possível, segundo as leis da dialética, que a complexidade da rede mundial de computadores possa experimentar um salto de qualidade, na medida em que sua capacidade computacional aumenta exponencialmente – um fenômeno não estranho à evolução do cérebro e, em especial, do cérebro humano. Ray Kurzweil chamou isso de singularidade, mas penso que este salto consiste na perda do controle sobre como nos governaremos, algo que já acontece e que sutilmente se insinua na vida de todos nós.

O computador foi primariamente projetado para ser uma máquina de somar ultrarrápida e precisa, mas a possibilidade de programação lógica, heurística e cognitiva deram à computação um status de poder intelectivo que serve de instrumento para a ampliação de setores da inteligência humana além dos limites humanos. Outras formas de computação em paralelismo massivo distribuído, como as redes neurais da Google, Facebook, IBM, para citar algumas empresas, vêm aumentando setores da capacidade cognitiva para tomar decisões que não levam em consideração aspectos filosóficos, sociais, morais, culturais do humano. A máquina não tem propósitos, valores ou moralidade, atua por lógica pura e a lógica, por definição, não tem conteúdo, mas apenas estrutura. Se os que dirigem o nosso destino deixaram as decisões sob a responsabilidade de arquiteturas de microchips, não irá demorar para que não mais tenham controle sobre a complexidade que criaram e para a qual o cérebro não terá capacidade suficiente para restaurar a matriz cognitiva humana e reorganizar a espécie.

Fernando Portela Câmara

Publicado em Psychiatry On-line Brasil, novembro de 2017

A Nova Classificação Internacional de Doenças da OMS

Nesse artigo no qual apresento a nova classificação internacional de doenças da OMS, levanto uma questão para debate que julgo ser um corte tremendo na concepção do humano.

Vaidade, narcisismo, egolatria

O psiquiatra Fernando Câmara, da Associação Brasileira de Psiquiatria (ABP), explica as diferenças entre vaidade, narcisismo, egolatria e egocentrismo.

 

Lamarck e Dawkins na Google

A divisão de projetos avançados da empresa Google, denominada “Google X”, desenvolve um projeto desde 2016, mas que somente agora foi divulgado por um site americano. É um material interno, não destinado ao público em geral, que tem por título The Selfish Ledger.

Uma análise do vídeo pode ser vista aqui.

Aparentemente, o projeto se inspira nas controvertidas ideias de Jean-Baptiste Lamarck e de Richard Dawkins, que cunhou a expressão “gene egoísta”. Em 1809, Lamarck publicou a primeira teoria da evolução, que foi refutada cinquenta anos depois por Charles Darwin na sua famosa obra A Origem das Espécies. Lamarck acreditava que o comportamento de um indivíduo pode alterar seu código genético, o que Darwin e toda ciência genética atual refutou, mostrando que evolução é variação (mutação, recombinação) com seleção natural. Hoje uma parte dos geneticistas aceita o conceito moderno de “epigenética”, que os leigos confundem com o lamarckismo, uma falácia. O que fazemos ou como nos comportamos não altera o nosso DNA, entretanto, fatores ambientais e estresse bioquímico podem ligar ou desligar determinados genes, e essa modificação pode ser supostamente transmitida aos descendentes por três ou quatro gerações. Bem mais recentemente, em 1976, Dawkins publicou seu livro O Gene Egoísta, segundo o qual somos controlados por nossos genes e existimos apenas para propagá-los. Aliás, vem daí a origem do nome do projeto da Google.

Essa empresa partiu desses dois princípios para justificar um novo conceito na ciência dos dados, ou, melhor dizendo, na analítica preditiva. À medida que usamos a tecnologia dos smartphones, redes sociais etc. deixamos uma trilha de informações sobre nossas ações, decisões, preferências, deslocamentos e relacionamentos. Em outras palavras, registramos inadvertidamente na nuvem uma versão codificada de nós mesmos, constantemente atualizada e cada vez mais complexa.

Ela acredita firmemente que todos nós obedecemos aos nossos dados. São eles que norteiam nossas decisões e comportamento social e, com a tecnologia do Selfish Ledger, eles podem ser disponibilizados a outros, como nossos filhos, alunos e… governos e órgãos de segurança. A Google seria responsável pela criação e manutenção desse registro, coletando o máximo possível de informações sobre cada usuário. O vídeo mostra como pessoas podem ser monitoradas em várias situações do cotidiano, e recebendo sugestões não-solicitadas do Google que efetivamente alteram o comportamento do usuário.

A Google declarou que o vídeo é uma “uma técnica de design especulativo, usada para explorar ideias e conceitos desconfortáveis para promover debate e discussão”, e concluiu dizendo que o vídeo “não é relacionado a quaisquer produtos atuais ou futuros”. Hmmm.

Diga o que disserem, o vídeo é perturbador, ainda mais numa época em que nossos dados são coletados e usados de forma indevida para ações diversas, desde impor uma decisão sobre um produto a mudar o voto popular ou coisas mais graves que podem afetar até mesmo a estabilidade de um regime. Além do mais, isso torna mais vulnerável a nossa liberdade, deixando-nos ser controlados por gigantes multinacionais de tecnologia digital e inteligência artificial. Uma única empresa passa a ter o aterrorizante poder de redesenhar a sociedade, e criar backups dos seus usuários e modelar um estado totalitário.

Morte e desespero dos genes

Um vídeo muito interessante e instigante, liberado recentemente pela revista Science, resume o estado atual das pesquisas sobre expressão gênica após a morte.

Nem todas as células morrem junto com o corpo, algumas podem ficar ativas por mais tempo, sugerindo que alguns genes continuam trabalhando após a morte. Não sendo inteligentes, senão apenas meros algoritmos, eles nada sabem ou percebem da tragédia que nós humanos, em consciência, tanto tememos e rogamos misericórdia aos deuses e à medicina techno, com suas panaceias rejuvenescedoras e antienvelhecimento… E para o horror de muitos, estudos recentes mostram que a consciência sobrevive por algum tempo (esperemos que por momentos breves) após a morte. (Sentiremos dor ao doar os órgãos logo após passarmos? Ouviremos as pessoas ao redor? Sentiremos a angústia dos maus tratos com o corpo morto? Um pouco de paranoia aqui pode ser importante para uma boa reflexão…, como Freud recomendava.)

Algumas horas após a morte, a rigidez cadavérica se instala – todos os músculos se contraem irreversivelmente, dando ao corpo uma aparência rígida. Dois a quatro dias depois, a degradação das proteínas musculares causa seu relaxamento, dando início à putrefação. Em seguida, as bactérias anteriormente presentes nos organismos e microrganismos externos (bactérias, fungos, insetos e outros invertebrados) alimentam-se do cadáver, sucedendo espécies após espécies numa ordem que segue de acordo com o estágio de decomposição, até não restar mais nada a consumir. Esse processo pode levar anos, dependendo de vários fatores.

Nos primeiros dias após a morte, algumas células continuam a mostrar sinais de atividade, sugerindo que o DNA ainda é capaz de expressar genes. Isto foi comprovado medindo-se a expressão de cerca de mil genes em ratos e em paulistinhas (um popular peixinho de aquário) por quatro dias após estarem mortos. Descobriu-se que os genes envolvidos na resposta imune, estresse, inflamação e câncer continuavam ativos.

Surpreendentemente, descobriu-se também que genes que eram expressos somente durante o desenvolvimento embrionário eram ativados na morte. Como esses genes silenciam após a fase do desenvolvimento, não mais se expressando pelo resto da vida do indivíduo, levantou-se a hipótese de que algumas condições celulares presentes durante a formação do embrião poderiam ser encontradas na morte. Parece que esses genes voltam a tentar impulsionar novamente vida no organismo…

A atividade de proteínas reguladoras da expressão gênica (nucleossomas, estruturas formadas por oito histonas) aumenta no final da vida, e os genes de desenvolvimento são normalmente bloqueados por essas proteínas, mas após a morte o bloqueio se desfaz e esses genes despertam.

Em um estudo com mais de 9.000 amostras de 35 tipos diferentes de tecidos de humanos falecidos, descobriu-se que em alguns órgãos, como o cérebro e o baço, a expressão gênica variava apenas ligeiramente. Já nos músculos, a atividade era muito diferente: mais de 600 genes mostravam aumento ou diminuição na sua expressão. Esses diferentes padrões de atividade gênica implicam na existência de mecanismos bioquímicos ativos após a morte.

Ora, a expressão desses genes não tem valor algum na morte. Contudo, se o organismo está em agonia, a ativação de genes relacionados à inflamação e ao estresse, em derradeira tentativa de restauração da condição vital, pode ser vantajosa. É possível que a expressão post mortem dos genes mencionados seja um traço ou prolongamento da cega tentativa de reinicializar o organismo. Isso me faz pensar… se o genoma não tem instrução ou programa que reconheça a morte, parece que seus algoritmos evoluíram eventualmente para impulsionar e manter a vida a todo custo… Não existe pulsão de morte na evolução…

Por outro lado, pacientes que recebem órgãos de indivíduos falecidos apresentam maior risco de contrair câncer, o que nos leva a indagar se existe uma relação entre as mudanças na expressão gênica após a morte e o aumento do risco de câncer em receptores de transplantes. Mais uma vez filosofo… na maioria das vezes as células cancerosas proliferam na idade madura e quase inevitavelmente na velhice; seria isso uma tentativa de rejuvenescimento, que para a burra e cega natureza seria o retorno ao princípio, quando éramos seres unicelulares imortais, e a vida era vitoriosa sobre a morte?

Bem, para manter o espírito científico aqui, alguns cientistas forenses já consideram a descoberta uma contribuição importante para se precisar com grande margem de acerto o tempo de morte de uma pessoa.

Como a IA deep-learning pode ajudar a desvendar a cognição

A aprendizagem profunda é uma abordagem de inteligência artificial (IA) inspirada nas redes neurais do córtex analisador visual/auditivo do cérebro. Trata-se de um algoritmo de aprendizagem que vem contribuindo para tecnologias tais como análise automatizada de vídeo, tradução de idiomas, reconhecimento de faces e vozes, condução automática de automóveis etc.

Esse algoritmo aprende a processar inputs para obter uma saída específica – por exemplo, identificar um rosto específico em muitas fotos de pessoas diferentes. As redes são denominadas “profundas” (ou “convolutivas”) devido às suas múltiplas camadas de unidades computacionais repetidas em sequência. Cada unidade recebe entradas de unidades similares da camada anterior e envia saídas para as da próxima. Quando exposta a um determinado objeto, a rede modula os valores de pesos nas saídas de cada camada e estabelece, após tentativas e correções, a melhor distribuição de valores que corresponde ao objeto. Assim, ele passa a identificar o objeto em função do padrão de distribuição de pesos nas camadas de unidades computacionais, que equivalem a neurônios artificiais. Matematicamente, essa rede pode ser vista como uma função de alta dimensão, que modula os valores das saídas de uma camada para a próxima.

Para ser capaz de reconhecer coisas, a rede ajusta seus pesos de conexão durante uma fase de treinamento, que normalmente se baseia em um conjunto de exemplos de entradas e saídas. Essa é a fase de aprendizagem por treinamento. Por exemplo, mostramos a um sistema de aprendizagem profunda uma série de fotos especificando quais são as que contêm a face que ela deve identificar. Seus pesos são automaticamente ajustados pelos algoritmos de otimização até que ela alcance uma configuração de valores que dão a identificação correta com base na distribuição de pixels. A organização profunda da rede (multicamadas) confere a ela uma capacidade prodigiosa de identificar e classificar os detalhes, relações e configurações mais úteis que se repetem nos exemplos e, com isso, distingue os diferentes rostos. A desvantagem desse processo é que a rede treinada comporta-se como uma caixa preta, isto é, na maioria das vezes as soluções computacionais que ela elaborou durante o treinamento não são deduzidas na miríade de pesos distribuídos ao longo das camadas.

Redes de aprendizagem profunda executam com sucesso tarefas perceptivas, talvez até imitando o córtex dos mamíferos, mas há poucos estudos de tarefas comportamentais complexas, tais como a de reconhecer e percorrer (“navegar”) um território. Um aspecto fundamental de navegação na vida real é estimar a posição de uma pessoa após cada etapa, calculando o deslocamento por etapa com base na orientação e distância percorrida. Esse processo é chamado de integração do caminho e é considerado pelos neurocientistas, cientistas cognitivos e roboticistas como crucial para gerar um mapa cognitivo do ambiente.

No post anterior, vimos como a IA deep-learning pode ser uma valiosa colaboradora na investigação dos mecanismos neurais da cognição.