sexta-feira, 17 de julho de 2009

Sustentabilidade e Simulacros: problematizando a ciência da complexidade como abordagem epistêmica aplicada ao desenvolvimento sustentável.


Resumo

A ciência da complexidade tornou-se um paradigma epistemológico transdisciplinar capaz de oferecer um terreno para produzir simulações. As questões associadas ao desenvolvimento sustentável têm sido beneficiadas por esta característica transdisciplinar, aliada a fartos recursos computacionais. Apesar do grau de indeterminação oferecido pela ciência da complexidade, tendo no conceito de “efeito emergente” sua principal caracterização, esta abordagem ainda está vinculada à produção de uma meta-linguagem, haja vista a característica simbólica dos processos computacionais. Este trabalho problematiza a produção desta metalinguagem, visto que o conceito de sustentabilidade envolve a produção de modelos que, de uma forma explícita ou não, são produzidos a partir de um conceito de “natureza” que muda historicamente. A atual forma predominante de representação da natureza (simulacros), implica em uma crise da crítica ao discurso da globalização, uma vez que este se produz de forma acêntrica, sem sentido e puramente reversível. Concluí-se que a ausência de externalidade à modelização de simulacros aproxima os discursos sobre o desenvolvimento sustentável, mesmo que estejam situados em diferentes posições do espectro ideológico, oferecendo desafios às ações políticas alternativas.




Advento da complexidade

Baranger (2002) compara o advento da ciência da complexidade a um novo instrumento epistemológico, assim como o cálculo diferencial de Newton e Leibnitz ofereceu um novo conjunto de ferramentas matemáticas que viabilizaram uma revolução nas ciências na modernidade, possibilitando maior consiliência[1] entre a a física, a química e a matemática. Se o cálculo diferencial integral possibilitou instrumentos para a matematização do real, ou seja a interrogação do mundo por meio de caracteres matemáticos – o que tornou o universo passível de ser descifrado pela razão ao invés de ser revelado por Deus[2] -, o novo terreno da simulação, a qual a complexidade oferece seu paradigma unificador, promove um novo conceito de cientificidade e interlocução disciplinar entre as ciências exatas e as humanidades, ao transformar as formas de seu interesse de estudos em problemas computacionais.

O terreno epistemológico do mundo de Leibnitz, devemos lembrar: o monismo[3], que pretendia unificar os sistemas de representação do mundo por intermédio de um único conjunto expressões (LEIBNIZ, 2009), ofereceu um motivo para um novo avanço teológico. O projeto leibniziano, de uma characteristica universalis, de um calculo rationator, está na base da construção de uma lógica e uma linguagem formal universais. Esta linguagem deveria ser reinterpretável, completamente neutra quanto aos conteúdos e aos estados subjetivos. No final do século XIX, Gottlob Frege, e, mais tarde, o matemático inglês Alan Turing, tornaria a máquina universal a derradeira ferramenta epistemológica, aquela que viabilizaria a simulação e a complexidade. A máquina de Turing[4] provaria que é possível não apenas automatizar qualquer cálculo de algoritmos computáveis e transforma-lo em um código, mas, para além disso, que seria possível inserir os códigos derivados destas máquinas e executá-los em uma outra máquina de Turing, criando assim uma máquina de execução de outras máquinas – uma meta-máquina, que inauguraria a hoje clássica divisão entre hardware e software (LEAVITT, 2007). O ponto a ser destacado é que a máquina de Turing comporta-se como um leitor universal, ou seja, muda sua funcionalidade conforme o código que opera. Se podemos esperar que um texto tenha diferentes exegeses para cada leitor humano (REMOR, 2006), na máquina de Turing existe a leitura objetiva de códigos, além da esperança de que estes produzam sempre os mesmo resultados. Se a máquina antes estava confinada a sua própria identidade enquanto função, após Turing, ela ganhou novas virtudes - no sentido atribuído a palavra latina virtus – como potência em tornar-se outras máquinas, executando a leitura de outros códigos.

Os computadores digitais e a decorrente vulgarização do poder computacional nas últimas décadas permitiram, além das aplicações baseadas no cálculo diferencial integral, uma exponencial paralelização de cálculos matemáticos e algoritmos, algo impensável nas operações das antigas máquinas de cálculo, como as máquinas que decifravam códigos nazistas - empreendimento inicial de Turing, ou as máquinas que caracterizaram a revolução industrial. Esta paralelização de múltiplos processos computacionais permitiu a investigação de uma nova classe de fenômenos, impossíveis de serem estudados anteriormente, devido à ausência de uma ferramenta compatível.

O novo poder computacional banalizado, ofereceu aos pesquisadores a possibilidade de simulação de processos novos, seja a execução exaustiva de funções matemáticas não lineares, ou a execução de processos paralelos de colaboração e competição. O resultado deste tipo novo de experimento, resultava frequentemente na eclosão de novos comportamentos coletivos, o aparecimento de padrões que pareciam encontrar estabilidade vindos da interação entre uma miríade de cálculos não lineares, como nos sistemas que envolvem a teoria do caos[5]. Esta nova classe de experimentos e pesquisas agrupou-se sob o signo de teoria da complexidade e, nas últimas duas décadas, encontrou uma estrutura de conceitos comuns, alcançando assim o estatuto de uma disciplina científica.

A ciência da complexidade tem sido usada, desde então, para fornecer um campo teórico para disciplinas como a física, na simulação da dinâmica de partículas; na biologia, para estudo dos modelos evolutivos; nas ciências humanas e no meio ambiente, dentre outras. Os sistemas complexos, conforme a perspectiva de (1997), oferecem propriedades comuns universais para abordagem de diferentes problemas, ou seja, uma estrutura comum no tratamento de questões epistemológicas diferentes. Estas estruturas poderiam ser resumidas nos seguintes componentes:

l Elementos: ou sejam, as unidades elementares a que o sistema se refere de forma a encontrar propriedades. A idéia de um elemento fundamental depende de um contexto epistemológico que pode ser mudado conforme a simulação a ser produzida, porém, uma vez estabelecidas estas propriedades, elas oferecem ao elemento uma identidade.
l Interações: a forma e a intensidade a que os elementos interagem entre si e outros subsistemas do campo abordado. Neste caso também uma relação é situada, quer dizer, uma propriedade fundamental que forma uma identidade.
l Diversidade: dadas as proposições iniciais, ou, as identidades que fundamentam as propriedades dos elementos dos sistemas, a variabilidade destas propriedades podem ser expressadas dentro de certos limites, dado seu contexto epistemológico.
l Ambiente: trata-se do campo lógico ou topológico no qual os elementos dos sistemas estarão situados e onde ocorrerão suas interações.
l Atividades: trata-se dos objetivos que os elementos ou o sistema como um todo podem operar em termos de competição e colaboração.

A relação entre os elementos e o todo é fundamental na compreensão dos sistemas complexos. Desta relação, advém um conceito fundamental da abordagem: a idéia de emergência, que pressupõe que eventos surjam da interação entre os elementos do sistema de forma que a sua descrição exige a introdução de novas propriedades, diferentes daquelas instanciadas pelos elementos. Nos sistemas complexos, emergem comportamentos coletivos, advindos da intensa computação de processos paralelos e não-lineares, com propriedades que precisam de novas categorias para serem entendidos, além daquelas usadas no entendimento de seus elementos. Por conseguinte, a complexidade do sistema não é apenas horizontal, mas também vertical, no sentido de que, em diferentes planos de descrição, diferentes elementos e propriedades são agenciadas.

ressalta ainda que a emergência pode ser local ou global. Local quando a interação ente os elementos resulta em novas propriedades no sistema, por exemplo, o comportamento de partículas que tem propriedades tais como velocidade e posição que, ao interagirem, emergem propriedades coletivas como temperatura e pressão, como os gases estudados na física de partículas e na termodinâmica. A emergência local produz propriedades não complexas, em que podemos descrevê-las uniformemente. As emergências globais, no entanto, oferecem propriedades que não podem ser facilmente isoladas e se comportam de forma complexa em relação ao sistema como um todo.
Um dos exemplos de emergências globais são as formas de tratamento da memória que são operadas pelo sistema nervoso das criaturas vivas. A memória, enquanto emergência da interação entre neurônios, não pode ser separada facilmente como uma propriedade isolada do conjunto de neurônios. Ela precisa novamente da interação dos elementos para a recuperação de sua propriedade emergente. Está, portanto, distribuída; isso implica não ter uma identidade facilmente recuperável senão por sua própria emergência. A interação entre seus elementos é complexa, pois a alteração em sua relação entre seus elementos influencia no padrão formado coletivamente e vice versa, ou seja, o efeito emergente altera a relação entre os elementos do sistema.

A ciência da complexidade dá ênfase aos sistemas que produzem emergências globais, pois estas exigem, ainda segundo , um esforço de compreensão maior entre o todo e as partes, assim como um esforço epistemológico mais contextualizado, no qual as relações macroscópicas e microscópicas devem ser elaboradas, por exemplo: quais as propriedades devem ser incluídas no modelo em relação aos elementos do sistema e quais propriedades são esperadas em um nível macroscópico. Isso implica em pensar constantemente na pergunta: quais escalas de tempo e espaço devem ser adotadas no tratamento do sistema?

Estas dicotomias encontram uma ressonância epistemológica em diversas disciplinas, como a relação entre indivíduos e sociedade encontrada na sociologia; sujeito e cultura, na antropologia; gene e espécie, na biologia; moléculas e substâncias, na química; partículas e fluidos, na física. Por isso, a ciência da complexidade pode oferecer um quadro teórico unificado para tratar destes assuntos, uma vez que sua prática, desde seu início, foi fundamentada na execução recursiva de funções não lineares, ou na interação exaustiva de processos computacionais em paralelo, principalmente onde o aparecimento de fenômenos emergentes, muitas vezes caóticos, não lineares ou imprevisíveis, parecem ser a tônica da discussão teórica e não simplesmente um evento que deve ser tratado como uma exceção e que não implicam uma ruptura teórica[6].

Nas ciências humanas e do meio ambiente, por exemplo, a complexidade tem sido conjugada com a abordagem de múltiplos agentes de software, vinda da inteligência artificial. Estas técnicas permitem simular interações entre múltiplos sistemas de forma a obter resultados por simulação[7], conforme as pesquisas de Edmonds (1999), Glesser (1999) e Gilbert (1995) que passam a entender as instituições sociais como efeitos emergentes da interação entre os indivíduos e sociedade[8]. Estas abordagens têm oferecido não somente um campo de aplicação para estas disciplinas, mas também uma forma de epistemologia em que o conceito de cientificidade de um modelo passa por sua capacidade de representação por simulação (EPSTEIN, J. M. e AXTELL, R, 1996), em outras palavras, a pergunta sobre uma verdade lógica sobre um modelo passa a ter consistência epistemológica em sua capacidade de ser simulada computacionalmente. É comum estes modelos terem uma abordagem cognitivo-evolucionista[9], o que não parece ser surpreendente, uma vez que o projeto darwinista de seleção natural lida com categorias conceituais muito parecidas com as da complexidade, ou sejam, a idéia de interação entre indivíduos de uma espécie (os elementos), o comportamento enquanto coletividade (emergência), os processos de seleção, mutação e promoção (como variedade) etc.
A simulação como paradigma epistemológico, depois de ser aplicado em diversas disciplinas, e concluir seu resumo conceitual na ciência da complexidade, pôde ser abstraída em uma forma transdisciplinar Os objetos epistemológicos da nanotecnologia[10], da biologia, da informática e ciências cognitivas[11] foram reunidos em um mesmo problema computacional, quer dizer: a relação entre elementos, meio e estruturas coletivas de comportamento emergente. A ciência da complexidade torna-se agora um movimento mais amplo: a convergência NBIC[12]. A convergência digital que consiste, segundo Negroponte (97), na transformação de átomos em bits e promove uma crise na industria de comunicação e entretenimento[13], passa a ser agora o principal modo de operação e formulação epistemológica, ou seja, torna-se uma convergência representacional - uma vez que o instrumento de produção, manipulação e distribuição do saber não são mais os computadores, nem a imensa rede que os conecta, mas a virtualização da máquina de Turing, o ciberespaço enquanto metamáquina virtual universal. Todavia, esta metamáquina virtual pressupõe uma metalinguagem formal universal, uma characteristica universalis, capaz de carregar e expressar todas as linguagens naturais e históricas, subsumindo em si toda a significância, a tal ponto em que desparece a necessidade da referência ao real, pois tudo se dá nas operações metalinguísticas da metamáquina que, como um ratiotinator universalis, dispensa-nos do pensamento.

Discursos sobre o desenvolvimento sustentável


O desenvolvimentismo sustentável pode ser definido, de maneira geral, como sendo um movimento de administração das formas produtivas, no sentido de compatibilizá-las com a preservação dos recursos naturais (MONTIBELER-FILHO, 2001). A discursividade sobre o desenvolvimento sustentável tem-se distribuído, no entanto, por diferentes matizes ideológicos; seja pela via da economia ambiental, a economia ecológica ou eco-marxismo (IDEM). Na economia ambiental, por exemplo, ocorre a atribuição de um valor monetário aos componentes do meio ambiente; a questão que lhe cabe é: como precificar a natureza? Este discurso pressupõe que exista uma forma de representação (no caso o capital) que possa, mesmo de forma contingente, atribuir um meio de equivalência entre a natureza e a cultura e, por conseguinte, o advento de uma forma de consequência irracional, uma catástrofe, é atribuído a uma externalidade, ou seja, ao real que não pode ser incluído no sistema de precificação.

A economia ecológica, por sua vez, como explica Montibeler-Filho, tem uma preocupação em conter a entropia dos componentes envolvidos na produção de riquezas, considerando a reciclagem e a diminuição da energia na produção como fatores capazes de responder e balancear a natureza que é vista como um sistema. A externalidade se conjuga ao conceito de entropia – a tendência à desorganização de um sistema, conforme a concepção cibernética de Wienner (1973). O eco-marxismo, por seu turno, entende a produção de externalidades como uma consequência do processo de mais valia, próprio do capitalismo, que apresentaria contradições internas em seu processo de acumulação de riquezas. O ponto que gostaríamos de destacar é a idéia de que a natureza seja um sistema passível de administração, na condição de haver um correlato da idéia moderna presente nestes três discursos. A diferença lógica entre eles é o como concebem o conceito de externalidade, que pode se apresentar de formas diferentes, mas que, não obstante, são passíveis de representação, da forma que seguem um modelo energético de sistema, compatível com a máquina moderna.

Como vimos, na seção anterior, a idéia central da máquina moderna é a de que: primeiro – o mundo seja matematizável; segundo – seja possível concebê-lo feito da mesma substância, ou, fazer com que seja operacionalizável seguindo as regras gramaticais. O custo para isto é o conceito de entropia: a tendência à desorganização contínua do universo (BAUDRILLARD, 1999). O conceito de externalidade, nos discursos da sustentabilidade em seus diversos matizes, é correlato ao conceito de entropia, em sua ação de identificar os elementos que sobram da operação simbólica de matematização e operação do real.

Ao criar um cosmos, com os instrumentos universais da modernidade advindos do cálculo, criamos também uma externalidade, ou seja, um elemento de irracionalidade que se contrapõe às forças de conservação. Dado que a civilização, na modernidade, adotou o modelo energético de representação, seu correlato é a forma de externalidade como entropia. A natureza, então, seria representada justamente por sua entropia, ou sua capacidade de gerar externalidades, conforme os modelos de sustentabilidade, em seus variados nuances. Brugger (2009) suspeita do termo desenvolvimento sustentável no sentido de representar um eufemismo apropriado pelo mundo corporativo para poder realizar mais do mesmo, apropriando-se de praticas ecologicamente corretas que colocariam uma maquiagem verde em suas práticas ambientais, livrando o capital de suas contradições. Brugger acredita que exista uma outra forma de apropriação ética nas formas de representação da natureza, que possa ser mais compatível com a idéia de um futuro em comum – e é esta possibilidade, precisamente, política e ética, que a máquina contemporânea faz-se neutralizar.

Na discursividade da ecologia política ou da antropolítica, como preferem autores como Edgar Morin (2009), acredita-se na possibilidade de distribuição de poder político com base no conceito de auto-eco-organização e a análise das inter-relações entre unidades política e meio-ambiente. Estas seriam alternativas no tratamento de questões ambientais. Para tanto, a ecologia política pressupõe a criação de instituições globais voltadas para educação e cidadania que considerem, entre outros aspectos, a complexidade dos aspectos das interações humanas, sua inserção em diversos âmbitos e o enfrentamento de questões tais como as relações entre ética ambiental e política. O jogo da complexidade consistiria, neste ponto de vista, em tornar decisões éticas e políticas em jogos computacionais equivalentes aos jogos do meio ambiente e do capital, em sua propensão para sistemas universalizantes.

A máquina de Turing, como exponenciação do universalismo da máquina moderna, abriu um novo caminho no jogo maquínico de representação do universo. Com a universalização de uma máquina que conjuga outras máquinas, o jogo da entropia e da externalidade, que caracterizava a máquina moderna e seu modelo energético, é transfigurado para uma máquina puramente simbólica e estruturalista, no sentido de elevar a informação à condição de elemento universal, ou como átomo da linguagem, um mônada no sentido leibniziano, que encontra na linguagem binária a substância final de representação. É importante salientar que esta nova máquina não tem externalidades, nem entropia, uma vez que não pretende preservar os sentidos de suas relações internas – já que foi radicalmente abstraída em sua estruturalidade entre zeros e uns. A informação na linguagem binária tem uma pretensão de neutralidade capaz de abstrair todas as máquinas e, por isso, relacionar todas as funcionalidades, mesmo as exceções, em um jogo holístico, homólogo, monotônico, em que não há exterior que não possa ser incluído em um sistema de exceção familiar (BAUDRILLARD, 1976). Dito conforme o jargão da nova lógica: a metalinguagem contém dentro de si a linguagem objeto.

A máquina moderna afirmava um real sem sentido e irracional, e anunciava um desastre como a vingança das externalidades, promovendo a esperança de que, se encontrássemos todos os elementos exteriores e os conjugássemos em nosso modelo, então o meio ambiente seria administrável; caso não fosse, se houvesse o desastre, então haveria ainda a esperança de que nossas ferramentas tivessem sido apenas mal utilizadas e que precisaríamos de apenas mais do mesmo: mais pesquisas, mais dinheiro, mais progresso; em outras palavras, que um reordenamento político em nossas prioridades seria o ajuste necessário para a vitória. A máquina moderna, pela via do sentido, não obstante, era uma máquina a favor do discurso político e foi através dela que floresceram os discursos sobre a sustentabilidade . Na verdade, a política moderna, no seu ideal de estado, não era senão a reiteração transfigurada do modelo maquínico.

A ciência da complexidade, derivada do uso intensivo da máquina formal-virtual contemporânea e de seu modelo epistemológico está associada a esta ausência de externalidade, a falta deste Outro radical. A máquina contemporânea, em seu novo universal estruturalista, opera o mundo de forma a não precisar do sentido como atribuição do seu modelo, o efeito emergente. Como uma deriva de sua própria estruturalidade, tem um efeito parecido com o imprevisível do modelo moderno, ou seja, o real, com a diferença que seu aparecimento é uma possibilidade, quer dizer, encontra-se latente como potência do próprio modelo (DELEUZE, 1998). O efeito emergente, na ciência da complexidade, é um resultado do possível, no sentido deleuziano do termo, ou seja, do resultado de uma combinatória entre os elementos dados na realidade e, portanto, passíveis de uma identidade e uma diagramação. O efeito que se contrapõe ao possível e provoca a elaboração de novos conceitos, para Deleuze, é a diferença e o plano de imanência que problematiza os sistemas classificatórios universais, produzindo novas virtualidades (DELEUZE e GUATTARI, 1976).

O efeito de emergência, na complexidade, é uma surpresa possível, derivada das potencialidades do próprio jogo de estruturas que compõe o modelo computacional. Esta emergência, como componente epistemológico, no entanto, não atribuí um sentido, nem existencial nem político, ao teor de suas mutações, mas tão somente um sentido vetorial-administrativo de que, se pudermos incluir a todos no jogo computacional – seja a natureza, o homem e a própria política – transformaremos as catástrofes em exceções compreendidas de dentro de nosso jogo lingüístico, apreensíveis como funções isomorfas reiteráveis de um X a um Y vazios. Aqui encontramos o que Baudrillard (1976) chama de hiper-realidade, e seu correlato, o simulacro, que tem o efeito de realidade, com transparência total, em que nada na realidade se excluí do jogo de codificações. Todavia, enquanto na simulação moderna os efeitos de cálculo eram tidos como ficção regulativa, pois o que valia era a experiência efetiva e causal, o simulacro contemporâneo substitui o real e toma o seu lugar.

No cerne do debate sobre a natureza e a preservação do meio ambiente está um problema já considerado na tragédia grega, qual seja, o da ação trágica, isto é, o problema dos atos humanos que têm pressuposições e conseqüências que vão além da consciência e do controle do agente, sobretudo, que acarretam destruição, sofrimento e morte de modo imprevisível e indeterminado. Como nos alerta Baumman (2008), o jogo da máquina contemporânea está justamente em assemelhar a catástrofe, e sua relação com a natureza, a uma moralidade, quer dizer: uma estruturalidade.

A mudança principal está no estatuto da catástrofe. A máquina moderna prometia a vitória da razão e da direção política como esperança de sua operação contra as forças da irracionalidade: a entropia e a externalidade. A máquina contemporânea apaga o real da catástrofe ao transformá-la em um advento simbólico e computável, apenas mais um nexo no plexo de remissões internas da metamáquina, nexo esse que não tem sentido no plano das operações humanas, pois emerge por sobre sua consciência e controle, estando mais para um erro de administração do que uma força externa, que demanda um aprimoramento do estatuto político de nossas organizações. A natureza, desta forma, perde seu estatuto de irrepresentável (de real) e, em última instância, torna-se equivalente a qualquer processo computacional. Em suma, o natural é substituído pelos nexos e efeitos computáveis, sendo apreendida apenas como um plexo de nexos entre variáveis sem-sentido humano. mesmo modo, as nossas decisões e escolhas, à medida que estão fundadas no poder das máquinas, também estão fora de nosso controle político. A ciência analítica (das forças da matéria, da química da vida, etc.), as máquinas cibernéticas (computadores, robôs) e as telecomunicações e redes de informação (como é o caso das bolsas de valores) modificaram completamente as relações dos indivíduos entre si, consigo mesmos e com o entorno, ao serem pelo mesmo possível, pelos mesmos pressupostos maquínicos.

Ao aceitarmos a lógica da sustentabilidade, que pressupõe a apreensão das variáveis de um ambiente em uma linguagem universal que permitiria o cômputo dos benefícios e malefícios, enfim, que permitiria fazer as continhas do mais e do menos, aceitamos os termos da codificação para todo o campo humano da experiência com uma exterioridade. Os discursos que operam o desenvolvimento sustentável não estão além do grande metadiscurso maquínico do nosso tempo, do simulacro, pois não conseguem mais criticar a máquina que fabricamos, justamente porque esta não crê mais na externalidade, no real; pois está ancorada em um novo universal que não precisa mais explicar o mundo pela via do sentido, como nos tempos modernos, mas opera o mundo por meio de sua estruturalidade radical que incluí justamente o não sentido como parte de seus atributos - as catástrofes artificiais e as naturais passam a ter o mesmo teor simbólico, como falhas nos cálculos e que poderiam, idealmente falando, ser evitadas dado um esforço moral.

Essa condição epistêmica e prática erege uma nova forma de sedução: que nos induz justamente a fazer mais do mesmo, a nos reiterar – por meio de uma nova máquina instrumental e epistêmica, que nos oferece a certeza da potência de nossas formas de representação. O discurso do desenvolvimento sustentável é o discurso da validade da forma de vida industrial, de produção e consumo. Em outras palavras, não haveria outro mundo senão o ocidental, não haveria outro deus senão o cristão, aquele que no dia do juízo final faz o balanço de caixa de nossa existência, mesmo que suas formas sejam as mais variadas e seus sentidos os mais diversos, não existiriam mais instrumentos do pensamento que não atualizasse a cosmovisão atual. Esta impostura, puramente imaginária, no entanto, apenas ataria nossas mãos políticas, uma vez que, sentindo na eliminação dos corpos os teores das novas catástrofes, perderíamos a possibilidade crítica de ações.

Notemos que o esforço pela convergência digital, pelo NBIC, está para além de um avanço tecnológico, é uma prioridade da civilização ocidental em transformar as questões humanas em uma ordem simbólica efetiva, sem que nada disso escape, mesmo que para alcançar tamanha façanha tenhamos que abdicar do sentido como forma privilegiada de ordenamento do mundo, para adentrarmos no terreno da pura reversibilidade e sua forma de operacionalização mais radical: a virtualização e universalização da máquina de Turing.

O imperativo subjacente é translúcido como as palavras da melíflua língua de Lúcifer: não há mais saber sem computabilidade, da mesma forma que não há mais política sem a representação cristã escondida em cada bit de código, isto é, não há mais ação humana sem a prévia antevisão do cálculo do juízo final. Pois não foi isso o que tentou Cristo no deserto, a convertibilidade total, a negociabilidade total? Não é isso o que prometem o mercado, a informação e o sistema jurídico e monetário atuais, a convertibilidade de tudo em moeda e penas? Não é esse o esquematismo da máquina do mundo atual, o esquema da equivalência universal, logo, da indiferença das diferenças? Ora, a idéia do desenvolvimento sustentável e do uso ecologicamente correto dos recursos naturais, de antemão, já introduz a calculabilidade e a convertibilidade de tudo o que há, ao mesmo tempo que esconde o objetivo de preservar a forma de vida atual. Por isso, não pode haver, em nosso tempo, nenhuma gestão ambiental que subsista sem a elaboração de cálculos sobre uma precessão de modelos que contabilizam os ganhos e as perdas. O que se mostra é que estas formas de estar e agir no mundo implicam uma concepção de si e de natureza muito restrita, herdeira de dois mil e quinhentos anos dos nossos melhores esforços para esconder o desencaixe do mundo e o desatino do eu. No cerne dessas desrelações está aquilo mesmo de que não conseguimos nos livrar, em nossa ágora como a delirante fantasia cristã de que o mundo seja um atributo do espírito, a saber, a crença de que podemos e devemos eleva-lo cada vez mais em sua glória e torna-lo perfeito aos olhos do Senhor, ao dizê-lo e manipulá-lo, nós também, com uma língua pura do simulacro – daquela com que ele primeiramente disse "Faça-se a luz". Amém!


Bibliografia

APEL, K.-O. The response of discourse ethics to the moral challenge of the human situation as such and especially today. Leuven, Peters, 2001.

BAUMAN, Z. Modernidade líquida. Tradução de Plínio Dentzien. Rio de Janeiro: J. Zahar, 2001.

___________Medo liquido. : Jorge Zahar Editor, 2008.

BARANGER, M. Chaos, Complexity, and Entropy: a physics talk for non-physicists.
Cambridge: MIT, 2002.

BAUDRILLARD, J. A troca impossível. Rio de Janeiro: Nova Fronteira, 1999.

________________ A troca simbólica e a morte. São Paulo: Edições Loyola, 1976.

_________________ O sistema dos objetos. São Paulo: Perspectiva, 1973.

BRUGGER, Paula. Desenvolvimento sustentável e educação ambiental: alternativa ou eufemismo? On line: http://www.periodicos.ufsc.br/index.php/perspectiva/article/view/9155/8495 Acessado em 22 de Fev. 2009

CABAS, A.. O campo de concentração – novas formas do mal-estar na civilização. Florianópolis: (mimeo), 1997.

CILLIERS, Paul. Complexity & Postmodernism: understanding complex systems. NewYork: Routledge, 1998.

DELEUZE, Gilles. “Post scriptum sobre as sociedades de controle”. In: DELEUZE, G. Conversações. Rio de Janeiro: Ed. 34, 1992.

_______________. Diferença e repetição. Rio de Janeiro: Graal, 1998.

DELEUZE, Gilles e GUATTARI, Félix. O Anti-Édipo. Rio de Janeiro: Imago, 1976.
________________________________ Mil platôs. Postulados da Lingüística. Volume II. Rio de Janeiro: 34, 1995.
________________________________ Mil platôs. Tratado de nomadologia: a máquina de guerra. Volume V. Rio de Janeiro: 34, 1995.

EDMONDS, B. Capturing Social Embeddedness: a constructivist approach. Adaptive Behavior,
7:323-348, 1999.

EPSTEIN, J. M. e AXTELL, R. Growing artificial societies: social science from the bottom up.
MIT Press, Cambridge, MA, 1996.

GESSLER, N. Artificial Culture – Experiments in Synthetic Anthropology. 1999, disponível em

GIDDENS: “A vida em uma sociedade pós-tradicional”. In: BECK, GIDDENS, LASH, 1997.

GILBERT, N. Computer simulation of social process. Londres: UCL Press, 1995.

_________. Simulation: an emergent perspective. Paris: LaFORIA, 1995.

HARDT, M.; NEGRI, A. Império. Tradução de Berilo Vargas. Rio de Janeiro: Record, 2001.

LEMOS, R.T.S.; Franklin, B.L., Alves, J.B.M. e Kera, V.M. (2007). Tecnontologia & complexidade. Ciências & Cognição; Ano 04, v.11. URL Acesso em 09 Abr 2007.

LEAVIT, David. “O Homem que sabia demais: Alan Turing e a invenção do computador.” Novo Conceito, 2007.

LÉVY, P. O que é o virtual. Tr. Paulo Neves. São Paulo: Ed. 34, 1997.

LEIBNIZ, G.W. Princípios da Filosofia ou a Monadologia. On-line: http://www.leibnizbrasil.pro.br Tradução: Fernando Barreto Gallas. Acesso em 22 fev. 2009.

MILNER, J. A obra clara: Lacan, a ciência, a filosofia. Rio de Janeiro: Jorge Zahar Editor, 1996.

MONTIBELLER-FILHO, G. O mito do desenvolvimento sustentável. Meio ambiente e custos sociais no moderno sistema produtor de mercadorias. Florianópolis, Editora da UFSC, 2001.

____________________, G. Ecodesenvolvimento e desenvolvimento sustentável; conceitos e princípios, UFSC, 2003. Disponível em http://www.periodicos.ufsc.br/index.php/economia/article/view/6645/0

MORIN, E. Por uma globalização Plural: Globalization.org, Recursos e información sobre globalización, desarrollo y sociedad civil em América Latina, 2009. Disponível em http://www.globalizacion.org/biblioteca/MorinGPlural.htm

NEGROPONTE, Nicholas. A vida digital. São Paulo, Companhia das Letras, 1997

PINKER, S. Como a mente funciona. São Paulo: Companhia das Letras, 1999.

REMOR, C. A. M. . Da Hermenêutica à Psicanálise. Florianópolis: EdUFSC, 2006.

ROCO, Mihail C., BAINBRIDGE, SIMS William, eds. Converging Technologies for Improving Human Performance (2002) Disponível em http://www.wtec.org/ConvergingTechnologies/Report/NBIC_report.pdf

ROUDINESCO, Elizabeth. A família em desordem. Rio de Janeiro: Jorge Zahar Editor, 2003.

SOUZA, G.C.; HALFPAP; MIN, L.S.; e ALVES, J.B.M. (2007). Estudo da consciência e a cognição corpórea. Ciências & Cognição; Ano 04, Vol 11, 143-155. Disponível em www.cienciasecognicao.org

WILSON, E. Consiliência. São Paulo: Ed. Campus, 1999.

WIENER, N. Cibernética e sociedade. São Paulo: Editora Cultrix, 1973.

VERNANT, J.P. As origens do pensamento entre os gregos. Ed.Difel, S. Paulo, 2003

YANNER, Bar-Yam, Dynamics of Complex Systems (Addison-Wesley, Reading, 1997). Invaluable. Very wide range of topics.


Autores:


Benjamin Luiz Franklin belfra@gmail.com
Consultor em Inteligência Computacional. Mestre em Engenharia de Sistemas pelo Instituto de Pesquisas Tecnológicas de São Paulo, Especialista em Psicanálise pela Universidade Estácio de Sá e doutorando do Programa de Pós-Graduação em Engenharia e Gestão do Conhecimento – UFSC.
Celso R. Braida crbraida@gmail.com
É professor de Filosofia na Universidade Federal de Santa Catarina, Florianópolis; graduado em Filosofia na FIC (1987), mestrado em Filosofia na UFRG (1992) e doutorado em Filosofia na Pontifícia Universidade Católica do Rio de Janeiro (2001). Publica e pesquisa nas áreas de ontologia, filosofia da linguagem e hermenêutica.

Carlos Augusto Remor remor@matrix.com.br
Doutor em Engenharia de Produção pela UFSC (2002). É Professor e Chefe do Departamento de Psicologia da UFSC; Psicanalista Freudo-lacaniano; Fundador (1984) e Presidente da Maiêutica Florianópolis - Instituição Psicanalítica.

Mylene Queiroz myleneq@gmail.com
Mestranda do curso de Teoria da Tradução da UFSC. Possui graduação em Ciencias Sociais pela Universidade Federal de Santa Catarina (1999). Trabalhou como Medical Interpreter para o Brockton Hospital, Massachusetts/EUA e como representante do Women´s Health Network, um programa do departamento de saúde pública de Massachusetts.

[1] Empregamos a palavra consiliência, usada por Wilson (1999) para indicar a aproximação epistemológica entre várias ciências. Na visão de Wilson, as ciências devem proceder uma unificação em todos os níveis paradigmáticos, incluindo as ciências humanas, para que possa ser formada uma unidade do conhecimento, encontrando na biologia o paradigma comum entre as ciências duras e as humanidades.
[2] A matematização do real é o ato seguinte a invenção Cartesiana: a criação do sujeito da ciência, que possibilita a descrição do mundo sem as características de um sujeito pessoal, como nos ensina Milner: [...] este sujeito, constituído segundo a determinação característica da ciência, é o sujeito da ciência [...]. Não lhe convirão às marcas qualitativas da individualidade empírica, seja ela psíquica ou somática: tampouco lhe convirão as propriedades qualitativas de uma alma: ele não é mortal nem imortal, puro nem impuro, justo nem injusto, pecador nem santo, condenado nem salvo, não lhe convirão nem mesmo as propriedades formais que durante muito tempo havíamos imaginado constitutivas da subjetividade como tal: ele não tem nem Si, nem reflexividade, nem consciência. (MILNER 1996, p.33). A invenção do sujeito da ciência desloca, com a matematização do real, o conceito de Deus, como aquele que revelado expressa a verdade, para um deus proletário, nas palavras de Cabas, que garante a determinação do universo como uma entidade lógica que pode ser compreendida matematicamente pelos homens. Desta forma passa a existir um mundo compreensível que tem um deus como garantia lógica, mas que deixa de ser revelado pela palavra sagrada, baseada na tradição.
[3] Leibniz publicou sua filosofia em vários trabalhos. 'Reflexões sobre Conhecimento, Verdade, e Idéias' definiu sua teoria do conhecimento. Em 'Na Origem Última das Coisas' ele tentou provar que só Deus poderia ser a fonte de todas as coisas. 'Theodicy', o único trabalho principal publicado em vida, explicou as suas idéias a respeito da justiça divina. 'Monadology', escrito dois anos antes da sua morte, detalha a teoria de mônadas que ele concebeu a respeito do modo pelo qual simples substâncias espirituais formaram a base para todas as formas compostas de realidade. A teoria de mônadas, um termo derivado do grego, significando "aquilo que é um" ou "unidade" é elaborada em 'Monadology'. A teoria tenta descrever um universo harmonioso composto de um número infinito de mônadas, ou unidades, organizadas em uma hierarquia e originadas no Mônada Supremo que é Deus. O Monismo teve suas raizes na filosofia da Grécia antiga e foi continuado por pensadores eminentes como Emmanuel Kant, Edmund Husserl, e Alfred North Whitehead.
[4] A máquina de Turing é um modelo abstrato de um computador que se restringe apenas aos aspectos lógicos do seu funcionamento (memória, estados e transições) e não à sua implementação física. Em uma máquina de Turing pode-se modelar qualquer computador digital. Mais informações sobre a máquina de Turing: http://en.wikipedia.org/wiki/Turing_machine
[5] A Teoria do Caos para a física e a matemática é a hipótese que explica o funcionamento de sistemas dinâmicos. Em sistemas dinâmicos complexos, determinados resultados podem ser "instáveis" no que diz respeito à evolução temporal como função de seus parâmetros e variáveis. Isso significa que certos resultados determinados são causados pela ação e a interação de elementos de forma praticamente aleatória. Para entender o que isso significa, basta pegar um exemplo na natureza, onde esses sistemas são comuns. A formação de uma nuvem no céu, por exemplo, pode ser desencadeada e se desenvolver com base em centenas de fatores que podem ser o calor, o frio, a evaporação da água, os ventos, o clima, condições do Sol, os eventos sobre a superfície e inúmeros outros. cf.http://pt.wikipedia.org/wiki/Teoria_do_caos
[6] Os sistemas ditos complicados, conforme Cilliers (1998), aqueles que não produzem emergências, tratam o aleatório, as rupturas em suas seqüências e suas exceções, como erros que não alteram sua cadeia de procedimentos. Os subsistemas que compõem o sistema não modificam suas relações internas como uma resposta a uma nova propriedade coletiva. Os sistemas complicados não alteram sua dinâmica interna devido a uma nova propriedade coletiva.
[7] Uma simulação que envolve um diálogo entre conceitos vistos nas ciências sociais e na inteligência artificial pode ser encontrada em um trabalho anterior, no seguinte endereço:http://geocities.com/belfra2000/
[8] Para maiores informações sobre o assunto consultar o jornal de sociedades artificiais e simulação social em: http://jasss.soc.surrey.ac.uk/
[9] Um dos exemplos pioneiros deste tipo de abordagem é o projeto swarm, que se utiliza do paradigma evolucionista de reprodução, mutação e seleção para simular a dinâmica de sistemas complexos cf. http://www.swarm.org
[10] Nonotecnologia – Nanociência e nanotecnologia estudam e trabalham com a matéria em escala ultra-pequena Um nanômetro consiste em um milionésimo de milímetro. Mais informações em: http://royalsociety.org/glossary.asp#n
[11] Algumas linhas das ciências cognitivas, principalmente a psicologia evolucionista com Pinker (1998), tem caminhado para uma estrutura informacional da mente, tendo como metáfora do cérebro um computador desenhado pela seleção natural para ampliar as possibilidades de sucesso no jogo da seleção natural. Autores como Edelman, Metzinger e Damásio (apud Souza et ali, 2007) consideram, por sua vez, o conceito de “eu” como uma emergência de diversos processos biológicos de seres complexos. O ponto que gostaríamos de destacar é o do uso de categorias epistemológicas da complexidade e, por conseguinte, a transformação de problematizações do conceito de “mente” e “eu” para uma formalização de problemas computacionais, assim como as questões da biologia e informática.
[12] NBIC, segundo a Wikipedia: an acronym standing for Nanotechnology, Biotechnology, Information technology and Cognitive science, is currently the most popular term for emerging and converging technologies, and was introduced into public discourse through the publication of Converging Technologies for Improving Human Performance, a report sponsored in part by the U.S. National Science Foundation. cf. http://en.wikipedia.org/wiki/Emerging_technologies
[13] Referimo-nos a atual crise da industria de entretenimento com a digitalização dos bens culturais e sua distribuição via redes ponto à ponto. Analisamos com mais detalhes esse assunto em um trabalho anterior que pode ser encontrado em: http://www.cibersociedad.net/congres2006/gts/comunicacio.php?id=633&llengua=ga

Nenhum comentário: