HomeLista de Teses >  [CIENCIA POS-NORMAL, SAUDE E RISCOS DOS AERONAUTAS:...]


 

Palma, Alexandre. Ciência pós-normal, saúde e riscos dos aeronautas: a incorporação da vulnerabilidade . [Doutorado] Fundação Oswaldo Cruz, Escola Nacional de Saúde Pública; 2002. 236 p.

Capítulo III: REFLEXÕES SOBRE O PROJETO DA MODERNIDADE

 

3.1. HISTÓRIA DA AVIAÇÃO

Como se originou esta história? Como se iniciou e desenvolveu a atividade de vôo e suas profissões? Por certo, voar sempre provocou um deslumbramento enorme nos homens e não é de hoje o desejo de alcançar os céus como os pássaros.

A mitologia grega, em sua notável propriedade de desvelar os caminhos simbólicos da formação do imaginário coletivo, indicava para esta vontade e elucida, de certa forma, o modo como os homens lidam com seus limites, suas inquietações, suas virtudes e aptidões, enfim, suas possibilidades.

É Ícaro, então, que simboliza a aventura do homem voar. O episódio de Ícaro (Brandão, 1996 e Chevalier & Gheerbrant, 1994) acontece quando ele e seu pai, Dédalo, são aprisionados por Minos, Rei de Creta, num labirinto construído pelo próprio pai. Dédalo, então, com toda engenhosidade que lhe pertencia, fabricou dois pares, para si e para Ícaro, de asas de penas e cera. Todavia, Dédalo havia recomendado a seu filho que não voasse alto demais pois as asas, de cera, derreteriam devido ao sol. Ícaro, ao contrário, não resistindo ao impulso de voar mais perto do céu, em seu descomedimento, e em sua facilidade em deixar-se dominar pela hýbris, torna-se vítima de seu próprio desejo e ao aproximar-se do céu tem suas asas derretidas, cai e morre(6).

Outro acontecimento mítico, que demonstra a potência e vontade em aeronáutica, bem como, esta incontrolável tentativa de superar os limites, refere-se ao cavalo alado Pégaso (Brandão, 1995). Segundo este enredo, devido à sua própria condição humana, o herói Belerofonte estava determinado ao insucesso em sua luta contra o monstro quimérico e, por isso, os deuses lhe enviaram o cavalo alado. Pégaso, então, ao elevar-se, ao ganhar altura, permitiu ao herói matar Quimera a um só golpe.

Belerofonte seguiu, então, vitorioso em todas as suas provas e tarefas. Todavia, ao querer igualar-se, ou até superar, os deuses, o herói voou alto demais. Em seu cavalo alado, Belerofonte almejou elevar-se ao Olimpo. Para resguardar a ordem cósmica, Zeus o detém e o faz retornar ao telúrico, à banalização da terra.

É do percurso desta projeção do inconsciente, o qual suscita nos homens o desejo de ganhar os céus, superar seus limites, deificar-se, que se tentará traduzir, historicamente, as viagens da aviação.

Para fazer uma história da aviação é preciso, em algum sentido, compreender uma noção central da temporalidade, qual seja a impossibilidade do tempo lógico, métrico, em explicar os processos históricos, os contornos de desenvolvimento. Há de se entrever que o tempo não está vazio de acontecimentos marcantes, nem homogêneo, porque não é linear ou matemático.

Se a física pode estudar um fenômeno, como o ciclo de um cometa, por sua temporalidade matemática, onde cem anos significam apenas a diferença métrica, espacial; para as ciências humanas é imprescindível considerar este espaço temporal e as circunstâncias que o contornaram e nele se desenvolveram.

Cada fato histórico, assim, tem um efeito sobre outros fatos históricos. Não é sem razão, deste modo, que a aviação nasce no fim do século XVIII(7), dentro de um turbilhão revolucionário, denominado "revolução industrial"(8). Em 1783, num balão provido de ar quente, Pilâtre de Rozier e Marquês de Arlandes lançaram-se às alturas. Posteriormente, em 1785, Jean Pierre Blanchard atravessou o Canal da Mancha em um balão, transportando um passageiro.

Antes disto, o homem já tentara voar. O Instituto Histórico-Cultural da Aeronáutica, em sua "História geral da Aeronáutica brasileira" aponta para as várias tentativas e seus diversos autores. Vai desde os primórdios da antigüidade, numa certa desconfiança da possibilidade de experimentação de voar, passa pelas elaborações intelectuais e criadoras de Roger Bacon, Leonardo da Vinci, Galileu Gallilei, entre outros, até as primeiras tentativas bem sucedidas(9).

Embora esta série de esforços tenham contribuído para o surgimento da aviação, só no fim do século XIX com o dirigível Zeppelin, o homem conheceu o transporte aéreo comercial. Em 1895, ano em que os irmãos Lumière inventam o cinema(10), Conde Ferdinand von Zeppelin patenteou seu dirigível rígido e deu início à aviação de transporte. O primeiro vôo, de vinte minutos e cinco passageiros, ocorreu em 1900 e em 1910 entrou em serviço a aviação comercial com cabine para 24 passageiros.

Este momento histórico é por demais favorável às experiências sobre aviação. A virada do século XIX para o século XX significou, segundo Costa & Schwarcz (2000), uma época de aposta na ciência e, não à toa, teve como grandes símbolos a luz e a velocidade. Ora, nada mais importante, então, do que percorrer as distâncias de forma mais rápida, reduzir o tempo de deslocamento. Para o Brasil, este momento parecia significar algo de muito importante, pois, se voar era a utopia do momento, imaginava-se que era deste modo que o país poderia ser incluído no seleto grupo de nações civilizadas e desenvolvidas.

A despeito de outras experiências precedentes, foi Santos Dumont, em 1906, que alçou vôo pela primeira vez com um maquinário mais pesado que o ar. A partir daí, o homem prosseguiu alcançando maior tempo e altura em seus vôos. Todavia, era num caráter aventureiro, desbravador, que a aviação engatinhava.

Projetos eram construídos com características típicas de competição. E, de fato, estava em jogo o pioneirismo e, posteriormente, os recordes de vôo. Competições como os prêmios "Deutsh" e "Archdeacon" ou o "Grand Prix d'Aviation" eram palcos para demonstrações de projetos de concorrentes em busca de um só objetivo, tornar possível um "mais pesado que o ar" voar. Foi assim que Santos Dumont, Voisin, Blériot, Farman, Vuia, entre outros, contribuíram para esta aventura se concretizar.

No ano de 1911 e com a mesma força criadora que construiu, o homem se serviu para destruição. Pela primeira vez(11), o avião foi utilizado como "máquina de guerra(12)" na luta entre Itália e Turquia, em Trípoli. A Itália realizou as primeiras operações militares, através de missões como reconhecimento aéreo, bombardeio e reconhecimento aerofoto.

Pouco mais à frente, o mundo defrontou-se com a primeira guerra mundial e, novamente, utilizou-se da potência aeronáutica. Os dirigíveis foram empregados durante a guerra, em atividades de combate, e a aviação comercial ficou suspensa. Os aviões, embora não explorados completamente em seu potencial bélico, representaram uma inovação importante contra os inimigos, tornando possível o lançamento de cargas explosivas, a destruição da força naval, o reconhecimento mais preciso e de maior amplitude, o transporte de tropas e materiais, etc (Wright, 1988)(13).

Antes da guerra, a primeira companhia de transporte aéreo, DELAG, transportou 33.722 passageiros, em 1.588 vôos e 172.535 quilômetros voados. Este total refere-se, segundo Pereira (1987), ao período entre 1910 e 1914 e realizado através de dirigíveis construídos por Zepelin. O serviço de correio, através de aviões, ocorreu em 1912 na Alemanha.

Em 1917, é fundada a primeira empresa alemã de transporte aéreo, utilizando aviões. A Deutsche Luft-Reederei (DLR), originada do memorial "O provável desenvolvimento após a guerra", começa a operar após a guerra e no ano de 1919 inicia o serviço regular de correio aéreo. Este serviço inicia-se na rota Berlim-Weimar não por acaso, pois "em Weimar fora instalada a Assembléia Nacional, onde os políticos discutiam os destinos da nova república. Urgia mantê-los em contato permanente com a capital, Berlim" (Pereira, 1987; p. 19-20). A primeira linha internacional surge em 1920, num consórcio envolvendo a DLR, a KLM (Holanda) e a DDL (Dinamarca) e a partir de 1922 as fábricas de aviões constróem modelos específicos para o transporte comercial.

A aviação alemã teve uma influência muito grande nos países da América do Sul. No Brasil, esta influência resultou na fundação do Sindicato Condor (posteriormente Cruzeiro) e da VARIG, em 1927. Para a historiadora Claudia Musa Fay (1990), havia, nesta época, um grande interesse da Alemanha pela América do Sul na busca de mercados consumidores para melhorar a situação econômica daquele país. Assim, a penetração da Alemanha na América dos Sul se deu com a importação de produtos alimentares e matérias-primas e exportação de produtos manufaturados. Dentre estes, havia o fornecimento de equipamentos aeronáuticos.

A influência francesa se deu na construção de aviões, no estudo de implementação de rotas e na formação de especialistas militares, tais como pilotos, navegadores, mecânicos, radiotelegrafistas, artilheiros, entre outros, e que, posteriormente deslocaram-se para a aviação civil, além da própria proximidade cultural.

Interessante ressaltar, que após a guerra e, tentando ganhar mercado, os especialistas aproveitaram seus maiores conhecimentos técnicos para poderem explorar a aviação no Brasil. Segundo Pereira (1987), a missão francesa Latécoère, embora não tenha encontrado de imediato as facilidades desejadas, foi a primeira beneficiária da pioneira Regulamentação da Navegação Aérea Civil de 1925 e obteve licença para poder operar em diversas rotas em território nacional.

Nos Estados Unidos, a aviação comercial demorou a se concretizar. Somente, após 1925 e, principalmente, depois da entrada do empresário da indústria automobilística, Henry Ford, ao despertar para a riqueza do negócio, é que ocorre o grande salto no transporte aéreo norte-americano e várias empresas aéreas são inauguradas.

Braverman (1987), aponta para o fato de que, depois do trabalho, a ciência é a mais importante propriedade social em favor do capital. E se a Revolução Industrial ocupou partes dos séculos XVIII e XIX, outra revolução, a técnico-científica, começa nas últimas décadas do século passado(14).

A Revolução Técnico-Científica é, então, um marco fundante entre a incorporação da ciência pelo capitalismo. Este processo, praticamente, é inaugurado na Alemanha, visto que "o papel da ciência na indústria alemã foi o produto da fraqueza do capitalismo alemão em seus estágios iniciais, junto com o estado avançado da ciência teórica alemã" (Braverman, 1987; p.140).

Por esta razão, não é de se espantar a potência da Alemanha na aviação, mesmo depois da primeira guerra. Pereira (1987) mostra, por exemplo, os números das operações do transporte aéreo entre 1926 e 1929, os quais concorrem para defender esta idéia. Em 1926, os EUA transportaram 5.782 passageiros, enquanto a Grã-Bretanha 16.775, a França 13.634 e a Alemanha 56.268. Em 1927, os números são: EUA (8.679), Grã-Bretanha (20.015), França (15.857) e Alemanha (102.681). No ano de 1928 os EUA ultrapassam a França e a Grã-Bretanha e em 1929 ultrapassa a Alemanha. Porém, neste último ano a Alemanha ainda tem valores muitíssimos elevados.

Deste modo, esta nova revolução alia-se ao capital e busca maior eficiência na realização dos produtos e serviços. Torna, assim, capaz à indústria aeronáutica voar em menor tempo e com mais economia.

A partir, principalmente, dos novos conhecimentos em aerodinâmica, além da maior potência dos motores, a aviação observou avanços espetaculares: "247 km/h em 1919, 330 já em 1921, 400 em 1923, 448 em 1924, 548 em 1931, 709 em 1934 e 755 em 1939" (Crouzet, 1996; p. 274). A altitude, no período de 1919 a 1938, foi aumentada em quase seis vezes.

Neste processo, o uso da hélice teve encerrada suas possibilidades de aperfeiçoamento e surgiu, em 1939, o primeiro avião, um Heinkel (alemão), a jato com turborreator. Em 1935, ocorre a primeira experiência com o radar. Atualmente, e em conseqüência da utilização das altas freqüências radioelétricas, encontra-se nos aviões, dispositivos automáticos para aterrissagem e radar meteorológico(15). A década de 40 marca, então, um crescimento na utilização dos propulsores a jato, o que permite a quebra da "barreira do som" (1.227 km/h), em 1947.

Segundo Billings (1997), em seu livro "Aviation automation: the search for a human-centered approach", antigamente os aviões eram extremamente instáveis e muito difíceis de serem controlados. O processo de automatização foi, então, desenvolvido para complementar e auxiliar as operações humanas na execução destas tarefas, quase impossíveis de serem realizadas sem a assistência da máquina. Mais tarde, ficou óbvio que todo este processo poderia "desafogar" o piloto do grande número de tarefas as quais este tinha que realizar num momento onde o sistema de aviação se tornava altamente complexo.

A automação na aviação, distintamente da indústria, foi concebida, de início, com a particularidade de ser um complemento para os operadores humanos. Atuava na manutenção do controle da aeronave, deixando a navegação, as comunicações e o gerenciamento das funções para a tripulação.

A tarefa de ajustamento contínuo das superfícies da aeronave pôde, assim, ser controlado a partir da concepção do "piloto automático". Foi num equipamento Lockheed Vega que, em 1933, apareceu o piloto automático por potência hidráulica e pneumática e tornou-se um aparato essencial à aviação.

No final dos anos 30, praticamente, todos os aviões civis e militares contavam com estes equipamentos e, concomitantemente, aos avanços em aerodinâmica e dos motores tornou-se possível alcançar marcas enormes de velocidade e altitude.

Estes aparelhos automatizados começaram a ser instalados para aliviar o piloto, em vôos longos, do constante trabalho manual, embora não retirassem desse as funções essenciais à pilotagem.

Esta situação perdura até os anos 60. Nos anos 70, com o avanço científico-tecnológico, houve uma expansão da utilização de computadores digitais que estimulou o desenvolvimento de microprocessadores em miniatura com circuitos sólidos. Na aviação os microprocessadores têm tido profundos efeitos na forma como os aviões são voados, na forma como o sistema de aviação é gerenciado, com grande impacto nos pilotos e controladores de vôo (Billings, 1997).

É, neste sentido, que o avião a jato inaugurou uma nova era na aviação. A aeronave comercial "DeHavilland Comet", introduzida em 1954, marcou, com maiores altitudes e velocidades, esta nova tendência no transporte de passageiros. Na seqüência apareceram o Boeing 707, em 1958, e o DC-8, da Douglas, em 1960.

Não se pode esquecer, entretanto, a participação da segunda guerra mundial neste contexto. Grande parte das conquistas científico-tecnológicas estão associadas à atmosfera militar, ou a possibilidade de ameaçar um outro. "Esta marcha regular dos conhecimentos humanos e dos progressos técnicos coincidiu com as grandes subversões mundiais: as grandes guerras e as crises econômicas dos últimos decênios" (Crouzet, 1996; p.232).

Aliás, quando se fala em trabalho humano nunca se pode omitir o papel decisivo das duas grandes guerras no nível de produção do planeta. No Brasil, a cidade de São José dos Campos (SP) é uma das regiões conhecidas pelos seus centros de pesquisa e indústrias voltados para produção bélica e aeronáutica.

"Essa lembrança, essa constatação de que muito dos processos de produção não estão voltados para a manutenção da vida, mas para o seu oposto, indica que o trabalho humano e violência estabelecem entre si vínculos fortes. Esses vínculos estão cada vez mais presentes no cotidiano das pessoas" (Simoni, 1996; p. 31).

Crouzet (1996), avança e comenta que, devido as duas grandes guerras e a grande depressão econômica, hoje os homens estão mais tomados por sentimentos de inquietude e insegurança, o que faz com que a vida social humana pareça estar ameaçada pelos progressos próprios científicos. É importante notar, todavia, que estas ameaças não se referem, somente, ao surgimento de uma nova guerra ou da criação espetacular de produtos, que de tão "desconhecidos", tornam-se perigosos ao homem, como é o caso da energia nuclear.

Na verdade, este avanço científico-tecnológico concorre, também, para engendrar novas experiências ao homem, sem que este esteja preparado. Deste modo, voar mais alto, mais veloz, acaba por possibilitar o surgimento de algumas doenças ao homem. A própria demanda e o modo de organização do trabalho na aviação comercial consiste, sobremaneira, num fator contribuinte para inúmeros problemas de saúde e de qualidade de vida. É esta experiência que leva vários autores a questionarem este tal "progresso" científico-tecnológico e mais recentemente, ainda, a informatização.

Por outro lado, a aviação vai contribuindo para transformar o mundo. O panorama geográfico, por exemplo, modifica-se gradativamente. É surpreendente como as distâncias entre os continentes do hemisfério setentrional se "reduzem". Tomando por centro o Pólo Norte e os círculos em torno deste, Los Angeles fica a igual distância de Londres e de Tóquio, e Nova Iorque menos duas horas distante de Moscou, pela via polar do que por Honolulu.

Nos anos 50, assiste-se o avião alcançar marcas de 800 km/h, aparece o avião a jato para transporte e começa a surgir a "conquista do espaço". O primeiro satélite, "Sputnik I", foi lançado ao espaço em 1957. Em 1961, Yuri Gagarin torna-se o primeiro homem a efetuar um vôo espacial e em 1969, pela primeira vez, o homem pisou na Lua. Era a viagem espacial composta por Armstrong, Collins e Aldrin. Os primeiros ensaios para esta conquista ocorreram em 1942, com a bomba nazista V-1.

Decerto, esta corrida espacial teve inúmeros efeitos na aviação civil. A informatização da cabine e o uso de novos materiais e técnicas aerodinâmicas, entre outros fatores, foram decorrentes dos avançados estudos em navegação aeroespacial.

Uma das muitas transformações que emergiu desta influência foi, sem dúvida, o modo operatório do desenrolar do trabalho. Neste processo cada vez mais informatizado o computador se apropria da cabine de comando.

Esta confiabilidade maior nos microprocessadores, marcada pela corrida espacial e alargada na década de 70, torna a tecnologia digital obrigatória nas aeronaves dos principais fabricantes mundiais, tais como a Boeing, a Douglas e o consórcio de indústrias Airbus.

Interessante ressaltar que neste momento de crescente mecanização da experiência de voar, notadamente nas décadas de 60 e 70, surge algumas das atividades esportivas relacionadas com o vôo, tais como o vôo de asa delta, o parapente e o vôo de ultra-leve (Arola, 1994). Estes esportes se caracterizam pelo contato intenso que o piloto estabelece com a natureza. Este passa a conhecer a direção e velocidade dos ventos, as correntes térmicas, as montanhas e até mesmo o vôo dos pássaros.

Se por um lado a tecnologia veio para robotizar o gestual do piloto do avião a jato, por outro ela trouxe para o esporte o uso de equipamentos sofisticados que permitiram ao piloto voar com segurança sem, porém, deixar de lado a aventura, a criatividade e o contato com a natureza. O piloto do vôo livre pode superar com êxito a apreensão e o desafio de se lançar nos ares, explorando suas possibilidades e extremando seus limites com imaginação.

Retornando à aviação, nos anos 80, os fabricantes exacerbaram a utilização da tecnologia de automação. Nesta época surgiram os primeiros aviões civis, como os Boeing 767 e 757 e o Airbus 310, com o denominado "glass cockpit", que é um termo genérico usado para denominar os instrumentos dentro da cabine de comando que mostram as informações por meios eletrônicos, substituindo os tradicionais aparelhos eletromecânicos (O’Hare et al., 1992). Este sistema deixa para trás os vários relógios analógicos tradicionais, o mecânico de vôo e o navegador e mergulha na imagem informatizada da era do cristal líquido e dos sistemas digitais. Posteriormente, ainda nesta década, surge o Airbus A-320, primeiro com o "all glass cockpit", ou seja a cabine de comando totalmente informatizada.

Em nenhum outro lugar, a informatização das aeronaves foi utilizada de forma tão eficiente quanto nos sistemas de navegação. Segundo Billings (1997), o procedimento de navegação da era do "glass cockpit" deu um grande salto em relação aos instrumentos mecânicos. "Nenhum outro sistema diminui tanto a carga de trabalho cognitiva do piloto quanto este. É, sem dúvida, o avanço tecnológico mais expressivo para transformar os aviões modernos muito mais resistentes ao erro" (Billings, 1997; p. 92).

Os fabricantes integraram todas as informações necessárias em uma única tela, incluindo detalhes do terreno, a programação da rota, a programação da rota alternativa, a localização de aeroportos, distância do avião em relação ao chão (GPWS - Ground Proximity Warning System) em relação a outros aviões (TCAS - Traffic Alert and Collision Avoidance System) entre outros, incluindo o GPS (Global Positioning System) que é um sistema da navegação por satélite.

O piloto passa a ver tudo o que ocorre dentro e fora do avião através de uma tela de computador. Esta exacerbação do olhar pode, no entanto, anular os outros sentidos na forma de apreender o real. O piloto não sente mais o avião pelo seu movimento, cheiro, barulho. Desconhece os rios, as montanhas, os ventos e as tempestades e passa a confiar mais na tela do que na sua própria intuição e experiência. O quadro 1 destaca a evolução tecnológica das aeronaves comerciais.

 

Quadro 1. Evolução tecnológica das aeronaves comerciais

PRIMEIRA

GERAÇÃO

SEGUNDA

GERAÇÃO

TERCEIRA

GERAÇÃO

QUARTA

GERAÇÃO

Tecnologia:

- Sistemas simples

- Muitas tarefas manuais

- Navegação manual

Tecnologia:

- Sistemas redundantes (backup)

- Piloto automático

 

 

Tecnologia:

- Sistemas digitais

- Cockpit para tripulação com duas pessoas

- Displays gráficos

- Sistemas de gerenciamento de vôo

- Alerta integrado

 

Tecnologia:

- Cockpit totalmente informatizado

- Operação integrada dos sistemas

 

 

Aeronaves:

- DeHavilland Comet

(1954)

- Boeing 707 (1958)

- Douglas DC-8 (1960)

- Douglas DC-9

 

 

 

Aeronaves:

- Boeing 727

- Boeing 737-100 e 200

- Boeing 747-100, 200 e 300

- Douglas DC-10

- Lockheed L-1011

- Airbus A-300

 

Aeronaves:

- Boeing 767

- Boeing 757

- Boeing 747-400

- McDowell-Douglas MD-80

- Airbus A-310

- Fokker F-28

- McDowell-Douglas MD-11 (transição para a quarta geração)

 

Aeronaves:

- Airbus A-319

- Airbus A-320

- Airbus A-321

- Airbus A-330

- Airbus A-340

- Boeing 777

 

 

 

- aproximadamente até o final da década de 1950

 

- aproximadamente até o final da década de 1960

 

- aproximadamente até a década de 1980

 

- aproximadamente no final da década de 1980

Fonte: Billings (1997).

Muniz Sodré (1990) sinaliza para a questão do simulacro nas sociedades industriais. Simulacro, entendido como a produção artificial de uma imagem que não precisa referir-se a um modelo externo para sua aceitação. Na verdade, uma duplicação do real. Os tubos de raio catódicos (tubos de televisão) ao simularem o mundo "acenam com a morte das referências clássicas do real, dos modelos de representação, onde ainda se poderia pretender uma equivalência entre signo e real" (Sodré, 1990; p. 41).

Graças ao desenvolvimento eletrônico, toda a realidade pode ser reduzida a uma aparição puntiforme. A simulação é tão perfeita que não se pode mais traçar fronteiras claras entre real e imaginário. "A verdade dá lugar a credibilidade do enunciado, (...) um outro real é gerado pela progressão dos simulacros e com tanto poder que a imagem pode ser mais crível que o original verdadeiro" (16).

São estes fatores que modificaram sensivelmente, não só a aparência interior da cabine, mas também as relações sociais entre os tripulantes, bem como as relações do homem com a máquina. A interposição de mais e mais automação entre o piloto e o avião tende a distanciá-lo cada vez mais dos detalhes da operação.

Assim, este processo tende a excluir o homem deste contexto. Aquilo que outrora pôde representar a concretização de um sonho, em tempos modernos marcam a perda de sentido da ação. O piloto atual limita-se a operar sistemas previamente estabelecidos e calculados. Diminuiu o espaço para a autonomia, criatividade, aventura e arrojo. Este passa a não mais se reconhecer em seu próprio trabalho.

A aviação nos dias de hoje procura funcionar de modo preciso. Ocorre uma maximização de todos os setores para que se possa extrair o máximo de lucro desta atividade. Os aeroportos, aviões, espaço aéreo (a ponto de 18 aviões chegarem em São Paulo ao mesmo tempo solicitando o pouso) e as tripulações estão sendo utilizados no máximo de suas capacidades. Controla-se o tempo, o espaço, os movimentos e as falas para atender às exigências da produção(17).

É interessante notar, ainda, o caso dos aeronautas brasileiros. A luta destes profissionais começou há muito e, talvez se pudesse dizer, que se iniciou juntamente com a aviação no Brasil. Segundo Fay (1990), a partir de 1920 operavam no Brasil as empresas aéreas "Sindicato Condor", "VARIG", "VASP" (sob influência alemã); "LATI" (de interesses italianos); e, a "PANAIR" (influência norte-americana)

O aeronauta brasileiro(18) começou a ter reconhecimento a partir do Decreto no 20.913 de 06/01/1932, o qual estipulava que a aeronave deveria ser tripulada por brasileiros, embora permitisse que os estrangeiros trabalhassem, em caráter provisório, na ausência de aeronautas nacionais. Não é difícil de imaginar que, de fato, os aviões eram tripulados por estrangeiros, o que só se modificou realmente em 1942.

O tempo de trabalho foi, pela primeira vez, regulamentado em 09/12/41 pelo Decreto no 8.352. Antes, os direitos e deveres seguiam orientação particular de cada empresa. Deste modo, o estabelecido "Regulamento de Tráfego Aéreo" limitava as horas de vôo de um piloto-comandante em 85 h/mês e a 1000 h/ano. Os demais pilotos podiam voar 100 h/mês. Todavia, nenhum piloto poderia exceder mais de 8 horas durante um período consecutivo de 24 horas, nem mais de 30 horas durante sete dias seguidos. O período de descanso era de, pelo menos, 12 horas entre os vôos e de 24 horas a cada sete dias.

Em 1942, foi fundada a Associação Profissional dos Aeronautas do Distrito Federal que, posteriormente, em 1946, transformou-se no Sindicato de Aeronautas do Rio de Janeiro. No ano de 1947 o sindicato foi ampliado ao âmbito nacional e, assim, surgiu o Sindicato Nacional dos Aeronautas.

Este, porém, era um momento delicado. Primeiro, devido aos acontecimentos da Segunda Guerra Mundial. Segundo, porque o Brasil estava sob a ditadura de Getúlio Vargas. Embora, até onde se pôde verificar, não haja registros da influência destes fatos com a regulamentação ou organização sindical, é bem possível que tenham influenciado para uma regulamentação desfavorável ao trabalhador, bem como, o impedimento da criação do sindicato.

Já no ano de 1947, o Sindicato discutia o empenho das empresas, devido à guerra de mercado por tarifas e horários, em forçar aos aeronautas a realização de vôos noturnos e, muitas vezes, em rotas desprovidas da adequada segurança. De fato, o problema só acabou sendo tratado quando ocorreu um acidente com uma aeronave DC-3 da Cruzeiro do Sul, em 1948.

Em 1949, um acidente com um DC-3 da Real marca a irresponsabilidade da empresa, frente aos trágicos acontecimentos. A busca da realização do serviço comercial, lucrativo e a concorrência tornaram nítidas as coações nas empresas. Pereira (1995a; p. 41) comenta que o regime de coação poderia ser resumido na frase expressada pelos diretores, quando os pilotos recusavam a realização de vôos inseguros: "faz o vôo ou vai para a rua".

Em outro acidente ocorrido em 1957, com uma aeronave DC-47, tem como uma das causa a "coação psicológica existente na aviação comercial do país, determinada pela falta de procura no mercado de trabalho, principalmente na função especializada do piloto"(19) .

O início das lutas pela aposentadoria especial começou em 1956. Uma série de estudos e considerações foram realizadas, nesta mesma época, em todo mundo. Após inúmeras batalhas a Lei no 3.501, de 21 de dezembro de 1958, regulamenta a aposentadoria dos aeronautas.

Por fim, a Lei no 3.807, de 26 de agosto de 1960, concedeu aos aeronautas o direito à aposentadoria especial "ao segurado que, contando no mínimo 45 (quarenta e cinco) anos de idade, tenha completado 25 (vinte e cinco) anos de serviço" (20). Interessante ressaltar que os aeronautas, atualmente, lutam por tentar manter a aposentadoria diferenciada dos demais trabalhadores. Em decorrência da reforma prevista pelo "Governo Fernando Henrique", tramita no Senado a possibilidade dos aviadores perderem este direito. Para Giannotti (1995), a retirada da aposentadoria especial aos 25 anos e o fim da jornada diária de seis horas fazem parte dos objetivos de maximização dos lucros e minimização dos custos das empresas e tem encontrado apoio no "Governo Fernando Henrique".

 

 

3.2. A CIÊNCIA COMPLEXA

3.2.1. Considerações históricas sobre a ciência

A) História do conhecimento

Ao iniciar alguns comentários sobre a ciência hoje é preciso rever seus laços com a filosofia. Tal empreitada busca reavivar a percepção do significado, gêneses e conseqüências da ciência.

A Grécia Antiga, pode-se considerar, é a origem do que hoje se denomina filosofia e ciência. A raiz comum de ambas formas de conhecimento foi, sem dúvida, o pensamento racional. Segundo Omnès (1996), tal qual a democracia, a tragédia ou a matemática, a lógica é "filha da Grécia" e, ao que parece, antes da formação do estado grego na maioria das civilizações o pensamento era mais proferido do que construído, ocorrendo um imediato reconhecimento da verdade, sem uma devida análise mais elaborada.

Já os pré-socráticos tiveram grande importância na fundação do pensamento lógico. Entre outros pensadores, Tales de Mileto, considerado o primeiro físico grego ou investigador dos fenômenos da natureza; Anaximandro, geógrafo, matemático e astrônomo, procurou calcular as distâncias entre as estrelas e formular, pela primeira vez, um conceito de lei universal; ou, Pitágoras, matemático e astrônomo, que considerava o intelecto a mais importante das faculdades humanas e afirmou, a partir das descobertas das relações matemáticas contidas nos fenômenos naturais, que o mundo era regido pelo número(21); contribuíram decisivamente para construir os primeiros passos para demonstração das idéias.

Foi, porém, a partir de Sócrates que o pensamento lógico torna-se intensamente reverenciado. Platão (428-347 a.c.), decerto, é um dos nomes de referência ao se tratar da teoria do conhecimento. Embora não seja considerado exatamente um lógico, Platão traz à tona questões fundamentais ao conhecimento, tais como: "o que é a verdade, e como reconhecê-la? Qual é a natureza da razão, e de onde lhe vem essa faculdade de deduzir uma verdade a partir de outra?" (Omnès, 1996).

A partir dos diálogos de Sócrates, Platão explicita uma "doutrina das idéias" como uma nova linha de resolução dos velhos problemas filosóficos e científicos. O filósofo grego, em Fédon, chegou a conclusão que deveria se servir da razão e olhar nela a verdade de todas as coisas. Seu objetivo principal não era, no entanto, simplesmente convencer seus adversários, mas, do contrário convencer a si próprio.

Assim, o autêntico pensador coloca um princípio e aceita como verdadeiro os pressupostos que estão em consonância com ele. Por outro lado, rejeita tudo que está em desacordo. Um bom exemplo deste procedimento pode ser encontrado no diálogo Laques relatado por Platão. Nesta passagem, Sócrates é levado a acompanhar dois pais que gostariam de interrogar Laques e Nícias, para esclarecer se seus filhos deveriam receber lições de arte militar e esgrima. Laques, um velho general e grande estrategista de célebres batalhas, foi irremediavelmente contra lições deste tipo, pois a arte militar se aprende na prática. Nícias, político e outro estrategista ateniense, do contrário, considerava as lições indispensáveis e de grande proveito.

Como havia um voto a favor e outro contra, solicitaram que Sócrates desempatassem o debate. No que o personagem colocou que daquela maneira não poderia ajudá-los, uma vez que seu modo de raciocinar era diferente. Sócrates, então, explica que não poderia responder à pergunta, pois estaria apenas dando-lhes uma opinião subjetiva. Ele precisaria compreender o que Laques e Nícias disseram e, por isso, necessitava interrogá-los. Depois de fazê-lo, ficou evidente para todos os presentes que Laques e Nícias não sabiam o que estavam dizendo, falavam mecanicamente, haviam construído seus argumentos a partir de idéias preconcebidas (Châtelet, 1994).

É de Platão (2000), também, o célebre mito da Caverna que concorre para ilustrar o mundo próprio da Idéias, o mundo real, do verdadeiro, do Logos. Neste mito, os homens estão aprisionados com correntes no fundo de uma caverna, desde o nascimento. Esta parte da caverna representa, de fato, o mundo dos homens. Um outro mundo, exterior, encontra-se em plena luz na entrada da caverna. A luz, então, projeta em seu interior as sombras dos homens livres, dos animais, das árvores, bem como, os sons destes penetram na caverna e como as paredes provocassem ecos, os prisioneiros acreditam que fossem produzidos pelas sombras.

Ao libertar um destes prisioneiros e trazê-lo para fora da morada subterrânea, poder-se-ia ocorrer, por parte deste, uma rejeição do mundo novo e mesmo provocar, naquilo que outrora via, algo de mais verdadeiro. Por certo, de início o sujeito necessitará acostumar-se, perceber os objetos lentamente, suas luzes, seus sons. Ora, o que Platão parece enunciar é que "se o mundo das Idéias é um outro mundo diferente deste, mas igualmente real, então, pode-se apreendê-lo desde agora, com a condição de fazer os exercícios mentais necessários" (Châtelet, 1994; p. 37).

Platão nomeia de "doxa" as diversas opiniões desenvolvidas no transcorrer do bom senso democrático. Contudo, procura demonstrar que essas opiniões estão ligadas a supostos fatos que são, em sua grande maioria, frutos das paixões, interesses e circunstâncias. Deste modo, cada um veria o real que melhor lhe conviesse e o denominaria "realidade". Assim, ocorre uma distinção entre os mundos das Idéias e o das aparências. O primeiro é transparente, matemático, constituído de essências mantidas em relações claras umas com as outras. O mundo das aparências, por outro lado, é confuso, as diversas seqüências que o constituem se sobrepõem, de tal modo que nunca se sabe onde se está (Châtelet, 1994).

Pode-se considerar, então, que Platão opera com hipóteses para compreender os fenômenos naturais. A existência de um plano superior da realidade, o mundo das Idéias, é alcançado apenas pelo intelecto. A realidade, como se considera, seria tão somente a cópia imperfeita dos arquétipos eternos das Idéias.

A civilização grega, após séculos de dedicação, legou a humanidade uma lógica solidamente estruturada. Duas escolas distintas tiveram grande relevância na construção deste conhecimento. Uma era a de Megara, outra era o Liceu dos peripatéticos(22), fundada por Aristóteles (384-322 a.c.).

Platão acreditava que a compreensão dos fenômenos dependia da existência de um plano superior da realidade, alcançado apenas pelo intelecto e constituído por formas ou idéias, dos quais a realidade seria uma mera cópia imperfeita. A sucessiva oposição e superposição de teses, então, marcava toda construção dialética do pensamento platônico e, segundo o filósofo, poderia tornar possível ascender do mundo imaginário à verdadeira realidade. Aristóteles, por outro lado, percebeu que esta dialética provocava, no platonismo, uma constante inquietação e ameaça em direção ao relativismo.

Para Aristóteles não bastava ser racionalmente coerente. Ele considerava não ser suficiente partir de axiomas e teses, desenvolvidos com rigor lógico. O filósofo acreditava que para se afirmar a existência, mais do que apresentar uma tese, seria necessário explorar uma hipótese. Pois, através desta, seria possível afirmar a existência de certos objetos. Assim, as definições objetivadas pelo conhecimento não devem se propor a simples esclarecimentos sobre o significado das palavras, mas sim enunciar a constituição essencial dos fenômenos.

O projeto aristotélico para se atingir a certeza foi, em resumo, possuir normas de pensamento que permitiriam demonstrações corretas. O estabelecimento de regras de raciocínio faz de Aristóteles o criador da lógica formal. Para Aristóteles, o conhecimento universal necessita da compreensão das razões que levam a uma determinada afirmativa.

O primeiro nível do conhecer era a "sensação" (aisthesis). Ao contrário de Platão, Aristóteles valorizava os sentidos. É a sensação o primeiro contato com o mundo e, por isso, fundamental como ponto de partida no processo de conhecimento. Porém, os sentidos são considerados insuficientes. A "memória" (mnemósine) atua como a capacidade de retenção dos dados sensoriais. Um terceiro nível é a "experiência" (empeiria). A sensação unida à memória permite constituir a experiência. As associações estabelecidas a partir das relações entre os dados sensoriais retidos na memória, operados com base na regularidade, deriva certas conclusões ou juízos.

O nível seguinte é a arte/técnica (téchne). Para os gregos não havia distinção entre o trabalho do artífice e do artesão. Nos dois casos as atividades eram consideradas como "téchne". Esse trabalho não consistia, apenas, de um conhecimento prático alcançado pela repetição (experiência). De outro modo, era já um conhecimento das regras que permitiram produzir determinados resultados. Neste momento, é sabido o "porquê das coisas", a causa que produz determinadas coisas. Daí que somente neste nível é que se pode ensinar aos outros.

Por fim, o último nível do processo de conhecimento é a teoria/ciência (episteme). Este nível é considerado como do conhecimento dos conceitos e princípios. Sua diferença para "téchne" advém, principalmente, por seu objetivo. Enquanto a técnica visa um fim específico, uma aplicação com vistas à obtenção de resultados, a ciência é contemplativa, livre e gratuita. A "episteme" caracteriza-se como um saber cuja finalidade está em si mesma. É o desejo humano de conhecer. A ciência, assim, seria superior à técnica por permitir a demonstração (Granger, 1994 e Marcondes, 2000).

Para resolver seus problemas, Aristóteles operava o raciocínio por silogismo(23). Seu conhecido exemplo, "todos os homens são mortais; ora, Sócrates é homem; logo, Sócrates é mortal" é, para ele, um modelo perfeito da lógica. A pertinência de sua análise não se encerra aqui. As proposições, observa ele, podem assumir, ao mesmo tempo, duas formas diferentes, porém inseparáveis. Ao colocar o exemplo "Sócrates é mortal", ele o faz considerando a possibilidade igual "Sócrates não é mortal". Assim admite-se o que é eventualmente verdadeiro e o seu contrário, aquilo que é falso. Contudo, não é aceito, aqui, uma terceira possibilidade.

Aristóteles funda, então, o "princípio do terceiro excluído", cuja proposição adverte que algo deve ser, necessariamente, "A" ou "B" e não há uma terceira possibilidade (Chaui, 2001 e Omnès, 1996). Esta proposição rejeita qualquer outra alternativa para o fenômeno observado, além das escolhas possíveis de ser ou não ser. Assim, os enunciados "o homem é mortal ou não é mortal"; "ou haverá guerra ou paz", descartam uma terceira possibilidade.

As divergências entre Platão e Aristóteles sobre as questões do conhecimento, começam quando Platão defende a idéia de que "conhecer" significa despertar a verdade que já existe em todos nós. Assim, este pensamento, denominado "inatismo", afirma que todos os indivíduos têm, desde o nascimento, idéias verdadeiras e princípios racionais, os quais precisam, apenas, ser exercitado. Por outro lado, Aristóteles identifica-se com o "empirismo", ou seja, considera que a razão, seus princípios, procedimentos e idéias, é adquirido pelos indivíduos através da experiência. Deste modo, o conhecimento seria formado e enriquecido por acumulação de informações (Chaui, 2001). Marilena Chauí (2001, p. 117) aponta, ainda, que "para o racionalismo, a fonte do conhecimento verdadeiro é a razão operando por si mesma, sem o auxílio da experiência sensível e controlando a própria experiência sensível. Para o empirismo, a fonte de todo e qualquer conhecimento é a experiência sensível, responsável pelas idéias da razão e controlando o trabalho da própria razão".

Uma das questões fundamentais na posição divergente entre Aristóteles e Platão consistiu na rejeição do dualismo platônico representado pela teoria das Idéias, e que se encontra presente, por exemplo, no mito da Caverna. A objeção de Aristóteles centrou-se, principalmente, nas dificuldades em se explicar a relação entre os mundos das idéias (inteligível) e o sensível. Sua estratégia para superação do problema foi, ao menos em parte, recorrer a formulações claras acerca das noções, evitando, assim, as confusões conceituais. Aristóteles, então, introduz a teoria do Ser, a qual acrescenta a afirmação da identidade(24), e a teoria da causalidade.

Chaui (2001) considera, ainda, que Platão era um racionalista e em sua concepção a ciência era um conhecimento racional dedutivo e demonstrativo como a matemática. Esta concepção, hipotético-dedutiva, definia o objeto e suas leis e daí suas propriedades, efeitos e propriedades. Por sua vez, no empirismo, do qual faz parte Aristóteles, a ciência interpreta os fatos baseada em observações e experimentos que permitem o estabelecimento de induções. A posição hipotético-indutiva, apresentava suposições sobre o objeto, observava e experimentava até alcançar as definições dos fatos, leis, propriedades, efeitos e previsões(25).

É de Aristóteles, também, a noção de critério de verificação e a observação de que cada saber possui um campo que lhe é próprio, com seu objeto, procedimentos e demonstrações específicos. Assim, cada campo do conhecimento é, de fato, uma ciência e a filosofia a totalidade do saber humano.

Marcondes (2000) ressalta, também, a importância da produção de "ciência" desenvolvida no Museum de Alexandria, no início do século III a.c., que refletia a concepção de Estrato de Lâmpsaco e valorizava as ciências naturais, a observação e a pesquisa empírica. Destacam-se, neste período, Euclides (final do séc. IV e início do séc. III a.c.) na matemática e geometria; Arquimedes de Siracusa (287-212 a.c.) na geometria e mecânica; e, Aristófanes de Bizâncio (257-180 a.c.) nos estudos sobre a linguagem; entre outros.

Na medicina, vários estudos de anatomia e fisiologia foram produzidos em Alexandria, sendo, inclusive, reconhecida como disciplinas. Herófilo de Calcedônia (século III a.c.), por exemplo, foi, segundo Galeno, o primeiro a dissecar corpos humanos e animais, embora algumas referências considerem que, anteriormente a ele, outros já o faziam. Apesar disto, Herófilo foi um professor famoso de anatomia, escreveu "Da anatomia"; reconheceu o cérebro como o órgão central do sistema nervoso e sede da inteligência, em oposição a idéia de Aristóteles; foi o primeiro a perceber a diferença entre os nervos sensitivos e motores; e, efetuou a primeira distinção clara entre veias e artérias (Singer, 1996).

Da mesma época, Erasístrato de Quios foi muito mais fisiologista do que anatomista. Seus estudos sobre a circulação sangüínea extremamente avançados. Descreveu o coração como a origem das artérias e veias, sendo somente superado por Harvey, no século XVII (Marcondes, 2000 e Singer, 1996).

Empreendendo um grande salto até a Idade Média, encontra-se um mundo completamente diferente. Muito embora esta época seja tratada, freqüentemente, como uma idade infeliz de um prolongado e trabalhoso sacrifício do pensamento, por vezes denominada "obscurantismo", uma "outra Idade Média" ocupa um lugar importante na história da filosofia.

O contexto histórico presencia, em várias regiões da Europa, uma intensa atividade comercial e artesanal, que simultaneamente às crises de produção agrícola e à contínua imigração do campo faz surgir importantes núcleos urbanos. Neste momento começa, então, a emergir uma nova organização social, embora este processo de transformação se dê muito lentamente. Mas, é possível detectar algumas primeiras sinalizações de rupturas com a ordem política e econômica vigente.

De fato, as profundas transformações só ocorrerão nos séculos XV-XVI, no início da Idade Moderna. Porém, aqui, já se inicia uma preocupação científica, isto é, o desenvolvimento de um tipo de saber que busque conhecer a realidade. A obra de Aristoteles, neste contexto, é, então, bastante valorizada (Marcondes, 2000). Porém, Alain de Libera (1990) estudioso da filosofia medieval, assinala que o verdadeiro conhecimento de Aristóteles só se deu tardiamente. Somente em fins do século XII e início do XIII que grande parte da obra de Aristóteles, por influência árabe, estará disponível.

Segundo Marcondes (2000), dois fatos devem ser considerados fundamentais neste momento: primeiro, o surgimento das universidades e, segundo, a criação das ordens religiosas (franciscanos e dominicanos). Por certo, a criação das universidades e das ordens religiosas foram reflexos das transformações pelas quais passava o mundo ocidental. A demanda por educação aumentou progressivamente, tanto no sentido eclesiástico, para combater os hereges; quanto no civil, em função das necessidades da sociedade, governo e administração pública.

A história do pensamento medieval, sem dúvida, está ligada às instituições escolares da época. Se até as primeiras décadas do século XI, a vida intelectual estava confinada às escolas "monásticas", o final deste século e o início do século XII assiste o triunfo das escolas "capitulares" e "episcopais", cujo organismo é a cidade e o centro a catedral. Urbanizada, a cultura passa e se difundir, ao mesmo tempo que aparece as figuras do "escolar" (scholasticus) e do "mestre" para concentrarem-se num auditório (Libera, 1990).

As primeiras universidades resultaram da aplicação dos modelos das "corporações de ofício" no campo da educação. No final do século XI, em 1050, surge a faculdade de medicina de Salerno, sob grande influência dos conhecimentos médico-científicos árabes. Em 1088, surge, também, a faculdade de direito de Bolonha. No entanto, a primeira universidade a seguir o modelo de faculdade de artes e teologia foi a de Paris, em 1214(26). Para Libera (1990), a universidade medieval, instituição da cristandade, foi o traço específico da Idade Média tardia (séculos XIII-XIV) e, ressalta Marcondes (2000), a origem do modelo universitário atual, pois tratava-se de uma instituição de ensino, pesquisa e produção de saber.

A universidade teve, então, um lugar importante para o desenvolvimento das idéias dominantes. O papel fundamental do pensamento, nesta época, era o de combate às heresias e pagãos. Sem dúvida, um dos pensamentos de destaque foi são Tomás de Aquino (1228-1274).

São Tomás de Aquino era um pensador bastante ligado às universidades, sobretudo, à Universidade de Paris. Uma de suas grandes tarefas foi tentar demonstrar a existência de Deus. A estruturação lógica da argumentação, seu caráter racionalista e a seqüência sistematizada com que construiu sua argumentação caracterizaram seu pensamento. Os argumentos funcionavam como "hipóteses" que eram respondidas ou refutadas pelo próprio pensador e acabaram por conciliar a revelação ensinada pelas Escrituras com a noção individual que se tem de Deus ("teologia natural").

Na verdade, conhece-se Deus por seus efeitos, sua obra, o mundo criado, a Natureza. Desta forma, tornou-se legítimo, para a teologia, o interesse pela investigação científica do mundo natural. Algumas argumentações para prova da existência de Deus, por exemplo, basearam-se nos escritos de Aristóteles. Assim, São Tomás articulou a filosofia de Aristóteles com o cristianismo e abriu caminho para o desenvolvimento da filosofia cristã e para ciência (Marcondes, 2000 e Libera, 1990).

Outro nome bastante citado desta época é Guilherme de Ockham (1284-1349), uma vez que foi um dos filósofos mais influentes do século XIV. Suas posições originais sobre os campos da lógica, da metafísica e da teoria política contribuíram para o grande número de seguidores e adversários.

Diferentemente, de outras posições frente à querela dos universais(27), tais como o "realismo platônico" e o "realismo aristotélico", Ockham adotou, a princípio, o "nominalismo", que entendia serem os universais apenas palavras, sons emitidos, onde não há nenhuma entidade real correspondentes a eles. Porém, sua posição avançava e se imiscuía com outra posição o "conceitualismo". Ele, então, entendia o universal como um termo que encontra correspondência em um conceito pelo qual os indivíduos se referem a essas qualidades ou características. Deste modo, para o filósofo, o universal seria a referência a um termo, mas não uma entidade ou apenas uma palavra, uma vez que existe a correlação mental, um conceito (Marcondes, 2000).

Parece derivar daí seu famoso princípio conhecido como "navalha de Ockham": "multiplicitas non ponenda sine necessitate(28)", não suponha o múltiplo sem necessidade, ou seja, não se deve imaginar causas múltiplas onde uma só basta; deve-se tentar sempre manter um número mínimo de hipóteses; e, deve-se buscar precisar tanto quanto possível o campo de seu discurso (Omnès, 1996). Marcondes (2000) explica que a posição assumida por Ockham rejeitou a existência de entidades metafísicas, tais como aparecem no realismo platônico, já que essas entidades além de não explicarem adequadamente a natureza das coisas, careciam, elas próprias, de melhor compreensão. A "navalha de Ockham" funcionou, portanto, como um "princípio de economia", o qual a teoria sobre o real deveria supor apenas a possibilidade de existência do mínimo necessário. Os termos e conceitos, deste modo, seriam considerados suficientes para dar conta destes problemas e não haveria a necessidade de supor a existência de entidades reais universais (Marcondes, 2000).

Poder-se-ia citar, ainda, um sem número de outros pensadores que de um modo ou de outro exerceram alguma influência sobre o pensamento filosófico e/ou científico, tais como, entre outros, Galeno (129-199), São Agostinho (354-430), Boécio (480-524), Roger Bacon (1214-1294) ou os filósofos árabes al-Farabi (870-950), um dos autores que exerceram uma notável influência sobre o pensamento da Idade Média latina; Avicena (980-1037), considerado uma das maiores fontes do pensamento medieval latino e cuja obra iniciou o Ocidente na filosofia e medicina; ou, Averróis (1126-1198), tido como o grande intérprete medieval de Aristóteles (Libera, 1990).

É na Idade Moderna, porém, que a Europa Ocidental começaria a construir uma nova forma de olhar a natureza. Este é o período de profundas transformações, de ruptura com a tradição, com o mundo anterior. Iniciadas no século XV, as grandes navegações e a descoberta da América alteraram, de modo radical, a concepção que a humanidade tinha da Terra. Contribuíram, também, a decadência do feudalismo e a ascensão do mercantilismo, determinando, assim, uma nova ordem econômica; a Reforma Protestante de Martim Lutero, que mostrou os erros da Igreja Católica e, conseqüentemente, abalou sua autoridade universal e valorizou a interpretação da Bíblia pelo próprio indivíduo; além, das próprias descobertas "científicas" que puseram em dúvida grande parte da construção do conhecimento escolástico de inspiração aristotélica.

Se é verdade que as bases dessa nova visão foram lançadas na Antigüidade e na Idade Média, não é menos verdade que os trabalhos de Copérnico (1473-1543), Kepler (1571-1630), Galileu (1564-1642), Descartes (1596-1650), Newton (1642-1727), Leibniz (1646-1716), para citar alguns, foram fundamentais para consolidação de uma "revolução científica(29)" e, sobretudo, para compreensão do conhecimento científico atual.

A grande revolução das ciências(30) da natureza estende-se do século XVI ao século XVII(31). Copérnico, por exemplo, demonstrou os movimentos de rotação e translação dos planetas. Kepler empreendeu um estudo bastante preciso sobre astronomia, do qual pôde enunciar suas leis científicas(32). As Leis de Kepler, consideradas, hoje, as primeiras de notação científica, explicaram o movimento dos planetas ao redor do Sol e, mais tarde, permitiram a Newton inferir o princípio da atração universal (Bergé et al., 1996).

Obviamente, estas descobertas foram possíveis devido à precisão cada vez maior dos instrumentos de óptica e medição do tempo. Contudo, mais relevante é o pensamento que vai tomando conta dos físicos e astrônomos da época. Germina entre eles a idéia de que a natureza se comporta dentro de uma ordem matemática. Assim, a astronomia e a física, a partir de Kepler, assumiram seus papéis fundadores da ciência atual, revelando a existência de leis empíricas sob a forma matemática (Omnès, 1996).

Se Galileu disse que o "o livro do mundo está escrito em caracteres matemáticos", só o fez porque o pensamento, que se tornava hegemônico, tinha uma concepção da realidade intrinsecamente racional, cujo sistema, de mecanismos físico-matemáticos, inaugurou a ciência clássica, e a partir da qual os fenômenos puderam ser descritos, explicados, demonstrados e interpretados.

A "matematização" dos fenômenos da natureza foi, sem dúvida, um elemento fundamental da revolução científica. Neste período houve substituição de uma perspectiva instrumentalista, a qual sustentava que as teorias matemáticas eram hipotéticas e serviam para facilitar os cálculos e predições, por uma atitude mais realista, onde as análises revelavam como os fenômenos deveriam ser, bem como a afirmação da certeza do conhecimento, uma vez que se os cálculos funcionavam eram porque a teoria proposta era verdadeira.

Henry (1998) lembra que quando Copérnico "pôs" a Terra em movimento, ele o fez contra todos os ensinamentos da época, a física aristotélica, as Sagradas Escrituras, o próprio senso comum e a própria posição contrária de seus pares. E, por mais que pudesse parecer estranho à época, Copérnico persistiu em sua certeza do conhecimento verdadeiro porque, segundo ele, "a matemática assim o exigia". Para o historiador, isto foi revolucionário.

Por outro lado, a idéia hegemônica era a tradição escolástica-aristotélica, a qual se baseava em verdades da experiências evidentes, inegáveis. Porém, as teorias matemáticas não tinham uma tendência a ser tão óbvia, pelo contrário, manifestavam-se, por vezes, de modo pouco evidente. Desta forma, os filósofos naturais que exploravam a matemática passaram a substituir as "experiências evidentes" da escolástica por uma noção de conhecimentos demonstrados através de experimentos concebidos para tal propósito. John Henry (1998), portanto, considera que esses matemáticos desempenharam um papel importante para o estabelecimento do método experimental.

A posição de defesa do método experimental e do progresso da ciência e da técnica e sua rejeição contra a "ciência" teórico-especulativa clássica e da escolástica situa Francis Bacon (1561-1626) como um dos fundadores do pensamento moderno (Marcondes, 2000). Uma de suas grandes contribuições ao pensamento científico foi sua concepção de método científico que valorizava a experiência e a experimentação(33).

Seus principais escritos são: o Novum organum, datado de 1620, o qual critica a idéia dedutiva de ciência proposta por Aristóteles no Órganon; o The Advancement of Learning, de 1605(34), cuja proposta era defender a idéia do progresso da ciência e da técnica; e, o inacabado New Atlantis, publicado em 1627, um ano após a sua morte, que simbolizava um reino utópico e continha um modelo de instituição de pesquisa (Marcondes, 2000).

Marcondes (2000) distingue dois aspectos relevantes de sua contribuição filosófica: 1) sua concepção de pensamento crítico, em que, a partir da teoria dos ídolos, observa que a tarefa da filosofia reside na libertação do homem de preconceitos, ilusões e superstições. Os "ídolos" representam, exatamente, estas distorções ou ilusões; e, 2) sua posição de defesa do método indutivo no método científico, sem especulação e integrado à técnica. Para isso, seria necessário "despir-se" de todos os preconceitos e observar a regularidade dos fenômenos para, a partir da indução, estabelecer relações entre eles e formular leis científicas.

Para Henry (1998), mesmo sem ter conseguido articular por completo seu método, Francis Bacon foi capaz de influenciar vários filósofos naturais da geração subseqüente, entre eles Boyle e Newton, de que o método experimental poderia ser utilizado para solucionar as questões científicas. A "filosofia experimental" desenvolvida na Inglaterra, permitia o uso de fenômenos físicos inexplicados, desde que os efeitos pudessem ser esclarecidos por meios experimentais.

Na verdade, o procedimento experimental em Bacon não correspondia, exatamente, como ocorre atualmente nos experimentos científicos. Seu método consistia em investigar os fenômenos naturais do mesmo modo que se dá uma investigação de um processo num tribunal. Era, então, a analogia entre o funcionamento do direito e a investigação das questões físicas, a partir de experiências locais específicas, do conhecimento do contexto, da habilidade, perícia e razão, que seria possível alcançar a "certeza moral" (Henry, 1998).

Embora esta analogia do direito possa soar estranho, não à toa que a ciência só se legitima, realmente como tal, quando passa a ser julgada. A avaliação das descobertas, bem como do financiamento de projetos científicos surge com as primeiras associações científicas, durante o século XVII, e é repassada aos próprios cientistas, pelos detentores do poder de decisão, como uma necessidade de assessoria. Formou-se, a partir daí, uma tradição de avaliação da ciência por "pares", isto é, colegas capazes, por suas experiências e formações, de formular um julgamento confiável (Davyt et al., 2000).

Por outro lado, Rossi (1992) comenta que, embora tenha vivido numa época de grande descobertas astronômicas, quando nenhum astrônomo importante negava a rotação da Terra e seu movimento em torno do Sol, Francis Bacon sustentava uma posição contrária. De fato, Bacon mostrava-se um verdadeiro retrógrado da ciência por sua posição agnóstica, resultado de sua "surdez" para a matemática e sua incompreensão do conflito cultural que veio à tona durante as grandes controvérsias astronômicas da época.

O filósofo e matemático René Descartes foi outro pensador de grande destaque desta época. Sua ambição fundamental consistia na construção de um conhecimento universal de modo irrefutável. O projeto cartesiano era, inicialmente, consolidar as certezas contra toda e qualquer opinião oposta. Isto proporcionaria um "remédio" contra a confusão. Para isso, estava reservado um lugar especial à matemática, pois esta lhe daria as certezas e evidências de suas razões. Descartes julgou, então, encontrar uma espécie de paradigma, pelo qual acreditou poder conceber legitimamente o acesso à certeza do conhecimento (Pimenta-Neto, 2000).

Pode-se considerar que este projeto fora construído como uma defesa do novo modelo de pensamento inaugurado por Copérnico, Kepler, Galileu, entre outros. Em seu "Discurso do método", Descartes explica que o erro advém de um mau uso da razão, de sua aplicação incorreta no conhecimento do mundo. Deste modo, a finalidade do método seria, precisamente, pôr a razão no caminho correto para evitar seu erro (Marcondes, 2000). Este é, então, o intuito da formulação das quatro regras ou preceitos, apresentados na segunda parte do livro. Para citar as próprias palavras de Descartes (2000; p.31):

"O primeiro consistia em nunca aceitar como verdadeira nenhuma coisa que eu não conhecesse evidentemente como tal, isto é, em evitar, com todo o cuidado, a precipitação e a prevenção, só incluindo nos meus juízos o que se apresentasse de modo tão claro e distinto ao meu espírito, que eu não tivesse ocasião alguma para dele duvidar.

O segundo, em duvidar cada uma das dificuldades que devesse examinar em tantas partes quanto possível e necessário para resolvê-las.

O terceiro, em conduzir por ordem os meus pensamentos, iniciando pelos objetos mais simples e mais fáceis de conhecer, para chegar, aos poucos, gradativamente, ao conhecimento dos mais compostos, e supondo também, naturalmente, uma ordem de precedência de uns em relação aos outros.

E o quarto, em fazer, para cada caso, enumerações tão completas e revisões tão gerais, que eu tivesse a certeza de não ter omitido nada."

Deste modo, a origem do erro, para Descartes, localizava-se, basicamente, em duas atitudes: a) na "prevenção", a qual seria a facilidade com que o indivíduo se deixa levar por opiniões e idéias alheias, sem a devida preocupação de verificá-las em sua veracidade. De certo modo, elas ocorrem sob a forma de preconceitos; e, b) na "precipitação", que corresponderia à vontade de emitir rapidamente juízos sobre as coisas antes mesmo de verificar se as idéias são verdadeiras ou não (Chaui, 2001).

Pimenta-Neto (2000) destaca que a possibilidade de adoção deste modelo repousava sobre suas características constitutivas. O emprego de tal método(35) matemático poderia ser efetuado por diversos campos de saber, em função de dois aspectos. Um primeiro diz respeito à precisão das relações demonstradas, em que o valor ou características de um ou mais elementos podem ser inferidos a partir do cálculo. Assim, seria suficiente demarcar, de modo racional, os limites teóricos do objeto estudado para que se atingisse resultados indiscutíveis.

Num segundo aspecto, os procedimentos matemáticos seriam construídos a partir de um rigoroso encadeamento de proposições, onde só seria possível prosseguir após cada momento ser estabelecido sem a possibilidade de refutação.

Deste modo, o sentido mais importante da matemática, na obra filosófica de Descartes, reside no fato de lhe ser conferida um "caráter exemplar". A posição cartesiana, assim, é conclusiva. Onde se disponha a encontrar a verdade é preciso recorrer ao racionalismo e a um conjunto de regras derivadas da matemática. Por outro lado, todo e qualquer aspecto passível de incerteza numa proposição acarretaria, imediatamente, na impossibilidade de aceitá-la como um todo (Pimenta-Neto, 2000).

Os esforços de Descartes, com seu "Discurso sobre o método", mas também de Francis Bacon, com o "Novum organum" e de Immanuel Kant, "Crítica da razão pura", os tornaram precursores do empenho dos positivistas na elaboração de uma explicação geral da ciência e seus métodos.

Alan Chalmers (1994) explica que na época a distinção entre ciência e não-ciência era uma versão atualizada da distinção entre "episteme" e "doxa", na Antigüidade. Segundo o autor, sustentava-se que o conhecimento científico baseava-se em verdades estabelecidas pela razão. Para tanto, era preciso ficar livre dos vários equívocos que obscurecem o pensamento. Deste modo, a teoria do conhecimento proposta por Descartes, e bastante considerada por Newton, apresentava-se como a principal explicação de ciência, a qual baseava-se em princípios evidentes.

Porém, a física de Newton entrava em conflito com a mesma, uma vez que, se a primeira exigia princípios evidentes, esta última havia descrito a idéia da ação gravitacional à distância, sem no entanto, explicá-la. Embora, contrário aos cânones aceitos da ciência, a teoria funcionou, muito bem, nas aplicações práticas de astronomia e física terrestre. Os cartesianos, assim, foram obrigados a rever seus princípios fundamentais de demonstração científica e, mesmo, do conceito de conhecimento.

Nesta mesma época, o célebre físico e astrônomo Galileu Galilei, tornava-se um dos precursores do método experimental. Uma das grandes contribuições de Galileu à ciência foi, sem dúvida, sua idealização de situações para experimentação de uma teoria científica. Mesmo que, por vezes, não pudesse realizar generalizações, em decorrência de suas situações experimentais, Galileu foi responsável pela introdução de uma série de técnicas para redução das perturbações, que se tornaram padrão na atividade experimental (Chalmers, 1994).

De fato, as leis científicas descreveriam as tendências que têm os sistemas em se comportar sob modos ordenados. A intervenção experimental poderia isolar e investigar as tendências particulares e definir as leis que regem determinados fenômenos. Nas situações reais, o fenômeno assumirá um modo complexo, a partir da combinação, entre si, destas tendências. Deste modo, a observação de regularidades, durante os eventos, cairia. Poderia, então, presumir-se que as leis ocorram tanto no mundo experimental, quanto na situação real. Galileu, então, tornou possível resolver o problema da generalização, que, aliás, se tornou comum na física.

Fernando Lobo Carneiro (1989), ao comentar os estudos desenvolvidos por Galileu em "Discorsi e dimostrazioni matematiche intorno a due nuove scienze", explica que, inicialmente, ele partia de alguns fatos experimentais para daí formular uma primeira hipótese ou teoria, que poderia ajudar na interpretação destes fatos. O passo seguinte seria, por dedução, retirar destas teorias algumas conclusões preliminares. Posteriormente, estes achados seriam postos à experimentação, a qual competiria, sempre, a decisão final sobre a veracidade de tal teoria. Caso esta não se confirmasse, a hipótese seria substituída ou aperfeiçoada.

Uma das obras "científicas" mais importantes já publicada foi "Os princípios matemáticos da filosofia natural", de Isaac Newton. Considerado por muitos, o maior cientista, Newton construiu uma obra, ao mesmo tempo, gigantesca e revolucionária. Rosa (1989) destaca que é a partir, principalmente, dele que se rompe definitivamente com a concepção escolástica de filosofia natural ou física hegemônica na época. Sua mecânica e teoria da gravitação marcaram, decisivamente, uma nova maneira de interpretar os fenômenos físicos e, por isso, constituíram um novo paradigma, na acepção kuhniana do termo, que permanece até os dias atuais. E, embora a mecânica newtoniana tenha sofrido uma redução de seus limites com o advento da mecânica quântica, no início do século XX, ela é, ainda hoje, mantida válida no limite normal macroscópio.

A ruptura com física antiga aristotélica ocorreu basicamente sob a égide de duas vertentes. Uma matemática, racionalista, da qual Descartes foi seu grande representante e que figurava com sua Teoria dos Vórtices para explicar o movimento dos planetas; e outra não matemática, empirista, de inspiração nas idéias de Francis Bacon. Newton, porém, representou a síntese triunfante das duas idéias. Seu trabalho "Os princípios matemáticos da filosofia natural" foi considerado o ponto culminante da matematização na representação do mundo, um novo modelo do modo matemático de fazer filosofia, enquanto sua "Óptica" destaca-se como um modelo de experimentalismo (Henry, 1998; Nussenzveig, 1989 e Rosa, 1989).

Nos "Principia mathematica", Newton estabeleceu que os deslocamentos dos planetas estariam em movimento, girando em torno do sol, em conseqüência da mesma força que atrai os corpos ao centro da Terra; demonstrou matematicamente as leis de Kepler sobre o movimento planetário; calculou as massas do Sol e dos planetas a partir da massa da Terra; apresentou a forma da Terra, com seu achatamento nos pólos e alargamento no equador devido à rotação em torno de seu eixo; iniciou uma moderna teoria lunar e sobre os cometas; deu início à teoria das perturbações, a partir do efeito de um terceiro corpo distante, como por exemplo a perturbação do Sol sobre o sistema Terra-Lua; apresentou a utilidade da matemática para compreensão dos fenômenos naturais, tanto celeste quanto terreno; e, por fim, refutou a física aristotélica, que distinguia o mundo sublunar e superlunar.

Contra o pensamento de Descartes, as leis do movimento de Newton construíram a base de uma completa compreensão do comportamento de corpos em colisão e desenvolveu, com sucesso, a questão da força centrífuga, bem como, iniciou a compreensão dos movimentos dos corpos em fluidos resistentes e da velocidade do som no ar (Henry, 1998 e Nussenzveig, 1989).

Suas descobertas, no entanto, não passaram imunes às críticas. Um dos grandes confrontos que o pensamento ocidental verificou foi entre Newton e Leibniz. Este último rejeitou a gravidade de Newton, a qual lhe atribuiu uma "qualidade escolástica oculta" e permaneceu firme perante às justificativas metodológicas do físico. Newton, então, comentou que a indução decorrente das observações dos fenômenos tornava claro que a gravidade realmente existiria e atuaria de acordo com as leis que ele explicara, ainda que a causa da gravidade permanecesse oculta.

Em sua "Óptica", apresentou especulações ainda mais ousadas. Ele descreveu suas experiências com o prisma e demonstrou que a luz se compõe de raios de diferentes refrangibilidades; descreveu a construção de seu telescópio refletor e ponderou sobre as limitações que sempre acompanharão o uso destes instrumentos; introduziu a teoria dos acessos de fácil transmissão e reflexão de caráter periódico, hoje conhecida como semicomprimento de onda; observou os efeitos de difração produzidos por objetos tais como o gume afiado de uma faca (Nessenzveig, 1989).

Omnès (1996) ressalta, por outro lado, que sua genialidade chama atenção, também, quando trata das "leis" da física. Até seu primado, estas "leis" apresentavam-se como regras empíricas. Newton, contudo, introduz a noção de "leis universais", de "princípios", os quais designariam os modos como a natureza se conformava. À época, foi de tamanha audácia estabelecer leis gerais aos fenômenos naturais aparentemente distintos, tais como a queda dos corpos, a vibração de uma corda ou o movimentos dos planetas. Com efeito, isto "libertava" a humanidade de suas condições terrestres e dos limites que estas impunham.

Um dos grandes adversários de Newton foi Gottfried W. Leibniz. Sua obra o identifica como um racionalista. Contudo, se opôs às idéias de Descartes, embora o tenha feito, também, aos empiristas. Sua atuação é destacada na filosofia, matemática, lingüística e história, e antecipa em vários aspectos o desenvolvimento da lógica matemática e da filosofia da linguagem no pensamento contemporâneo (Marcondes, 2000).

A posição de Leibniz contra a dúvida cartesiana sustentava que, ao contrário de duvidar de tudo que parecesse incerto, seria preciso ao pensador considerar os diversos graus de aceitação ou discordância que cada afirmação poderia produzir, isto é, dever-se-ia examinar suas razões. Contra o empirismo, sobretudo de Locke, criticou a redução do racional ao empírico ou fenomênico, pois, este seria contingente. Defendia, ainda, a lógica para o desenvolvimento da totalidade do conhecimento humano e única para verificar a unidade e integração do conhecimento em um caráter de ciência (Marcondes, 2000).

Um de seus grandes feitos foi a descoberta, simultaneamente a Newton, do cálculo diferencial e integral. Sua filosofia mecânica entrou num embate com a newtoniana, embora tenha visto o conceito de força como uma "chave" passível de dar sentido às formas substanciais no seio desta disciplina. Para Leibniz, a concepção fundamental de força estava condensada na expressão "vis viva" (força viva), a qual se caracterizava como uma medida do efeito que um corpo em movimento poderia produzir, como o impacto causado por um corpo sobre outro (Henry, 1998).

Leibniz postulou, ainda, a importância da distinção entre as verdades da razão. Para ele, as "verdades necessárias" não poderiam ser negadas sem que houvesse autocontradição. Por exemplo, "todo triângulo tem três lados". Por outro lado, as "verdades de fato" foram consideradas contingentes, isto é, acidentais, como: "o calor dilata os corpos" (Marcondes, 2000). Neste percurso, estabeleceu, em sua "Teodicéia", que toda a matemática estaria sob a égide do "princípio da não contradição", o qual rege que um enunciado não poderia ser verdadeiro e falso simultaneamente. Além disto, estabeleceu, ainda, que as "verdades de fato", embora provenientes da experiência, necessitam de uma razão para acontecer e, assim, se sustentam em um "princípio da razão suficiente" (Rosa, 1989 e Marcondes, 2000).

Outra questão de destaque abordada por Leibniz refere-se à relação entre os problemas de saúde e as ações governamentais. O filósofo e matemático foi um dos primeiros a sustentar o uso da investigação estatística na década de 1680. Sua atuação nesta área fez publicar diversos ensaios sobre a necessidade de estatísticas adequadas da população e da mortalidade e sugerir a criação de um conselho de saúde, destinado ao campo da saúde pública (Rosen, 1994).

Nesta mesma época outros formas de saber, que não a filosofia mecânica ou a metafísica, também apontavam em direção à "revolução" do pensamento. Paracelso (1493-1541) foi um dos maiores representantes do que se poderia denominar "filosofia química", cuja fonte foi a alquimia. Esta, como uma atividade experimental, tornou-se particularmente importante neste período de "revolução científica" e se fez notar entre os filósofos naturais, clínicos e outros pensadores. O paracelcismo exaltava a utilidade da química prática para a medicina e para maior compreensão do mundo natural e do homem (Henry, 1998).

Desenvolvimento expressivo ocorreu, também, na anatomia e fisiologia. Vesálio (1514-1564) é considerado o grande reformador da anatomia. Vesálio, inicialmente, escrevera alguns trabalhos anatômicos de características galênicas e sem nenhum caráter revolucionário. Porém, ao final do ano de 1537 foi nomeado professor da Universidade de Pádua, onde havia se estabelecido após sua saída de Paris. Ali não encontrou as dificuldades presentes no conservadorismo da Universidade de Paris e executou uma reforma básica no ensino da anatomia. Vesálio passou a ensinar a disciplina enquanto fazia, ele mesmo, suas dissecações. Procurou, também, utilizar desenhos de melhor proporção que dos antecessores, modelos vivos e peças anatômicas para demonstrações.

Sua grande obra "De Fabrica Corporis Humani", concluída em 1543, era ao mesmo tempo um estudo aperfeiçoado de anatomia e um manual prático sobre dissecação. Em seu prefácio, o autor mostrou sua indignação a respeito da separação, feita na época, entre a cirurgia e a medicina. A partir deste trabalho a anatomia tornou-se "vesaliana" e veio a ser considerada o fundamento de toda medicina (Singer, 1996 e Henry, 1998).

Na fisiologia, algum tempo depois, ocorreu um movimento semelhante. Harvey (1578-1657) publicou em 1628 seu "De moto cordis et sanguinis", de caráter experimentalista e causal e que transformou, por completo, a concepção do organismo humano da época. Harvey descobriu que cada órgão tem uma função passível de ser descoberta, tanto em seu modo de funcionamento, quanto em suas relações com outros órgãos e com todo o corpo. Foi este caminho que o fez descobrir a circulação sangüínea. Além disto, foi a partir deste tratado que os filósofos naturais passaram a pensar de modo mais fisiológico seus estudos anatômicos.

Sua influência ajudou, por muito tempo, a moldar a pesquisa e o ensino experimental nas escolas de medicina e a própria fisiologia tornou-se, a partir daí, foco de importantes investigações experimentais (Singer, 1996 e Henry, 1998).

Este, sem dúvida, foi um período bastante rico, onde os pensadores foram construindo, de modo muito particular, as bases do ciência contemporânea. As afinidades e interações com a religião, astrologia, alquimia, magia, entre as diversas formas de saber, constituíram uma das peculiaridades desta época. Por essa razão não se pode vê-la com os "olhos" da contemporaneidade. Contudo, é aqui que se assinala a compreensão de "revolução científica".

No percurso traçado, acredita-se que não houve, em absoluto, uma história aprofundada dos primórdios da ciência. Há, decerto, vários autores importantes deixados de lado. Hobbes (1588-1679), Gassendi (1592-1655), Pascal (1623-1662), Boyle (1627-1691), Huygens (1629-1695), Spinoza (1632-1677), para citar apenas alguns. Cada um deles, e muitos outros, contribuíram de maneira importante para a consumação da "revolução científica".

Os herdeiros imediatos destas mudanças radicais foram os intelectuais do "Iluminismo". O "Iluminismo", também denominado "século das luzes", foi um movimento do pensamento ocidental ocorrido a partir da segunda metade do século XVIII. É da mesma época o turbilhão revolucionário chamado "Revolução Industrial".

A expressão "Revolução Industrial" é utilizada para designar uma série de mutações, nos campos econômico, social e técnico, responsáveis pelo surgimento do processo de industrialização, inicialmente, na Grã-Bretanha entre 1760 e 1680, de onde se difundiu, de modo desigual, para o restante do mundo (Coleman, 1986 e Landes, 1994). Segundo Landes (1994), a "Revolução" representou uma mudança fundamental na história da humanidade. O historiador explica que os avanços industriais e mercantis até aquele momento podem ser considerados superficiais, se comparados à Revolução Industrial. Isto porque, cada período econômico de prosperidade ocorrido, anteriormente, assistira um retrocesso um pouco mais à frente.

Por outro lado, o processo de industrialização insere-se num processo mais amplo e complexo denominado "modernização". Daí que ocorre uma combinação de mudanças no modo de produção, de governo, na ordem social, nas atitudes e valores e no corpo de conhecimento. Trata-se, portanto, de um período de profundas transformações, as quais refletiram sobre o pensamento.

Os dois primeiros, e talvez principais, países a conhecer os efeitos da industrialização foram a Grã-Bretanha e a França. É deste momento a posição de destaque assumida pela ciência. Figura a idéia de que o progresso poderia representar a felicidade e segurança à humanidade, através da aquisição de mais conhecimentos e aperfeiçoamentos dos meios técnicos. A crença, na certeza e eficácia das ciências reforçou tais idéias e lhes ofereceu ampla legitimação (Châtelet et al., 1997).

Contudo, não se pode deixar de lembrar, a referência à ciência apareceu como um dispositivo auxiliar da ação política. Para os empiristas, por exemplo, os conhecimentos científicos eram úteis por fornecerem aos governantes conhecimentos que permitiram pôr em operação técnicas eficazes de controle e gestão. O racionalismo também participou como "ponte" entre a ciência e a dominação. A aplicação da razão, cuja antítese é a superstição e a magia, à compreensão dos fenômenos naturais e, posteriormente, dos fenômenos humanos possibilitou uma manipulação mais eficaz do ambiente natural e humano (Châtelet et al., 1997 e Landes, 1994).

A noção de "Iluminismo", como o próprio termo indica, é uma alusão à metáfora da luz e da claridade, em oposição ao obscurantismo, ignorância, superstição, enfim, às coisas que não estão claras. O propósito central das idéias iluministas era, deste modo, remover os obstáculos ao desenvolvimento dos homens através da ciência, do conhecimento e da educação. É neste sentido que surgiu o "projeto enciclopedista" de sintetizar, numa única obra, todo saber da humanidade e colocá-lo a serviço de todos.

Denis Diderot (1713-1784) foi um dos principais organizadores da "Enciclopédie" ou "Dictionnaire raisonné des sciences, des arts et des métiers", que consistiu de um compêndio das principais descobertas científicas e técnicas; os mais importantes conceitos filosóficos; além, das concepções artísticas (Marcondes, 2000). Outro editor da "Enciclopédia" foi Jean Le Rond d’Alembert (1717-1783), que publicou, também, o "Traité de dynamique" (1743), com importantes contribuições ao desenvolvimento da mecânica (Rosa, 1989).

O período caracterizou-se, portanto, por um forte impulso de tornar os resultados científicos alcançáveis pelo público. Dentre estes conhecimentos, os assuntos de saúde e higiene foram, sem dúvida, enfatizados. Não raro, porém, foi a necessidade de relacionar estas questões à matemática ou estatística.

O filósofo e matemático francês Marie Jean Caritat, o Marquês de Condorcet, também chamado, simplesmente, de Condorcet (1743-1794) foi um dos que pensaram em estender um maior contato entre o cálculo de probabilidade e investigação estatística e os problemas de saúde. Se as Revoluções Francesa e Industrial expunham novas necessidades, problemas e metas; se os efeitos do industrialismo sobre a população estimulava uma grande preocupação dos governistas; a relação entre as condições de saúde e higiene e o ambiente social e econômico pôde ser associada aos valores numéricos, à investigação estatística (Rosen, 1994).

Neste período encontra-se a figura de Immanuel Kant (1724-1804). Seu pensamento, por vezes, parece totalmente engajado ao movimento iluminista, principalmente, no que tange à luta contra o obscurantismo, o fanatismo e a superstição. É, deste modo, que se revela o grande pensador da modernidade (Penna, 2000 e Châtelet, 1994). No entanto, não se pode afirmar que sua obra esteja em total sintonia com o "Iluminismo".

A obra de Kant é, normalmente, analisada a partir da divisão em duas fases. A denominada "pré-crítica", a qual abrange os trabalhos até a "Dissertação", de 1770. Nesta fase, o conjunto de suas idéias, sob a forte influência do "sistema Leibniz-Wolff(37)", caracteriza-se pelo "racionalismo dogmático". A fase "crítica" é imputada ao período posterior à publicação, em 1781, da "Crítica da razão pura" (Marcondes, 2000).

Seus dois principais trabalhos, a "Crítica da razão pura" e a "Crítica da razão prática", são deste último período. Se é possível reconhecer, na filosofia, um caminho traçado diante dos problemas naturais ou, como se diria atualmente, "científicos", e diante das controvérsias levantadas pelas mudanças sócio-político-econômicas ocorridas durante o "Renascimento", Kant lidou com estas duas questões nestes seus dois principais trabalhos.

Na "Crítica da razão pura", sob influência das grandes descobertas de Newton, e, talvez, de Lavoisier, e do prolongamento das primeiras, Kant refletiu e se dedicou ao problema do conhecimento(38). Ao tratar da razão teórica, da possibilidade do uso da razão para o conhecimento da realidade, teve como principal objetivo estabelecer os critérios pelos quais se demarcariam o que é possível conhecer de modo legítimo, daquilo que se entende como as falsas pretensões ao conhecimento, as quais nunca se realizariam (Marcondes, 2000 e Châtelet, 1994).

No trajeto para examinar a constituição interna da razão e seu funcionamento, Kant (s/d; p.28) partiu dos conceitos tradicionais de "juízos analíticos" e "juízos sintéticos". Os primeiros, de caráter lógico, "são aqueles em que o enlace do sujeito com o predicado se concebe por identidade". Assim, não produzem conhecimento, isto é, apenas esclarecem a definição do sujeito do juízo. Kant (s/d; p. 28) cita como exemplo a proposição "todos os corpos são extensos". Não há necessidade de recorrência a outros conceitos além do próprio conceito de corpo para reconhecer a união deste corpo com sua extensão. Estes juízos independem da experiência, são universais e necessários(39), além de não-cognitivos e, por isso, ditos "a priori".

Os "juízos sintéticos" são dependentes da experiência e referem-se a uma ampliação do conhecimento do indivíduo, sendo, portanto, "a posteriori". O exemplo "todos os corpos são pesados" produz um determinado conhecimento, embora não sejam universais nem necessários, uma vez que dependem da experiência. Aqui, o predicado apresenta-se como algo completamente distinto do que, em geral, se concebe no simples conceito de corpo. O conhecimento e a experiência proporcionados pelo conceito de corpo, encontram-se enlaçadas pelas propriedades de extensão e da ação da gravidade, que se adita sinteticamente, como predicado, àquele conceito (Kant, s/d; p.28). Estes "juízos sintéticos", cabe lembrar, podem gerar generalizações empíricas.

Kant avança, contudo, quando propõe a insuficiência desta distinção analítico/sintético para tentar compreender aqueles juízos considerados universais e necessários que, também, ampliam o conhecimento. Os "juízos sintéticos a priori" seria caracterizado por uma relação com a experiência, porém de modo independente. Tomando-se como exemplo (Kant, s/d; p.31) a proposição "em todas as mudanças do mundo corpóreo a quantidade de matéria permanece sempre a mesma", percebe-se a necessidade, logo sua origem "a priori", porque ao instituir o conceito de matéria não se pensa em sua permanência, mas unicamente na presença em que ocupa no espaço. Porém, se vai além ao atribuir a este conceito algo "a priori", o qual não havia sido concebido anteriormente.

Para Kant, pertenceriam a este tipo de juízo os princípios gerais da ciência, além dos fundamentos da física, enquanto os juízos matemáticos são, na grande maioria, "juízos sintéticos".

François Châtelet (1994), ao comentar o trabalho de Kant, explica que, em síntese, a grande originalidade de Kant foi ter desenvolvido, de forma audaciosa, a pergunta "como pode haver a verdade?". Pois, até então, os filósofos haviam, tão somente, se preocupado com a questão do erro, de como o homem pode se deixar enganar. A resposta de Kant a tal pergunta é a adoção de uma atitude crítica.

Ao tratar da realidade, Kant sugere que o "real" é uma atribuição do sujeito cognoscente à realidade sensível, àquilo com que conhece pelos sentidos. "O que se conhece, para ele, não é o real, "a coisa-em-si", mas sempre o real em relação com o sujeito do conhecimento, isto é o real enquanto objeto" (Marcondes, 2000; p.209). Além da sensibilidade e do entendimento, Kant destaca uma terceira faculdade: a razão, a qual denomina "faculdade dos princípios". Châtelet (1994) comenta que ao abordar o papel da razão no conhecimento humano, Kant observou que o sujeito cognoscente não se limitaria a atribuir uma relação simples de causalidade entre dois termos. O que o sujeito pretende é buscar a sucessão de causas até a causa primeira, a qual tornaria inteligível toda a seqüência das causas e efeitos entre estes dois termos. Assim, o princípio é posto em primeiro lugar. Porém, o homem não poderia conhecer a causa primeira, a "determinação integral", ao saber absoluto.

Châtelet (1994) conclui, a respeito da teoria kantiana do conhecimento, que só existiria conhecimento verdadeiro no conhecimento possível de ser verificado. Pois bem, para Kant, era aceito que somente se poderia verificar o que fosse dado na experiência criticada e controlada, ou seja, na experimentação.

O francês Antoine Laurent de Lavoisier (1743-1794), um dos criadores da química moderna, foi um dos principais nomes do conhecimento científico desta época. É de sua autoria o conhecimento da composição do ar e o descobrimento da importância do oxigênio para a respiração dos animais.

É sua responsabilidade, também, a proposta de um "quadro de nomenclatura química". Granger (1994; p.52) ao comentar sobre a importância da linguagem na ciência não deixa escapar a relevância de Lavoisier: "A história do simbolismo químico é notável, por mostrar claramente a relação íntima entre o progresso da ciência e o progresso do sistema simbólico de que ela se vale". Para os alquimistas, o simbolismo era "figurativo", isto é remetia às imagens sensíveis, como por exemplo, o símbolo do ouro associado ao Sol. O simbolismo "característico", do contrário, deveria permitir o reconhecimento das propriedades químicas do objeto analisado e é, assim, que ordenou em oposição os ácidos, de um lado, e as bases, de outro.

Pierre Simon de Laplace (1749-1827) é outro representante considerável da ciência desta época. Sua dinâmica, notavelmente, determinista exprimia a idéia segundo a qual era possível ao passado determinar precisamente o presente, e este, de modo recíproco, determinar o passado(41). Assim, o "determinismo clássico é uma equivalência lógica entre duas proposições da dinâmica newtoniana relativas a tempos diferentes" (Omnès, 1996; p.197).

Laplace procurou simbolizar a descrição dinâmica a partir de um símbolo, que posteriormente ficou conhecido como o "demônio de Laplace". O demônio seria capaz de observar a posição e a velocidade de cada massa constitutiva do Universo, num dado momento, e daí deduzir a evolução universal, tanto na direção do passado como na do futuro (Prigogine & Stengers, 1997). A possibilidade de princípio do determinismo estava realçada.

Este período, principalmente o século XIX, é profundamente marcado pela presença do positivismo(42) ou pensamento positivo. Suas raízes remetem à Idade Média, com Roger Bacon e Guilherme de Ockham, tem em Hume um pensamento bastante próximo, e encontra na filosofia do iluminismo suas origens, principalmente com Condorcet e Saint-Simon. Contudo, é com Augusto Comte (1798-1857) que realmente aparece como uma teoria da ciência e não só como visão social do mundo.

A concepção positivista, destaca Michael Löwy (1985), tem como idéias fundamentais, a regulação da sociedade humana por leis naturais(43) ou leis que independem da vontade e ação humana; a utilização de procedimentos e métodos idênticos para conhecer a natureza (ciências naturais) e a sociedade (ciências sociais); e, a posição objetiva, neutra, livres de juízos de valor ou ideologias políticas do cientista.

Comte serve-se, também, do "princípio da complexidade crescente e generalidade decrescente" para discriminar os três estados na evolução do conhecimento e classificação das ciências. Para Penna (2000), estes três estados não se sucedem, necessariamente, de modo simultâneo em todos os campos do saber, mas, antes, seguem o princípio orientador. É deste modo que, para Comte, a positividade se implanta de imediato nas ciências mais gerais e menos complexas, enquanto, as ciências mais complexas e menos amplas têm sua positividade retardada.

São desta época, ainda, muitos outros pensadores importantes. Gauss (1777-1855), considerado um dos grandes matemáticos da humanidade, que realçava a importância do rigor para a descoberta científica; ou, ainda, de Lamarck (1744-1829), naturalista francês, que se ocupou da evolução das espécies, a partir das leis do "uso e desuso" e da "herança dos caracteres adquiridos".

O percurso traçado encerra, aqui, um ciclo. A ciência parece ter consolidado suas bases neste trajeto. Obviamente não é o "fim da história"; muito mais acontecera ou acontecerá. Porém, os pressupostos, ainda hoje bastante legítimos e hegemônicos para alguns, foram lançados durante o transcorrer desta empreitada.

E, quais pressupostos são estes? A matematização dos fenômenos é um deles. A experimentação sob controle das variáveis intervenientes é outro; a objetividade e neutralidade do observador; a certeza das descobertas da ciência; a possibilidade de predição de um efeito ou de determinação de uma causa, a partir da determinação causal; a generalização que se efetua sob a égide de leis universais; o aperfeiçoamento da linguagem como um traço marcante da história do conhecimento científico; a posição da ciência alheia ao contexto social; exclusão do homem como sujeito dotado de subjetividade(44); a simplicidade em detrimento à complexidade; entre outros.

Além destes pressupostos, a razão, ao longo de sua história, tratou de operar seguindo certos princípios estabelecidos, certas regras ou leis consideradas fundamentais na garantia da atividade racional ou científica.

O "princípio da identidade" ou "correspondência", construído por Aristóteles e reafirmado por Descartes, cujo enunciado afirma que algo só pode ser conhecido e cogitado caso seja apreendida e conservada sua identidade; o "princípio do terceiro excluído", também elaborado por Aristóteles, que adverte para a necessidade do fenômeno ser considerado "A" ou "B" e não uma terceira possibilidade; o "princípio da não contradição", estabelecido por Leibniz em sua "Teodicéia", o qual declara que toda proposição deve ser, necessariamente, verdadeira ou falsa, e rejeitada do pensamento lógico se não puder ser submetida a este princípio; e, o "princípio da razão suficiente", também denominado de "princípio da causalidade", instituído por Leibinz e tratado, nem sempre do mesmo modo, por vários outros pensadores, entre eles Kant, Lamarck e Laplace; são os princípios fundamentais do pensamento dito racional e científico, e que ainda hoje são por demais empregados. Pode-se, mesmo, afirmar que permanecem hegemônicos.

Depois de Kant, uma grandeza se impôs na filosofia: Georg Wilhelm Friedrich Hegel (1770-1831). Considerado como o último dos grandes filósofos clássicos, Hegel busca legitimar que a razão é histórica. Se a filosofia, por muito tempo, considerou que as idéias racionais e verdadeiras só ocorreriam se fossem intemporais, eternas, isto é, que se mantivessem válidas em qualquer tempo e lugar; Hegel afirma, ao contrário, que a transformação da razão faz parte da própria razão. Contudo, a razão não seria, de modo algum, escrava do tempo, de tal forma que esta última lhe roubaria a verdade ou a universalidade, ou seja, o que vale atualmente, não valeria amanhã. A razão, então, "não está na história; ela é a história" (Chauí, 2001; p.80).

A reflexão hegeliana impõe, necessariamente, a história como algo irrecusável. Mas, além disso, adota uma posição que não considerava a razão exclusivamente como objetiva, nem tampouco como subjetiva. A razão seria "a unidade necessária do objetivo e do subjetivo" (Chauí, 2001; p.81). Assim, Hegel criticou a concepção kantiana, por jamais ter se questionado a respeito da origem do conhecimento, bem com, do processo de formação da subjetividade (Marcondes, 2000).

Deste modo, em Hegel, o pensamento não deveria tratar da refutação de outra filosofia. Antes, deveria limitar-se a situá-la dentro de seu contexto. Seria ilegítimo condenar a filosofia de Platão e suas verdades, considerando os dias atuais; critério semelhante deveria ser adotado quando se questionasse a física newtoniana (Châtelet, 1994).

A originalidade da filosofia hegeliana, segundo Châtelet (1994), está presente na possibilidade de conceber a totalidade do real como algo em transformação. O projeto cartesiano, por exemplo, esforça-se em transformar o tempo real, vivido, em algum parâmetro matematizável. De outro modo, o pensamento hegeliano entende que o contexto histórico deve ser colocado em primeiro plano; deve-se apreender quais acontecimentos ocorreram no determinado momento dos acontecimentos que se vislumbra analisar, para poder compreendê-lo melhor.

É desta forma que Hegel adota uma posição, a qual pretendia substituir a identificação kantiana do "conhecimento" como "ciência", a partir do paradigma das ciências naturais, pela auto-reflexão fenomenológica da mente, atribuindo ao sujeito e à história vital importância na construção do conhecimento (Marcondes, 2000).

Na biologia, Charles Darwin (1809-1882) estabeleceu o conceito de seleção natural, onde os mais aptos sobreviviam porque mantinham o maior número de nascimentos e, assim, aumentavam de número na população. Esta concepção, por outro lado, foi vinculada a um forte conteúdo ideológico. A ideologia burguesa teve nas ciências biológicas e, sobretudo, no darwinismo um grande aliado para explicar as desigualdades humanas e sociais, deslocando-as para a "natureza". Deste modo, era possível à posição liberal, teoricamente igualitária, ressaltar que "os pobres eram pobres por terem nascido inferiores" (Hobsbawm, 1998; p.351). Além disto, Darwin estabeleceu a concepção de que todas as espécies, inclusive a humana, tinham um ancestral comum. Gregor Johann Mendel (1822-1884) formulou experiências sobre hibridismo e hereditariedade. Apesar do desconhecimento sobre o gene ou cromossomo realizou experiências, muito bem sucedidas, cujas interpretações foram baseadas numa lógica científica bastante apurada e numa base matemática exemplar.

No campo da saúde pública, no final do século XIX e início do XX, vários personagens se destacaram. Hobsbawn (1998) realça que neste período os principais triunfos na medicina localizavam-se nos estudos sobre a influência das condições ambientais sobre a saúde das populações. Os trabalhos de John Snow (1813-1858), William Budd (1811-1880), Rudolf Virchow (1821-1885), Louis Pasteur (1822-1895) e Robert Koch (1843-1910), entre outros, enfatizaram as relações dos problemas de saúde e higiene e as condições de vida da população, suas condições sanitárias básicas, modos de alimentação e situação ocupacional.

Snow e Budd, em 1849, realizaram, simultânea e independentemente, importantes estudos sobre o modo de transmissão do cólera. Estes estudiosos demonstraram a correspondência entre o número de mortes de uma região e o estado de contaminação na água ou alimentos ingeridos. Deste modo, foi possível abrir caminho para o desenvolvimento da teoria do contágio, a partir da constatação da existência de um agente causal de infecção(45) (Rosen, 1994).

Pasteur e Koch, entre outros feitos, demonstraram a relação causal entre micróbios e doenças. Através de um longo e árduo trabalho, estes e outros microbiologistas conseguiram detectar vários agentes infecciosos que causavam determinadas doenças. A década de 1880 foi, sem dúvida, a idade de ouro da descoberta bacteriológica e ofereceu um terreno propício ao desenvolvimento da Imunologia, a qual teve um profundo impacto sobre a saúde pública (Rosen, 1994).

Por outro lado, parecia evidente, ao menos aos olhos contemporâneos, que a pobreza e doença estavam intimamente ligadas. O panorama sócio-econômico(46) do século XIX revelava o crescimento urbano desordenado e suas conseqüências, bem como, um aumento das desigualdades sociais e das condições de vida insalubres. Os baixos salários, a falta de educação, os padrões inadequados de moradia, os problemas relacionados à alimentação, o vestuário impróprio caracterizavam uma determinada classe social e correlacionavam-se, fortemente, ao florescimento e difusão de diversas doenças (Rosen, 1994 e Hobsbawn, 1998).

Não se pode, assim, esquecer da primorosa reflexão de Friedrich Engels, em "A situação da classe trabalhadora na Inglaterra", nesta época, a respeito das condições de vida impostas aos trabalhadores, a partir da Revolução Industrial. A pertinência de suas análises, e obviamente não foi a única dentro deste viés, permite estudar com outros olhos a questão da saúde. Desta perspectiva, é possível empreender uma apreciação crítica, cujo foco não se concentra no sujeito, no biológico, ou nas causas e efeitos, mas, antes, na vulnerabilidade do coletivo e do indivíduo, nas contradições da sociedade, nas múltiplas relações que interagem com a saúde.

Na literatura estas questões foram muito bem retratadas por dois escritores fenomenais. Victor Hugo (1802-1885), considerado entre os literatos franceses aquele de maior riqueza verbal, escreveu em 1862 "Os Miseráveis", um drama emocionante sobre a vida de um homem que passa por todo tipo de adversidade, e pelo qual compõe uma verdadeira denúncia contra a degradação e miséria humana. Émile Zola (1840-1902), outro grande romancista francês, tem em "Germinal", de 1885, um verdadeiro estudo sobre a miséria, as condições de vida insalubres e a marginalização dos operários mineiros franceses e que soou como uma vigorosa denúncia social.

Os economistas, considerados por Marx(47) como os representantes científicos da classe burguesa (Löwy, 1985), buscaram, ao menos em seu início, desenvolver a ciência econômica de modo científico, objetivo, acreditando inclusive em sua neutralidade. Adam Smith (1723-1790) um dos fundadores desta tradição científica, cujo trabalho consistia em observar para, posteriormente, construir o modelo teórico, inscreve-se no grupo considerado por Marx como "economistas clássicos" e foi o primeiro a reconhecer o trabalho como fonte de riqueza. Em David Ricardo (1772-1823), a "economia clássica" encontra seu apogeu e uma teoria que buscou privilegiar o produto em detrimento ao produtor.

Contudo, notadamente, a partir do momento em que houve uma reação do movimento operário, a ciência econômica tratou de legitimar os interesses da classe dominante, desprovendo-se da objetividade científica e da suposta neutralidade. Inscrevem-se nesta "economia vulgar" McCulloch, Malthus, J. B. Say, entre outros (Löwy, 1985).

As últimas décadas do século XIX e as primeiras do XX revelaram, na economia e administração, Henri Fayol (1841-1925), que concebeu uma doutrina de administração de empresas; Frederick Winslow Taylor (1856-1915), criador dos "Princípios da Administração Científica", e que promoveu uma organização científica do trabalho, onde buscava o aumento radical da produtividade do trabalho; Henry Ford (1863-1947), cujo sistema por ele elaborado aperfeiçoava o "taylorismo" e caracterizava-se pela produção e consumo em massa; e, John Maynard Keynes (1883-1946), considerado um dos mais importantes economistas políticos clássicos, acreditava que a economia de mercado poderia, a partir do crescimento econômico, tornar-se uma força gigantesca e permanente. Uma de suas lutas, por outro lado, foi tentar compreender e solucionar o problema do desemprego, para tentar salvar a economia liberal (Harvey, 1996 e Ormerod, 1996).

Na física, os trabalhos de James Clerk Maxwell (1831-1879), Henri Poincaré (1854-1912), Albert Einstein (1879-1955) e muitos outros, foram de extrema importância para ciência. Einstein, por exemplo, revolucionou a física de seu tempo com a "teoria da relatividade". Esta teoria alcançou o mérito de realizar a síntese da dinâmica e do campo eletromagnético responsável pela propagação das ondas luminosas e, assim, estabelecer uma distinção entre as diferentes velocidades: as fracas e as comparáveis à velocidade da luz. Deste modo, o comportamento dos objetos físicos é diferenciado, conforme suas velocidades. Além disso, a formulação de Max Planck, em 1900, de uma "constante universal" "h " determinou uma escala natural de acordo com a massa dos objetos. Assim, não era mais possível comparar os átomos com os sistemas planetários, os elétrons com os planetas. Daí resultou, não se poder mais tratar da simultaneidade absoluta entre dois fenômenos distantes, mas de simultaneidade relativas a um referencial próprio (Prigogine & Stengers, 1997). As noções de espaço e tempo perderam o caráter absoluto da física newtoniana, passaram a se conjugar intimamente sob o efeito do movimento e formaram uma nova entidade, denominada "espaço-tempo", inacessível à intuição (Omnès, 1996).

A marcha da ciência evolui "triunfante" e penetra o século XX ainda mais fortalecida. Sua derradeira conseqüência é a certeza nas ciências e tecnologia, embora não sem ambigüidades(48) (Costa & Schwarcz, 2000). As vantagens da eletricidade; a melhoria do transportes, com o desenvolvimento dos automóveis e o advento dos aviões; o aperfeiçoamento nos sistemas de comunicação, com o telégrafo comercial sem fio, o "tempo do rádio" e, posteriormente, a televisão; o surgimento do cinema; a descoberta da penicilina; enfim, todo o progresso da humanidade está vinculado, de um modo ou de outro, à história da ciência.

 

B) Rupturas

O percurso da racionalidade, anteriormente apresentado, não foi sem movimentos discordantes. Obviamente, que no próprio percurso os pensamentos são conflitantes ou estão em desacordo. Contudo, ao que parece, eles seguem uma mesma linha de raciocínio. Caso se tome como exemplo a história do pensamento filosófico, verificar-se-á que este sempre se pretendeu, ao menos até Hegel, sob a forma de sistemas. No caso do pensamento científico é perceptível a herança que foi legada ao século XX.

É evidente que as, aqui denominadas, rupturas não estão necessariamente em conformidade. São pensamentos, por vezes, tão distantes, mas que, neste momento, encontram alguma aproximação para enfrentar as formas de racionalidade hegemônicas.

Marx, Nietzsche e Freud são representantes desta ruptura. Leitores admiráveis de seu tempo, suas obras impõem novas formas de olhar o mundo. Para Michel Foucault (1997), estes três pensadores não multiplicaram os símbolos do mundo ocidental, ou, mesmo, deram-lhes novos sentidos. Antes, modificaram a natureza do símbolo e alteraram as formas normalmente utilizadas para interpretá-lo.

É neste sentido que Marx faz suas análises a partir da sociedade, do desenvolvimento das forças de produção e dos processos de concentração de riqueza e mostra o descontentamento da classe operária com o sistema econômico; Nietzsche parte da constituição da humanidade e de seus valores inventados, para afirmar que a mediocridade impera; e, Freud, que analisa as interpretações, a partir do indivíduo, constata o tratamento dos indivíduos como loucos, quando estes têm somente uma outra forma de pensar. Tudo isto parece ter significado que a razão clássica, a razão filosófica foi, na verdade, uma razão elitista, uma razão de "poder", como ensina Châtelet (1994).

As idéias de Karl Marx (1818-1883), inscrevem-se dentro da "filosofia crítica", como uma radicalização da crítica. Se Kant foi criticado por Hegel por não ser bastante crítico, este último será, igualmente, criticado por Marx por, tampouco, ser suficientemente crítico. Radicalizando o projeto de crítica da modernidade.

Sua defesa de tese de doutorado, em 1841, consistiu da confrontação entre dois filósofos materialistas da Antigüidade grega clássica. Demócrito, um deles, afirmava a possibilidade de conhecer todas as coisas em geral, seja no passado, presente ou futuro, através da descoberta da natureza, peso e forma de todos os átomos. Isto é, Demócrito situa-se sob o viés determinista. O outro filósofo, Epicuro, concebia importância ao papel do acaso e rejeitava a rigidez determinista por acreditar ser impossível prever os movimentos de todos as coisas. Embora, não seja exatamente um epicurista, Marx recusa o determinismo e reserva um espaço ao acaso que poderia irromper na realidade. Assim, ele se detém em duas questões. Primeiro, reconhece a infinitude do real, por não permitir a manifestação do determinismo e, principalmente, conservar a possibilidade do acaso. Segundo, preocupa-se com a relação entre o todo e a parte, entre o indivíduo e o coletivo (Konder, 1995).

Contudo, sua obra, algumas vezes escrita em conjunto com seu grande companheiro Friedrich Engels (1820-1895), ficará definitivamente marcada por designar um movimento de ruptura ao pensamento liberal ou burguês.

Este trajeto inicia-se por ocasião de sua crítica ao pensamento hegeliano, através da "Introdução a uma crítica da Filosofia do Direito de Hegel". Para Marx, a formação do Estado moderno, fez emergir uma classe desprovida de bens e direitos. Por essa razão, ele considerava que a liberação dessa classe só se consumaria a partir da supressão dos laços opressores da sociedade. As palavras de Marx (1993a; p.90) melhor explicitam esta questão:

"Só em nome dos interesses gerais da sociedade é que uma classe particular pode reivindicar a supremacia geral. Para alcançar esta posição libertadora e a direção política de todas as esferas da sociedade, não bastam a energia e a consciência revolucionárias. Para que a revolução de um povo e a emancipação de uma classe particular da sociedade civil coincidam, para que uma classe represente o todo da sociedade, outra classe tem de concentrar em si todos os males da sociedade, uma classe particular deve encarnar e representar um obstáculo e uma limitação geral. Uma esfera social particular terá de olhar-se como crime notório de toda a sociedade, a fim de que a emancipação de semelhante esfera surja como uma emancipação geral. Para que uma classe seja classe libertadora par excellence, é necessário que outra classe se revele abertamente como a classe opressora. O significado negativo e universal da nobreza e do clero francês produziu o significado positivo e geral da burguesia, a classe que junto deles se encontrava e que a eles se opôs."

Iniciava aí sua crítica radical ao Estado burguês. Eram as primeiras palavras que Marx proclamava indicando a luta de classes como motor da história, e a classe operária como aquela que deveria subverter-se a estrutura desigual da sociedade.

Marx, em contato com o texto "Esboço de uma Crítica da Economia Política", de Engels, aprofunda seu pensamento. Para o filósofo a sociedade civil é o lugar da alienação do trabalhador, uma vez que esta alienação nasce do sistema de produção, voltado para a posse e para o mercado, que imputa ao trabalhador uma forma de trabalho.

"O trabalhador torna-se tanto mais pobre quanto mais riqueza produz, quanto mais a sua produção aumenta em poder e extensão. O trabalhador torna-se uma mercadoria tanto mais barata, quanto maior número de bens produz. Com a valorização do mundo das coisas aumenta em proporção direta a desvalorização do mundo dos homens. O trabalho não produz apenas mercadorias; produz-se também a si mesmo e ao trabalhador como uma mercadoria, e justamente na mesma proporção com que produz bens.

(...) Todas estas conseqüências derivam do fato de que o trabalhador se relaciona ao produto do seu trabalho como a um objeto estranho. Com base neste pressuposto, é claro que quanto mais o trabalhador se esgota a si mesmo, tanto mais poderoso se torna o mundo dos objetos, que ele cria perante si, tanto mais pobre ele fica na sua vida interior, tanto menos pertence a si próprio; o mesmo se passa na religião. Quanto mais o homem atribui a Deus, tanto menos guarda para si mesmo. O trabalhador põe a sua vida no objeto; porém, agora ela já não lhe pertence a ele, mas ao objeto. Quanto maior a sua atividade, tanto mais o trabalhador se encontra sem objeto. O que se incorporou no objeto do seu trabalho já não é seu. Assim, quanto maior é o produto, tanto mais ele fica diminuído. A alienação do trabalhador no seu produto significa não só que o trabalho se transforma em objeto, assume uma existência externa, mas que existe independentemente, fora dele e a ele estranho, e se torna um poder autônomo em oposição com ele; que a vida que deu ao objeto se torna uma força hostil e antagônica." (1993b; p.159)

Assim, Marx deixava claro que a Economia Política, de Adam Smith, David Ricardo e outros, ao deixar de examinar as relações mais imediatas entre a produção e o trabalhador, escondia a alienação na natureza do trabalho. O autor acrescenta, ainda, a idéia de que esta alienação se estende para o interior da própria atividade produtiva, quando explica que o trabalho capitalista nega a natureza humana.

É dentro de um contexto, onde crescia a pobreza em paralelo ao crescimento da riqueza, que os operários passaram a sonhar com uma sociedade sem classes, de tal modo que a supressão da propriedade privada tornaria possível a satisfação das necessidades de todos. E, deste modo, Marx e Engels (1998) insistiram, no "Manifesto Comunista", na necessidade dos proletários se apoderarem das forças produtivas sociais, a partir da abolição do modo de apropriação típico das classes dominantes e, portanto, do modo de apropriação que vigorou por todo tempo. Era imperioso, então, destruir toda e qualquer garantia e segurança da propriedade privada. Para os pensadores, o que caracterizaria o comunismo não seria a supressão da propriedade em si, mas a supressão da propriedade burguesa.

Em "O dezoito brumário de Luís Bonaparte", Marx analisou o golpe de Estado de Napoleão III e a forma de governo bonapartista. Ao escrever sobre a Constituição e a liberdade, trouxe à tona as contradições do governo liberal da burguesia.

"Com efeito, cada uma dessas liberdades é proclamada como um direito absoluto do cidadão francês, mas sempre acompanhada da restrição à margem, no sentido de que é ilimitada desde que não esteja limitada pelos ‘direitos iguais dos outros e pela segurança pública’ ou por ‘leis’ destinadas a restabelecer precisamente essa harmonia das liberdades individuais entre si e com a segurança pública." (s/d; p.213)

De fato, Marx ensaiou uma crítica contra a vulnerabilidade dos grupos menos favorecidos, já que a Constituição, parecia claro, garantia a posição dos republicanos burgueses.

Segundo Coutinho (1998), em escritos anteriores à época citada acima, Marx assumiu uma concepção de democracia que se revelava sob a influência do "Contrato Social", de Rousseau. Para o autor de "O Capital", tanto quanto para Rousseau, as formas políticas encontrariam a verdade na democracia, portanto, caso não sejam democráticas, não serão verdadeiras.

Porém, a convergência entre os dois pensamentos não vai muito além. Imediatamente Marx tem como alvo as idéias rousseauniana e seus discípulos jacobinos. A exigência da vontade geral não poderia centrar-se num postulado moral, como Rousseau concebera. Para tanto, seria preciso suprimir os pressupostos que tratam a sociedade civil como algo "natural", a partir de uma transformação radical nesta sociedade.

Coutinho (1998) explica, por fim, que Marx não critica o modelo democrático de Rosseau por este ser democrático, mas sim por ser utópico, ou seja, por não contemplar as condições materiais que tornam possível a efetiva realização de uma ordem democrática.

A questão do conhecimento científico em Marx passa, então, por estas reflexões. Primeiro, porque parece que buscou transformar seu pensamento numa ciência materialista. Decerto, seu "materialismo histórico" pretendeu ser uma teoria científica da história (Marcondes, 2000 e Châtelet, 1994). Segundo, porque a ciência e a ideologia estão intimamente relacionadas.

Esta última posição, contudo, deve ser melhor explicitada. A relação entre ciência e ideologia deve ser analisada, segundo Löwy (1985), dialeticamente. Se em "A miséria da filosofia", Marx escreve que "os economistas são os representantes científicos da classe burguesa" é porque acredita, não sem razão, que a ciência e/ou outras formas de produção de saber assumem uma posição de interesse de grupos privilegiados. Contudo, isto não quer dizer que a ciência não tenha valor para Marx. Quando se refere aos "economistas clássicos", Marx ressalta seu valor científico verdadeiro, enquanto os "economistas vulgares" não teriam cientificidade, seriam tão somente publicidade, propaganda.

Löwy (1985) explica que a posição burguesa da economia de Ricardo, como de outros pensadores, não seria necessariamente resultado de uma apologia direta e servil aos interesses capitalistas, mas, sim, do fato de que a visão de mundo que orienta seu pensamento ser a visão social da burguesia, e que ele não consegue se desvencilhar(49).

Deste modo, é possível detectar dois erros típicos em análises marxistas sobre ciência. O primeiro refere-se a um "reducionismo sociológico", que reduz todo pensamento científico a uma classe social, com discursos do tipo "este autor é burguês", "esta ciência representa a burguesia", etc. Entretanto, para Marx não era a definição da classe a que pertencia que sustentava a cientificidade da obra. A particularidade do conhecimento científico, assim, não pode estar reduzida às questões relativas a posição de classe. O segundo erro consiste da presença do positivismo em certas reflexões marxistas, ao considerar que a ciência não tem ligação alguma com a ideologia ou luta de classes, que ela deve ser neutra.

Friedrich Wilhelm Nietzsche viveu entre 1844 e 1900. Sua obra é marcada pela potente crítica à tradição filosófica, seja clássica ou moderna, e em defesa, daquilo que denominara, "filosofia afirmativa da vida". Muitas vezes sob a forma de aforismos e fragmentos, seu pensamento é polêmico e irreverente.

Seus escritos principais são: "A origem da tragédia" (1872), "O nascimento da filosofia na época trágica dos gregos" (1874), "Humano, demasiado humano" (1878-1880), "Aurora" (1881), "A gaia ciência" (1882), "Assim falou Zaratustra" (1883-1885), "Além do bem e do mal" (1886), "A genealogia da moral" (1887), "Ecce-Homo" (1888), "O crepúsculo dos ídolos" (1889), "Vontade de poder" (1901).

Para Nietzsche, a partir de Sócrates, a filosofia instaurou a hegemonia da razão, da racionalidade argumentativa, da lógica, do conhecimento científico, do "espírito apolíneo"(50). O filósofo considerava que a história da filosofia viu triunfar o "espírito apolíneo", em detrimento ao "espírito dionisíaco". Deste modo, a humanidade deixou escapar a proximidade com a natureza, suas forças vitais, seus instintos (Marcondes, 2000).

Os ideais do homem moderno, a princípio, poderiam ser compreendidos como uma ruptura dos valores divinos. Contudo, embora o homem moderno negue Deus, ele ainda continua a reverenciá-lo, de forma inconsciente, ao substituí-lo por valores humanos, tais como, ciência, tecnologia, saúde, qualidade de vida, progresso, igualdade, liberdade, entre outros(51).

Ao realizar esta mudança, não se alterou, porém, a sua essência. Os valores morais e seus jogos de oposição entre bem e mal, verdade e mentira, certo e errado, perpetuaram-se mesmo após a "morte de Deus". Tal disposição foi, tão somente, uma nova forma de venerar estes valores morais. Em "A Gaia Ciência", no aforismo 357, deixa isto muito claro ao proclamar:

"Vê-se o que triunfou do Deus cristão: a própria moral cristã, a noção de sinceridade aplicada com um rigor sempre crescente; é a consciência cristã aguçada nos confessionários e que se transformou até tornar-se consciência científica, a pureza intelectual a todo preço".

O que, então, se encontra por trás da "morte de Deus" é o aperfeiçoamento da vontade de verdade, que anteriormente fora criada pelo platonismo e pelo cristianismo. E o que forçou esta vontade foi a fé no ideal ascético. O ideal ascético expressa uma vontade e tem uma finalidade, uma meta. A partir da confrontação com esta meta universal, os demais interesses dos homens passam a ser pequenos e mesquinhos. Tudo e todos são demasiadamente postos à avaliação e rejeitadas quaisquer outras interpretações. Qualquer outra meta é renegada e dissuadida da busca de razões e discussões. A verdade está posta e pronto!

O cristianismo, o Estado, o pai ao educar o filho, e, também, a ciência parecem dizer: "apenas tome isso por verdade e sentirá o bem que faz" (Nietzsche, 2000a). Aliás, o filósofo declara muito abertamente que a relação entre a ciência e o ideal ascético não é de oposição, mas, do contrário, revela-se dentro de uma mesma configuração, como aliados na superestimação da verdade, na crença do caráter inestimável e incriticável da verdade. O filósofo, ainda, aponta no aforismo 25 da terceira dissertação, em "Genealogia da moral" (1988; p.173):

"Não! Não me venham com a ciência, quando busco o antagonista do ideal ascético, quando pergunto: ‘onde está a vontade oposta, na qual se expressa o seu ideal oposto?’. Para isso a ciência está longe de assentar firmemente sobre si mesma, ela antes requer, em todo sentido, um ideal de valor, um poder criador de valores, a cujo serviço ela possa acreditar em si mesma".

Roberto Machado (1999) comenta que todo este percurso tem por objetivo colocar sob suspeita a crença de que a verdade tem mais valor do que a aparência(52), além de apontar a "moral" como o perigo que se esconde por trás de toda esta relação. No vigoroso ensaio "Sobre verdade e mentira no sentido extra-moral" (2000b) apresenta muito bem esta idéia. Logo em seu início, o filósofo diz:

"Em algum remoto rincão do universo cintilante que se derrama em um sem-número de sistemas solares, havia uma vez um astro, em que animais inteligentes inventaram o conhecimento. Foi o minuto mais soberbo e mais mentiroso da ‘história universal’: mas também foi somente um minuto(...) Aquela altivez associada ao conhecer e sentir, nuvem de cegueira pousada sobre os olhos e sentidos dos homens, engana-os pois sobre o valor da existência, ao trazer em si a mais lisonjeira das estimativas de valor sobre o próprio conhecer" (p.53).

A posição de Nietzsche neste texto é, justamente, desmascarar aquilo que se chama de "verdade", a formação dos conceitos, bem como, toda direção do homem para alcançar esta verdade. O filósofo mostra, então, que a verdade é uma noção frágil, pobre.

De fato, Nietzsche afasta-se tanto do racionalismo, quanto do empirismo. Segundo Pimenta-Neto (2000), o filósofo não acreditava numa percepção livre da realidade, isenta da interferência dos pressuposições e interesses diversos ou num mundo modelar, constituído de entidades perfeitas. A crença na idéia determinista e seu princípio de causalidade significam, simplesmente, uma manifestação de uma vontade de potência.

Por outro lado, Vieira (2000) explica que, segundo Nietzsche, o significado do ideal ascético é expresso por um dado fundamental da vida humana, a necessidade de um objetivo. Assim, o sofrimento poderia encontrar um sentido, a vida ser corrigida e o ideal ascético funcionar como um meio para conservação da espécie.

"(...) o ideal ascético nasce do instinto de cura e proteção de uma vida que degenera, a qual busca manter-se por todos os meios, e luta por sua existência; indica uma parcial inibição e exaustão fisiológica, que os instintos de vida mais profundos, permanecidos intactos, incessantemente combatem com novos meios e invenções. O ideal ascético é um tal meio: ocorre, portanto, exatamente o contrário do que acreditam os adoradores desse ideal - a vida nele e através dele com a morte, contra a morte, o ideal ascético é um artifício para a preservação da vida" (Nietzsche, 1988; p.134).

Porém, o filósofo repudia esta idéia de conservação e coloca-se contrário ao darwinismo(53) (Vieira, 2000 e Call, 1998). Nietzsche parece sugerir que a vida tende à expansão, como vontade de poder, e não à conservação, a qual teria uma qualidade menor e oferece o modelo alternativo para desenvolvimento da sociedade e cultura humana (Call, 1998). Ainda segundo Vieira (2000), deste "ideal ascético" o que parece poderoso e transformador em meio de conservação é a afirmação da vida como exclusão da morte, como ausência de sofrimento, como melhoramento. A questão da saúde, ou da "grande saúde", em Nietzsche, tal qual a "vida", diz respeito tanto a vontade de poder, quanto ao eterno retorno.

Mas, o que significa a "grande saúde" em Nietzsche? O filósofo apresenta a idéia de saúde, não exatamente como uma disposição orgânica, biológica, mas, de modo diferente, como um "estado de espírito", como um "excesso que dá ao espírito livre o perigoso privilégio de poder viver por experiência e oferecer-se à aventura: o privilégio de mestre do espírito livre!" (2000a; p.11). Pode-se, mesmo, perceber que Nietzsche fala de uma "saúde" permissiva, que não se vive mais "nos grilhões de amor e ódio, sem Sim, sem Não" (2000a; p.11); diz respeito às coisas que não mais preocupam o "espírito livre"; e, torna-se a cura radical contra todo pessimismo.

A "grande saúde" aparece, então, como algo dinâmico, em constante mudança, como experiência de vida. Nietzsche expõe o tema em "A Gaia Ciência", aforismo 382:

"(...) aquela que não apenas se possui mas é preciso conquistar momento a momento, posto que se deve sacrificá-la incessantemente! E, agora, após termos permanecido longo tempo a caminho, nós, nós Argonautas do Ideal, mais corajosos do que talvez exigisse a prudência, naufragamos e estamos contundidos, mas com melhor saúde que se desejaria nos permitir, perigosamente saudáveis (...)".

A doença, pode-se afirmar, é para os homens um valor moral(54), uma norma construída a partir do ideal de verdade final e definitiva, deduzida das causas e efeitos. De fato, o artifício que a religião utilizou para tomar a alma humana foi o sentimento de culpa. O pecado é a má consciência. Em "Genealogia da moral", Nietzsche comenta:

"a primeira indicação sobre a ‘causa’ do seu sofrer: ele deve buscá-la em si mesmo, em uma culpa, um pedaço de passado, ele deve entender seu sofrimento mesmo como uma punição (...) o doente foi transformado em ‘pecador’..." (1988; p.160).

Ora, Nietzsche está abordando, naturalmente, as questões morais. Há de se lembrar, porém, que para o homem moderno Deus morreu e que, embora, o homem agora negue Deus, ele o faz ainda prisioneiro do cristianismo e de seus valores morais (verdade, bem, certo, etc). Não é de se espantar, então, que o doente seja culpado por sua doença, que "só é gordo quem quer", ou doente cardíaco, diabético, etc. A invenção do ideal ascético, deste modo, dá sentido ao sofrer, já que para o filósofo, não era o sofrer propriamente dito, mas a falta de sentido desse sofrer que era a maldição a qual se estendia sobre a humanidade.

No aforismo 347, "Os crentes e sua necessidade de crer", em "A Gaia Ciência", Nietzsche traz à tona a incapacidade do homem se liberar de todo "desejo de certeza", da "necessidade de um ‘tu deves’", da "necessidade da fé, do apoio, de sustentáculo, da ajuda...". O que o filósofo parece, então, querer, é reduzir esta tensão do sentir, esse fardo opressor da cultura, é tornar-se "aquilo que se é".

A doença do niilismo passivo, que julga a vida sem sentido, torna tudo horrível e pressupõe um aperfeiçoamento do homem, pode ser curada, segundo Nietzsche, através do eterno retorno. A vontade de tornar-se "aquilo que se é", de desejar para trás transformando o "assim foi" em "assim eu quis" significa querer a vida a cada instante, em toda sua plenitude. Significa, ainda, afirmar que não há penalização ou culpa, nem tampouco, oposição entre saúde e doença ou bem e mal. A tarefa que o filósofo alemão se propõe é desarmar esta história política do "mundo dos homens", que engendra uma concepção de vida submissa.

Decorre daí um problema. Pode-se, erroneamente, interpretar a perspectiva de Nietzsche como outra forma de idealização, como outra lei universal. O filósofo, porém, rechaça tal possibilidade afirmando:

"Com a liberdade de opiniões sucede o mesmo que a saúde: ambas são individuais, não se pode criar um conceito de validade geral para nenhuma delas. O que um indivíduo necessita para a sua saúde é, para um outro, motivo de doença, e vários caminhos e meios para a liberdade do espírito seriam, para naturezas superiormente desenvolvidas, caminhos e meios de servidão" (2000a; p.193)(55).

Pensamento semelhante pode ser encontrado em Canguilhem (1995). Para o autor a maior imprecisão da fronteira entre o normal e patológico ocorre quando considera-se simultaneamente um grupo de indivíduos. Contudo, para um único indivíduo esta fronteira é mais precisa. Além disto, é o próprio indivíduo que avalia essa transformação, pois é ele quem sofre as conseqüências sobre seu corpo(56).

Por outro lado, parece existir uma espécie de "medicação sacerdotal", dos sacerdotes ascéticos, nos "homens do conhecimento", que crêem ainda na verdade, a qual deve ser "pregada" para despertar e melhorar a comunidade. Estes idealizadores pregam a dor, o sofrimento, a doença como um valor (mal, erro, irresponsabilidade, etc) e tornam a vida abrandada, enfraquecida, tentando, inclusive, excluir a morte da vida. Significa, pois, uma vida domesticada, controlada, de paixões abrandadas (Vieira, 2000).

Na verdade, ressalta Vieira (2000), o sacerdote aparece como intermediário do desejo de uma outra vida, a partir da sedução dos infelizes. Como mentor deste ideal, ele promete uma "vida melhor". Nietzsche afirma, no aforismo 326, denominado "Os médicos da alma e o sofrimento", em "A Gaia Ciência", que "todos os pregadores da moral, bem como os teólogos, têm um traço comum: todos tentam persuadir o homem de que ele se sente muito mal, que necessita de cura energética, radical e última". Ora, este cenário não parece diferir muito da atualidade, em tudo que lança tal promessa, seja o estado, a economia, a ciência ou a religião(57).

A crítica de Nietzsche, deste modo, tem um alvo bastante claro: a moral e toda serventia humana, que diminui sua potência, sua afirmação da vida. Tal como no cristianismo, o homem "científico" também está prisioneiro da moral. Embora, na modernidade, o conhecimento científico mantém oculto o ideal moral do cristianismo. O cerne da questão, em Nietzsche, está em toda moralidade e dogmatismo presente nestas doutrinas e na necessidade de uma "auto-superação do homem".

As idéias de Freud(58) são, também, um rompimento com a racionalidade hegemônica. A teoria psicanalítica, principalmente na questão do inconsciente, assinalou que o pensamento não se define pela consciência e racionalidade. Freud revelou que os indivíduos são fortemente marcados por desejos e impulsos que não têm consciência, os quais quando reprimidos permanecem no "inconsciente" (Marcondes, 2000).

Basicamente, o aparelho psíquico é formado por três entidades, sendo duas não conscientes (id e superego) e a outra consciente (ego). O id é a camada fundamental, mais antiga e maior. Ela representa o domínio do inconsciente, dos instintos primários e isenta-se dos modos e princípios firmados pelo indivíduo consciente e social, isto é, o id é formado pelas "pulsões", instintos, impulsos, desejos inconscientes e, assim, não visa a autopreservação do indivíduo, mas, antes, a satisfação de suas necessidades instintivas, em acordo com o "princípio do prazer".

O ego seria desenvolvido a partir do id, sob influência do meio externo. Ele representa a consciência e a percepção da realidade, contudo, seu papel é, ainda, realizar a mediação entre o id e o mundo, de tal modo que o proteja. Tendo o id lutando fortemente para realização dos desejos, o ego objetiva controlar, alterar e organizar estes impulsos, a fim de reduzir seus conflitos com a realidade. Deste modo, o ego substitui o "princípio do prazer" pelo "princípio da realidade"

Outra instância é o superego. Seu desenvolvimento origina-se na relação de dependência com os pais, na mais jovem infância, e converte-se num núcleo permanente. Continua, porém, solidificando-se a partir das influências sociais e culturais até apresentar-se como o poderoso representante da moralidade estabelecida (Marcuse, 1999).

Deste modo, a teoria psicanalítica limita o papel da consciência no conhecimento e controle da realidade. Ademais, revela a capacidade do pensamento em buscar outras verdades a partir do sujeito falante, desmascarando a razão das cadeias causais externas (Castoriadis, 1987).

Contudo, o homem, na sociedade contemporâneo, ao que parece, está condenado a renunciar ao "princípio do prazer", em favor do "princípio da realidade", ao substituir o prazer momentâneo, incerto e destrutivo por um prazer adiado, restringido, porém, seguro, garantido. É, dessa maneira, que Freud, ao comentar sobre a civilização, explica como a ordem ocupa lugar privilegiado e poupa os indivíduos da hesitação e indecisão (Freud, 1997 e Marcuse, 1999).

Outra ruptura veio das ciências naturais, mais precisamente, da física. A história desta ruptura, entretanto, não se dá mediante uma única descoberta ou um único nome. É, antes, uma história complexa, de vários imprevistos, que resultou na "mecânica quântica". Prigogine & Stengers (1997) consideram esta teoria física como aquela que realmente rompeu as amarras e renunciou toda referência de descrição completa da natureza.

O plano da presente revisão não é expor integralmente a teoria quântica. Antes, contenta-se em apontar sua importância à filosofia da ciência, observando questões fundamentais. Werner Heisenberg (1901-1976), em seu livro "Física e filosofia" (1999), descreve que a teoria quântica teve sua origem ligada à termodinâmica. Esta, por sua vez, estava diretamente ligada a um problema prático da sociedade industrial do século XIX: as máquinas a vapor.

Em 1811, Jean-Joseph Fourier (1768-1830) conclui um estudo sobre a propagação de calor nos sólidos e, contra toda corrente determinista de Laplace, proclama que o "fluxo de calor entre dois corpos é proporcional ao gradiente de temperatura entre esses dois corpos". Ao mesmo tempo, declara ser ilusório querer reduzir esta propagação às interações dinâmicas entre as massas dos dois corpos. Era a distinção de outra teoria física, também de elevado rigor matemático, e a ciência newtoniana. Contudo, a concepção positivista da ciência não admitia que o calor e a gravitação, considerados "universais", coexistissem e fossem antagônicos. Por esta razão, ao menos na França, esta questão não se tornou hegemônica, de imediato. A ciência positivista encontrou, no equilíbrio térmico, razões para "explicar" a propagação do calor (Prigogine & Stengers, 1997).

O princípio de conservação de energia facilitou esta postura, ao postular a manutenção da ordem no Universo e manter a causalidade entre as mudanças na natureza. Contudo, em estudos sobre a conservação de energia, Lázaro Carnot concluiu que somente os fenômenos contínuos conservam energia; todas as variações bruscas de velocidade acabam por gerar uma perda de energia, sem possibilidades de recuperação e resultam na perda de rendimento.

Em 1865, Rudolph Clausius, quinze anos após ter descrito o ciclo de Carnot sob outra ótica de conservação de energia, idealizou o conceito de "entropia", o qual tratava, ao mesmo tempo, da problemática da irreversibilidade de um processo e da dissipação de energia de um sistema físico. As trocas de calor com o meio geravam alterações irreversíveis no interior do sistema e provocam a diminuição do rendimento. Dessa maneira, Boltzmann, ao procurar ajuda no conceito de probabilidade em substituição ao determinismo, foi o primeiro a perceber que o crescimento da entropia de um sistema significava conduzi-lo ao aumento da sua desordem interna (Prigogine & Stengers, 1997).

De outro modo, no final do século XIX intrigava, também, a razão que levava um átomo excitado emitir luz sob a forma de seqüências descontínuas. Max Planck, em 1900, ao introduzir a "constante universal", abriu caminho para Einstein solucionar o problema do "efeito fotoelétrico"(59), ao concluir que a luz consistia em quanta de energia, a qual se propagaria através do espaço e explicar o calor específico dos corpos sólidos, através das vibrações elásticas dos átomos. Contudo, a partir daí, Einstein viu-se em uma contradição, a qual postergou por achar que no futuro esta questão se explicaria. Esta contradição se referia às revelações que estas idéias trouxeram a respeito da descrição da luz. Ela poderia ser explicada a partir de ondas eletromagnéticas, de acordo com a teoria de Maxwell, ou, de forma diferente, interpretada através do quanta de luz, isto é "pacotes de energia" que se propagam pelo espaço a velocidade por demais elevada(60) (Heisenberg, 1999).

Enquanto isso, em que pese as tentativas de clarificação da estrutura do átomo, Niels Bohr (1885-1962), em 1913, explicou a estabilidade do átomo, utilizando-se da aplicação da hipótese quântica de Planck. Ora, num sistema planetário uma colisão significaria jamais retornar à configuração inicial. Porém, um átomo de carbono, após colisões com outros átomos, ainda continuaria a ser um átomo de carbono. Para Bohr, isto significou que o átomo só poderia existir em estados estacionários discretos, estados de energia mais baixa. Assim, ele pôde explicar a estabilidade dos átomos e fornecer, para alguns casos, uma interpretação teórica dos espectros de linhas emitidas pelos átomos excitados por calor ou descargas elétricas (Heisenberg, 1999).

Estes estudos, em resumo, trouxeram à tona grandes contradições à física. Entre algumas destas contradições, os resultados experimentais mostravam que uma radiação formada por ondas produzia figuras de interferência e que, portanto, poderia produzir o efeito fotoelétrico, consistida de partículas em movimento. Ficava nítido, que a tentativa de descrever os fenômenos atômicos, dentro dos pressupostos da física clássica, causava embaraços.

Foi assim que os físicos lentamente foram acostumando-se a estas dificuldades e captando o espírito da teoria quântica. Vários outros estudos foram confirmando a teoria quântica, embora não sem tropeços. Em 1925, as novas equações matemáticas, denominadas "mecânica das matrizes" ou "mecânica quântica", representaram, definitivamente, uma ruptura ao paradigma da física newtoniana. Todos os fenômenos da física newtoniana puderam ser explicados pelo novo esquema.

Por fim, ao explicar as soluções para as dificuldades inerentes às experiências com os átomos, algumas que inclusive permaneciam, Heisenberg (1999; p.63) colocou:

"A solução final foi abordada de duas maneiras diferentes. Uma delas foi uma reviravolta da questão. Ao invés de perguntar: como se pode demonstrar, no esquema matemático conhecido, uma dada situação experimental?, uma outra pergunta era feita: seria verdade dizer-se que ocorrem na Natureza somente aquelas situações experimentais que podem ser demonstradas pelo formalismo matemático? A hipótese de que isso fosse realmente verdade deu lugar a limitações no uso de conceitos que tinham sido, desde Newton, básicos na física clássica. Da mesma maneira que na mecânica newtoniana, nada impede que se fale em posição e velocidade do elétron e, além disso, pode-se observar e medir essas grandezas. Mas, contrariamente ao que ocorre na mecânica de Newton, não se pode medir simultaneamente aquelas grandezas com alta precisão arbitrariamente. De fato, o produto das duas imprecisões, em suas medidas, resultou não ser menor que a constante de Planck dividida pela massa da partícula. Relações análogas foram igualmente formuladas para outras situações experimentais. Todas elas são usualmente chamadas de ‘relações de incerteza’, diferentes instâncias do ‘princípio de indeterminação’. E, assim, aprendeu-se que os velhos conceitos não se adequam à Natureza de maneira exata.

Uma outra maneira de abordar o problema foi o conceito de ‘complementaridade’ introduzido por Bohr. Schrödinger tinha descrito o átomo não como um sistema composto de partículas, núcleo e elétrons, mas sim como constituído de núcleo e ondas de matéria. Essa descrição dos elétrons como ondas de matéria certamente encerrava um elemento de verdade. Já Bohr considerou a maneira quântica de descrever em seus dois aspectos, de partícula e de onda, como duas descrições complementares da mesma realidade. Cada uma dessas descrições pode ser só parcialmente verdadeira, e limitações devem ser impostas ao uso, tanto do conceito de partícula como de onda, pois, caso contrário, não haveria como se evitar as contradições. Se levarmos em conta essas limitações, expressas pelo princípio de incerteza, as contradições desaparecerão."

O pensamento que se abstrai daí resulta numa redefinição da noção de objetividade(61). A mecânica quântica impôs, por exemplo, rejeitar a idéia de descrição única do Universo, a partir de um único esquema conceitual. Ela indicou, sem dúvida, a profunda conversão que deve transcorrer nos conceitos que dizem respeito à realidade.

 

3.2.2. Ciência Normal e Ciência Pós-normal

A) Ciência Normal

O debate epistemológico, durante a década de 60 do século XX, observou a introdução dos termos "ciência normal", "paradigma", "anomalias" e "ciência revolucionária". A concepção historicista de Thomas Kuhn buscou questionar o progresso da ciência, admitindo-o como um processo marcado pelas revoluções do pensamento, ao contrário da vigente idéia, da época, que concebia-o como um acúmulo gradativo de novos dados.

Seu principal escrito foi, sem dúvida, "A estrutura das revoluções científicas" (1997), o qual lança estas e outras idéias importantes para análise do conhecimento científico, bem como, de suas grandes transformações.

Em sua trajetória, Kuhn ficara bastante impressionado com os embates epistemológicos ocorridos no "Center for Study in the Behavioral Sciences", em 1958/59. O que lhe chamava atenção era a extensão de desacordos, em torno das questões da escolha dos métodos e problemas legítimos, entre os cientistas sociais. Para Kuhn, por mais que houvesse controvérsias nas ciências naturais (física, química, biologia, astronomia etc.), nas ciências sociais a situação decorria, ao que lhe parecia, por não saberem caracterizar o método, de modo conveniente. Sobre este fato, posteriormente, Kuhn considerou que o "atraso" das ciências sociais era dado pelo seu caráter "pré-paradigmático", o que não ocorria com as ciências naturais, por serem "paradigmáticas" (Kuhn, 1997).

Dentre os vários conceitos, por ele apresentado, os "paradigmas" estão no centro desta questão e é, talvez, um dos termos kuhniano mais discutidos. Kuhn (1997; p.13), define inicialmente "paradigmas" como "as realizações científicas universalmente reconhecidas que, durante algum tempo, fornecem problemas e soluções modelares para uma comunidade de praticantes de uma ciência".

A noção de paradigma é considerada por Kuhn como o ponto mais importante do seu livro e ressalta, no posfácio de 1969, o certo obscurantismo que marcou sua conceituação. Neste posfácio, o autor tenta elucidar melhor o conceito e resolver algumas das "dificuldades-chave" presentes no texto original(62). Na tentativa, ele distingue dois diferentes conjuntos de sentidos para o uso do termo.

O primeiro uso implica um conjunto crenças, valores, técnicas etc. partilhadas pelos membros de uma determinada comunidade. Este sentido designa uma visão de mundo particular, própria do campo social. Kuhn, para melhor explicar, questiona: "dentre o que é partilhado por seus membros, o que explica a relativa abundância de comunicação profissional e a relativa unanimidade de julgamentos profissionais?" (1997; p. 226). A questão, segundo ele, fora resolvida anteriormente: "um paradigma ou um conjunto de paradigmas".

O autor, contudo, reconhece a deficiência do termo e comenta que os cientistas, de um modo geral, teriam respondido à questão dizendo que partilham de uma teoria ou de um conjunto de teorias. Desejando que o termo pudesse ser usado neste sentido, Thomas Kuhn sugere adotar outro termo para este sentido: "matriz disciplinar"; "‘disciplinar’ porque se refere a uma posse comum aos praticantes de uma disciplina particular; ‘matriz’ porque é composta de elementos ordenados de várias espécies, cada um deles exigindo uma determinação mais pormenorizada" (Kuhn, 1997; p. 226).

Kuhn indica, ainda, que o termo "matriz disciplinar" abriga diferentes componentes. Um primeiro componente são as "generalizações simbólicas", consideradas expressões, as quais são empregadas sem dissensão pelos membros da comunidade e que podem ser facilmente expressas numa forma lógica como:

média aritmética =

x + y + ... + z

 

n casos

numa forma simbólica como:

                                    f = m.a

ou, ainda, expressas em palavras:

                                    "a uma ação corresponde uma reação igual e contrária".

Para Kuhn, estas expressões servem como pontos de apoio para aplicação das técnicas de manipulação lógica para resolução dos problemas. Embora, as "generalizações", em muito se assemelhem às leis científicas, é importante compreender que elas não possuem apenas essa função para os membros dos grupos, pois muitas vezes funcionam como definições de alguns símbolos que empregam. De fato, "as leis podem ser gradualmente corrigidas, mas não as definições, que são tautologias" (p.228).

Um outro componente define-se como "crenças em determinados modelos". Neste sentido, o autor parece atribuir ao paradigma um sentido de redenção, de idéias aceitas como explicações e soluções de quebra-cabeças não-solucionados. Redenção, pois, ajuda ou torna-se um recurso capaz de "salvar" a comunidade de situações aflitivas. Oliva (1994; p.84) comenta que "por ser setorial e esotérica, a pesquisa normal eqüivale a uma espécie de mergulho numa ‘pequena realidade’, impedindo praticamente que outros domínios de objetos sejam tematizados".

Interessante, também, é a consideração de Epstein (1990) a respeito da substituição de paradigmas. Diz o autor que a resistência dos cientistas às mudanças de paradigmas envolve, além das questões habituais, as razões emotivas, religiosas e metafísicas.

Um terceiro grupo de elementos da matriz disciplinar é constituído por valores. Segundo Kuhn (1997), comparados às generalizações simbólicas ou modelos, os valores são mais amplamente partilhados por diferentes comunidades. De fato, os valores, num grau maior do que os outros elementos da matriz disciplinar, podem ser compartilhados por cientistas que divergem quanto à sua aplicação.

Um bom exemplo destes valores compartilhados que distintas comunidades aderem referem-se às predições. Seja qual for a natureza do campo científico, segundo o autor, as predições devem ser acuradas; preferencialmente quantitativas; respeitar a margem de erro permissível; e assim por diante. Este valores devem ser usados, também, para julgar teorias completas, ou seja, precisam, inicialmente, permitir a formulação de quebras-cabeça e soluções. Eles deveriam ser simples e dotados de coerência interna. Podem, também, apresentar ponderações sobre a utilidade social ou não da ciência.

Kuhn (1997), no entanto, esclarece que a aplicação destes valores é "consideravelmente afetada pelos traços da personalidade individual e pela biografia que diferencia os membros do grupo" (p.230). Ao afirmar isto, o autor sofre duras críticas, é acusado de glorificar a subjetividade e mesmo a irracionalidade e defende-se apontando para duas características apresentadas pelos julgamentos de valor: primeiro, considerando que "os valores compartilhados podem ser determinantes centrais do comportamento do grupo, mesmo quando seus membros não os empregam" (p.231). E se assim não fosse, lembra ele, não haveria problemas filosóficos. Segundo, que a própria variabilidade individual no emprego destes valores podem ser essenciais para a ciência. "Se todos os membros de uma comunidade respondessem a cada anomalia como se esta fosse uma fonte de crise ou abraçassem cada nova teoria apresentada por um colega, a ciência deixaria de existir. Se, por outro lado, ninguém reagisse às anomalias ou teorias novas, aceitando riscos elevados, haveria poucas ou nenhuma revolução" (p.231).

Há um quarto tipo de elemento presente na matriz disciplinar que merece maior destaque e, por isso mesmo, dá um segundo sentido ao termo "paradigma". Os paradigmas como "exemplos compartilhados" ou "exemplares" são soluções concretas de problemas que os iniciantes encontram em sua educação científica. Tais soluções indicam, através dos exemplo, como devem realizar seus trabalhos. De um modo geral, todos os físicos começam aprendendo os mesmos exemplos: problemas como o do plano inclinado, do pêndulo cônico, das órbitas de Kepler etc.

Embora, o conhecimento científico esteja fundado na teoria e nas regras, os problemas são fornecidos para que se alcance habilidade em solucioná-los. "Mas, no início e por algum tempo, resolver problemas é aprender coisas relevantes a respeito da natureza. Na ausência de tais exemplares, as leis e teorias anteriormente aprendidos teriam pouco conteúdo empírico" (p.233). Neste processo, o iniciante aprende a identificar elementos de uma dada generalização simbólica e a ver semelhanças entre uma variedade de situações a partir desta determinada generalização. Assim, o estudante descobre uma maneira de encarar o problema como algo que já tivesse sido encontrado.

O termo paradigma, porém, aparece de modo intrinsecamente circular: "Um paradigma é aquilo que os membros de uma comunidade partilham e, inversamente, uma comunidade científica consiste em homens que partilham um paradigma" (p.219). O autor, no entanto, comenta que esta compreensão de circularidade é fonte de dificuldades reais.

De fato, as comunidades podem ser destacadas sem utilização prévia da noção de "paradigmas". Mas, estes poderiam ser descobertos através do exame minucioso do comportamento dos membros de uma determinada comunidade. A comunidade científica é composta pelos praticantes de uma especialidade científica, que foram submetidos a uma iniciação profissional e educação similares. Neste processo, estes membros, absorveram a mesma literatura técnica e dela retiraram lições comuns.

Kuhn (1997; p.221) acrescenta que "uma vez que a atenção de diferentes comunidades científicas está focalizada sobre assuntos distintos, a comunicação profissional entre grupos é algumas vezes árdua".

A "hierarquização" de certas comunidades podem, então, existir. Uma comunidade mais global, composta pela totalidade de cientistas ligados às ciências naturais, representaria o maior nível hierárquico. Num nível imediatamente inferior é possível encontrar as comunidades de grupos científicos especializados, tais como, os físicos, os químicos, biólogos, entre outros. Num nível ainda mais inferior e especializado aparecem os subgrupos, como por exemplo, os químicos orgânicos, físicos nucleares etc.

É neste sentido que estas comunidades, então, apresentam-se como produtoras e legitimadoras do conhecimento científico e, assim, partilham do mesmo paradigma. Entretanto, este paradigma governa, não um objeto específico de estudo, mas, antes, um grupo de praticantes de ciência.

Quando a pesquisa está firmemente baseadas em realizações passadas e essas realizações são reconhecidas como fundamentais para prática científica posterior da comunidade, durante um determinado período de tempo, diz-se "ciência normal". Isto é, quando uma disciplina está sob a égide de um paradigma significa que ingressou na fase da "ciência normal" (Oliva, 1994).

Em vários momentos históricos observou-se que muitos trabalhos serviram, ao menos por algum tempo, para definir os problemas e métodos legítimos de um campo de estudo. Isto pôde ocorrer por duas razões essenciais. Primeiro, estas realizações atraíram para si um grupo duradouro de participantes e os afastava de outras formas de atividade científica; segundo, porque, ao mesmo tempo, estas realizações eram abertas de tal forma que puderam deixar toda espécie de problemas para serem resolvidos pela própria comunidade.

Por outro lado, a "ciência normal" caracteriza-se, também, por seu reduzido interesse em produzir grandes novidades, tanto no que se refere aos conceitos, quanto aos fenômenos. Na verdade, o objetivo da "ciência normal" não é descobrir estas grandes novidades, isto porque seu intuito é, primeiro, aumentar o alcance e a precisão com os quais o paradigma pode ser aplicado. Para Kuhn, então, o progresso se dá pelo maior consenso em torno de como deve ser conduzido a prática científica.

Ora, o que se percebe é que a comunidade científica adota a "ciência normal" ao compartilhar de um paradigma. Neste sentido, os experimentos são estandardizados e dedicam-se à resolução de problemas padronizados. Assim, as "anomalias" não são consideradas como casos refutadores da teoria, mas, antes, como quebra-cabeças a serem resolvidos. Isso determina que, sob um paradigma, um pesquisador não tem ampla liberdade para testar suas teorias.

Por outro lado, a pré-ciência corresponde a disciplina que, no período pré-paradigmático, encontra-se em total desacordo e grande debate sobre a interpretação dos problemas. Neste momento, é comum aparecerem tantas teorias quantos cientistas houver. E cada um deles se vê obrigado a "partir do zero". "A inauguração da ciência há de ser vista como a conquista do consenso, como a redução da multiplicidade interpretativa à unidade dos ‘modos de problematização e solucionamento’ impostos pelo paradigma" (Oliva, 1994; p.75).

Desta forma, a transição da pré-ciência para a chamada "ciência normal" ocorre quando há o reconhecimento de uma única via para o genuíno conhecimento e é aí que a "comunidade científica", em função do paradigma partilhado, resolve seus problemas científicos.

As revoluções ocorrerão quando este paradigma tornar-se insuficiente para responder os problemas. As anomalias podem colocar a integridade explicativa do paradigma em sérias dificuldades e, quando isto ocorre, é comum ter início a um período de "revisionismo intelectual" (Oliva, 1994). Em conseqüência, há o fim da crise com o advento de novo candidato a paradigma e nova batalha por sua aceitação. "Decidir rejeitar um paradigma é sempre decidir simultaneamente aceitar outro" (Kuhn, 1997; p.108). Um esquema, funcionalista, representa a situação (Oliva, 1994; p.75):

Ciência Normal ® Crise ® Pesquisa Extraordinária ® Revolução ® Nova Ciência Normal ® Nova Crise ...

É neste sentido, que se configuram as noções de "paradigma". Ambos interagem e formam a estrutura mental que serve para classificar e abordar os fenômenos. Isto significa que a construção de uma pesquisa começa, já com algumas idéias a respeito da questão (Fourez, 1995).

Gérard Fourez, em sua "A construção das ciências" (1995), não deixa escapar, porém, a importância contida nesta compreensão. Seja qual for a disciplina científica, esta surge como um novo modo de considerar o mundo e seus fenômenos e esta nova forma estrutura-se em consonância às condições sociais, econômicas e culturais da época. Além disso, os próprios conceitos são construídos não por acaso, mas em função de interesses precisos, historicamente determinados e que necessitam ser esclarecidos. Conceitos como "saúde", "qualidade de vida", "igualdade" ou "desigualdade", "desenvolvimento", "científico", "precisão", entre outros, são típicos exemplos que podem ser tratados de formas distintas(63).

 

B) Ciência Pós-normal e Complexidade

Atualmente, está cada vez mais difícil admitir a visão determinista da ciência clássica. O "demônio de Laplace", que se acredita capaz de calcular os fenômenos a partir de algumas informações necessárias e de leis gerais, é, hoje, colocado à prova. Esta ciência, auto-denominada objetiva, que busca isolar e reduzir seu objeto ou foco de estudo, omite que o conhecimento do objeto, seja ele físico, biológico ou sociológico, não pode estar dissociado de um sujeito que conhece, com raízes em uma cultura e uma história. É, pois, necessário combater a simplificação que oculta o ser e toda sua complexidade(64).

O’Connor (1999) aponta para as diferenças entre as perspectivas denominadas "cartesiana" e "complexidade". A perspectiva cartesiana tem privilegiado a descrição objetiva como base para obter o conhecimento teórico sobre a realidade. O conhecimento deve ser simplificado e pode ser calculado, predito. O conhecimento é, ainda, concebido como uma certeza e está encerrado em si mesmo.

A perspectiva da complexidade reconhece a pluralidade de análises, em conversação, que podem contribuir para resolução dos problemas. Deste modo, a diversidade de perspectivas e modos de conhecimento coexistem numa pluralidade irredutível.

Uma "nova ciência", então, se apresenta para desafiar as possibilidades de cálculo, para permitir um papel cada vez maior das incertezas, indeterminações, contradições e dos fenômenos aleatórios e com liberdade para inscrever todo conhecimento na contribuição do avanço da ciência.

Sem dúvida, foi na física, mais precisamente na mecânica quântica, que estas discussões tomam corpo. Ao poder explicar a luz por partículas descontínuas ou ondas luminosas caracteriza-se a ruptura do princípio do terceiro excluído e o surgimento do princípio da indeterminação. De uma maneira geral, Heisenberg (1999) mostra que nada obriga abandonar qualquer das interpretações. Este mesmo autor estende, com os devidos cuidados, esta compreensão às outras ciências e formas de conhecimento. Para ele, mesmo os conceitos do senso comum poderão ser bastante úteis.

Estas considerações impuseram relações de incerteza sobre o conhecimento científico. Funtowicz et al. (1993, 1994 e 1997) explicaram que diferentes tipos de incertezas podem ser expressos e usados para a avaliação da qualidade da informação científica e propuseram um debate para análises de risco.

Para Ravetz (1999), a necessidade de se utilizar a ciência pós-normal advém do fato de que atualmente os tipos de debates emergentes, tais como, os problemas ambientais e as novas tecnologias, são tipicamente incertos, de interesses diversos e de urgentes decisões. Ravetz et al. (1999) destacam, ainda, uma questão bastante interessante: "Que importante área da ciência está imune aos problemas de incerteza e conflito de valores?". Para os autores, esta é a medida pela qual toda ciência tem tornado-se "pós-normal".

O debate proposto por estes autores muito se assemelha ao discurso elaborado por Edgar Morin (1983). Ao ponderar sobre o problema epistemológico da complexidade, comenta o quão incerto e frágil é a "aventura" de tentar compreender os fenômenos nos moldes clássicos. E avança tentando mostrar que o problema não está, necessariamente, em que cada um perca sua própria competência especializada, mas, antes, em que não desenvolva, suficientemente, a articulação com outras competências que, ligadas em cadeia, engendram o "anel epistêmico" do novo conhecimento.

A complexidade é para Morin (1990), neste sentido, interpretada grosso modo de duas formas. Primeiro, como um tecido de constituintes heterogêneos associados e, segundo, como o tecido de acontecimentos, ações, interações, determinações e acasos que constituem o mundo fenomenal em relação com os traços inquietantes da confusão, da contradição, da desordem, da ambigüidade, da incerteza etc.

Em concordância com este pensamento, Funtowicz et al. (1994) apontam que em resposta aos novos problemas, a tradição científica tem sido inadequada e os sistemas complexos tornaram-se o foco de uma inovação importante para pesquisa e aplicação em muitas áreas do conhecimento.

Para estes autores, embora já exista alguma diferença entre sistemas simples e complexos, parece ser mais proveitoso distinguir os sistemas complexos "ordinários" (comuns) dos "emergentes". A "complexidade ordinária", de padrão mais comum, é uma diversidade de elementos que se presta para complementariedade da competição e cooperação, de tal modo que poderiam manter a estabilidade do sistema contra perturbações que lhe oprimiria.

Pode-se tomar como exemplo a preservação biológica das espécies. Muito de seus comportamentos são possíveis de serem explicados a partir de mecanismos como um sistema simples de metas, tais como crescimento e sobrevivência. Esta posição reflete uma tendência de "adaptação" do sistema frente à determinada estimulação (Funtowicz et al., 1994).

Por outro lado, a "complexidade emergente" freqüentemente oscila entre hegemonia e fragmentação. Não há uma única causa, nem um único efeito, eles se caracterizam pela não-linearidade. Funtowicz et al. (1994) definem os "sistemas complexos emergentes" como "autopoiéticos"(65), ou seja, a auto-criação sem instância criadora, sem finalidade que lhe dirija a trajetória, sem destino previsível. Para Maturana et al. (1997) o sistema autopoiético continuamente especifica e produz sua própria organização através da produção de seus componentes, sob condições de contínua perturbação. Assim, existem relações espaciais entre os componentes que ficam especificados por uma rede de relações que constituem sua organização e estão, por conseguinte, numa troca contínua.

De fato, este sistema não pode ter seu mecanismo e funcionamento completamente explicado. Segundo Funtowicz et al. (1994; p. 572), para que haja uma análise a partir da complexidade emergente é necessário um pensamento dialético, onde a contradição seria um conceito chave. "A contradição, como parte da dialética, enfatiza a coexistência de forças antagonistas e dá uma perspectiva na qual previne análises simplificadas das situações e problemas". Contudo, parece que o pensamento complexo opera além destes pressupostos, uma vez que ele é ao mesmo tempo "e" e "ou". Funtowicz et al. (1994) se preocupam, ainda, com três tipos de contradição: a) o primeiro refere-se à complementaridade, onde os elementos em oposição estão em um "balanço-dinâmico"; b) outro é o conflito destrutivo, onde a luta resulta em colapso do sistema no qual eles existem; e, c) tensão criativa, na qual a resolução é alcançada pela transformação qualitativa do sistema.

Assim, reduzir a sociedade humana ou suas organizações em sistemas complexos ordinários poderia resultar numa compreensão irreal. Deste modo, torna-se importante integrar conceitos aparentemente paradoxais num processo de "destruição criativa". Esta pluralidade de perspectivas, longe de ser um problema, torna-se essencial ao conhecimento. É com esta nova "ferramenta conceitual" que se pode produzir um entendimento filosófico denominado "ciência pós-normal". O termo "pós-normal" é utilizado por Funtowicz et al. (1993, 1994 e 1997) para caracterizar a superação do pensamento denominado "ciência normal", elaborado por Thomas Kuhn (1997), em que a norma para a prática científica eficaz seria a resolução de quebra-cabeças dentro de um paradigma que ignora questões mais amplas.

A dinâmica de um sistema complexo emergente perpassa pela compreensão de um sistema caótico, onde o enorme número de perturbações tornam incertas as predições. Mesmo aquelas perturbações consideradas mínimas podem, a longo prazo, resultar em erros. Bergé et al.(1996) ao explicarem o modelo de Lorenz, conhecido como "efeito borboleta", comentam que este professor de ciências da atmosfera percebeu que um minúsculo erro inicial em seus cálculos, em razão de um arredondamento, provocava um erro que crescia exponencialmente à medida que o cálculo prosseguia, até alcançarem resultados completamente sem relação com os anteriores.

Foi possível para Lorenz, então, descobrir o efeito considerável da sensibilidade às condições iniciais (SCI). O pesquisador, assim, formulou o modelo, onde considera que "uma pequena perturbação, tão fraca quanto o bater de asas de uma borboleta, pode, um mês depois, ter um efeito considerável, como o desencadeamento de um ciclone, em razão de sua amplificação exponencial, que age sem cessar enquanto o tempo passa" (Bergé et al., 1996; p. 203 e Lorenz, 1996).

Numa compreensão análoga, a sociedade comporta inúmeros aspectos em interação. Assim, para estudar a saúde pública e seus riscos não se deveria desconsiderar o contexto em que vive tal sociedade. Muitas vezes, uma perturbação considerada mínima pode ter efeitos devastadores. Pode-se exemplificar comentando sobre a dinâmica das bolsas de valores e os recentes abalos na Ásia, Rússia e Argentina, que causaram instabilidade em todo mundo. A competição pelo mercado mundial pode, também, gerar consideráveis níveis de desemprego num país e isto pode ter conseqüências sobre a saúde, como bem reconheceram Paim et al. (2000) e Waltner-Toews (2000), este último apoiado em texto de Funtowicz et al. Enfim, a perturbação em um aspecto pode desencadear problemas ainda maiores em outros.

Deste modo, Morin (1990, p. 124) ensina que: a) "um todo é mais do que a soma das partes que o constituem", uma vez que, tomando como exemplo o processo e a organização do trabalho, estes são mais que a "soma" de todos os elementos (empregados, máquinas, serviços etc.) que os constituem; b) "o todo é menor que a soma das partes", na medida em que o trabalho como um todo não permite a plena expressão de cada elemento, pois estes estão inibidos; e c) "o todo é simultaneamente mais e menos que a soma das partes", pois o trabalho apresenta-se como um sistema dinâmico e complexo.

De acordo com a complexidade emergente, o modelo matemático, apesar de legítimo, pode não ser suficiente para analisar de forma completa as propriedades de um sistema. Funtowicz et al. (1993 e 1997) buscam, então, repensar a análise do risco à luz deste entendimento e sugerem que a resolução dos problemas ou tomada de decisões se dê através de um diagrama biaxial em função de dois atributos: a) "incertezas dos sistemas" e b) "decisões em jogo".

Resumidamente o esquema proposto por Funtowicz et al. (1993 e 1997) para resolução dos problemas comporta três níveis, a partir da interseção dos dois atributos. Um dos atributos refere-se à "incerteza dos sistemas". Quando a incerteza em relação a um determinado conhecimento é mínima, a solução Kuhniana é aceita e pode-se dizer que prevalece o nível da "ciência aplicada", ou seja os conhecimentos científicos, aqui aplicados, são precisos para resolver os problemas. O nível da "consultoria profissional" dar-se-á quando for necessário introduzir algo a mais e torna-se importante negociar com os problemas e utilizar diferentes metodologias para resolvê-lo. No nível da "ciência pós-normal" as incertezas estão mais elevadas e fica evidente a pluralidade de disciplinas que se legitimam sobre a questão. Neste momento, existe um elevado conteúdo de incerteza nos conhecimentos ou mesmo ignorância sobre o assunto.

Contudo, ainda que sejam baixas as incertezas em relação ao conhecimento (ciência aplicada), se as "decisões em jogo" apresentarem-se elevadas ocorrerá a necessidade de alcançar os outros níveis dos atributos. As "decisões em jogo" referem-se aos custos financeiros, aos benefícios e interesses dos grupos envolvidos(66). Assim, não basta o conhecimento científico que se tem sobre o objeto, mas, também, o poder que os diversos grupos interessados dispõem.

As dificuldades de resolução dos problemas e tomada de decisões, dentro desta compreensão, dependeria do ponto formado a partir dos componentes dos dois atributos. Neste sentido, as decisões regulamentadoras dos riscos, comportam, por um lado, argumentos de elevadas incertezas e, por outro, uma grande contestação a respeito da qualidade do conhecimento científico apresentado pelo opositor. Somado a isto, há, ainda, todos os interesses comercias ou corporativos que apreciam o resultado das decisões (Funtowicz et al., 1997).

Alguns bons exemplos podem clarificar esta concepção. O caso dos "organismos geneticamente modificados" (OGMs) é um deles. A revista científica "História, Ciências, Manguinhos", seguindo a calorosa discussão atual, recentemente (2000, número 2) promoveu um debate a respeito do tema. Dentre as várias questões suscitadas, dois pontos pesaram fortemente na conclusão que se pode extrair das posições dos pesquisadores. Primeiro, as incertezas de que estes organismos não farão mal à saúde da humanidade ou ao meio ambiente; e, segundo, os interesses econômicos que influenciam, sobremaneira, todo e qualquer tipo de decisão sobre o assunto.

Silvio Valle (2000), pesquisador da Fundação Oswaldo Cruz (Fiocruz), destaca algumas posições de incertezas, quanto a utilização dos "OGMs", citando um levantamento realizado por dois cientistas entre 1998 a 2000, nas bases de dados "Medline" e "Toxiline", que apontou a aparição de somente três trabalhos experimentais sobre toxidade e efeitos dos alimentos transgênicos. Além disso, a Associação Médica Inglesa considerou prematura a introdução dos alimentos transgênicos, justamente pela insuficiência de dados sobre segurança. Por sua vez, Nodari et al. (2000) explicam que pouco se sabe a respeito dos efeitos diretos do produto dos transgenes em organismos-alvo. O impacto sobre os animais, solo, lagos, rios e, mesmo, sobre os homens(67) são insuficientes e/ou inexistentes. E nenhum pedido de liberação foi devidamente acompanhado de "estudo de impacto ambiental" (EIA) ou de "relatório de impacto no meio ambiental" (RIMA).

Glaci Zancan (2000), outra pesquisadora do debate promovido pela revista, chega a tratar o assunto indicando momentos de "ignorância" sobre os mecanismos de alergia alimentar, bem como, sobre a resistência dos insetos aos "OGMs".

Quanto às "decisões em jogo", pode-se notar, neste debate, como as pressões de indústrias químicas, farmacêuticas e alimentícias transnacionais forçam tomadas de decisão, talvez, precipitadas, mas, que se enquadram muito bem aos seus interesses comerciais. Os esforços envolvendo biotecnologias tem sido despendidos para aperfeiçoar a tolerância das plantas transgênicas contra pesticidas, obviamente produzidos pelas mesmas indústrias, e não para melhorar a resistência dos vegetais cultivados contra pestes e doenças (Seiler, 1998). Zancam (2000) explica, também, que o fertilizante nitrogenado, usado na cultura de soja no Brasil, utiliza bactérias fixadoras de nitrogênio, enquanto a cultura de soja norte-americana usa fertilizantes químicos. Alguns estudos experimentais, contudo, descobriram que o processo de transgenia reduz o rendimento de fixação do nitrogênio. Ora, se isto for confirmado, a produção de soja brasileira, caso seja adotado os transgênicos, poderá ficar sensivelmente afetada.

Nodari et al. (2000) e Seiler (1998) falam, então, no aumento do grau de dependência biotecnológica dos agricultores dos países menos desenvolvidos aos interesses econômicos das empresas das nações industrializadas. Por essa razão, parece que o "princípio da precaução(68)" tem sido recomendado como alternativa diante de tantas incertezas científicas, para que a sociedade possa perceber efetivamente os riscos e benefícios e poder tirar proveito destas tecnologias.

Ravetz (2000) comenta, contudo, que as corporações têm utilizado o princípio precaucionário às avessas, aplicando-o antes para o lucro, do que para a segurança.

Pode-se destacar outros vários exemplos de incertezas e interesses ocorridos ao longo da história na ciência e tecnologia. Bem recentemente, ocorreu a morte de uma voluntária para experiência médica, cujo objetivo era descobrir porque pessoas saudáveis e asmáticas reagem de modo distinto a substâncias constritoras das vias respiratórias. O relatório sobre o acidente (Becker et al., 2001) apontou, dentre outros aspectos, que havia pouca evidência sobre os efeitos que a substância inalada pelos voluntários da pesquisa, o hexametonium, poderia provocar. Embora, os estudos verificados mencionassem ausência de reações pulmonares adversas, lembravam que os riscos da inalação, eram incertos.

Outro exemplo de incerteza advém da enorme dificuldade ou, talvez, impossibilidade, de se predizer as condições climáticas de uma região a longo prazo, uma vez que, qualquer perturbação inicial, por menor que seja, pode contribuir para completa alteração do clima previsto(69) (Bergé et al., 1996 e Lorenz, 1996).

Sobre os interesses e decisões em jogo, também, é possível encontrar exemplos úteis. No século XIX, quando da disputa na saúde pública entre os "anticontagionistas(70)" e os "contagionistas", os primeiros lutavam pela "liberdade individual", enquanto, os adeptos da outra teoria ressaltavam a importância da quarentena. Contudo, as implicações econômicas da quarentena não agradavam, em nada, os comerciantes e industriais, uma vez que implicavam em perdas financeiras. Talvez, por esta razão, os "anticontagionistas" puderam ascender com a supremacia do liberalismo (Rosen, 1994 e Hobsbawn, 1998).

Interessante, também, são as observações da "antropologia do laboratório" realizada por Latour et al. (1997). Neste estudo, os autores comentam, entre outros fatos, sobre a idéia de contabilidade do grupo de pesquisadores quando tratam de custos do experimento; quantidade de citações em periódicos; roubo de pensamentos "originais"; qualidade dos cientistas, artigos e laboratórios; enfim, de vantagens comparativas que se apresentam como "capital" simbólico(71). Embora, advirtam sobre as conclusões maniqueístas dos leitores, Latour et al. refletem sobre o ideal de competição e mercado que perpassa a atividade científica. Os artigos científicos, neste sentido, longe de serem "relatórios de pesquisa" são "produtos de sua usina singular", que têm vital importância para obtenção de recursos financeiros(72).

Na indústria aeronáutica pode-se ilustrar com a "guerra" de mercado estabelecida entre as grandes indústrias do setor, como as americanas Boeing e McDonnell Douglas e o complexo europeu Airbus. As disputas comerciais internacionais envolvem os Estados, que ajudam sob a forma de subsídios. Chomsky (2001), ao tratar da democracia e do mercado na nova ordem mundial, relata, por exemplo, como em nome da segurança nacional (sic) os Estados Unidos financiaram(73) a fabricações de aviões, notadamente, pela Boeing. É possível, então, refletir sobre a influência que esta acirrada disputa comercial pode ter sobre os relatórios finais dos acidentes aéreos ocorridos(74).

Ivan Sant’Anna (2000) ao se dedicar a história do acidente com o vôo RG-820, entre Rio e Paris (Orly), num Boeing 707, descreve que o laudo final assinado pelo chefe de Inspeção Geral da Aviação Civil Francesa, pelo chefe dos Órgãos de Controle de Vôo, por três peritos em desastres aéreos, por um perito médico e por um comandante da Air France demonstrou que houve incêndio, cuja origem se deu, provavelmente, a partir de um cigarro jogado na lixeira do toalete traseiro central. Este relatório, no entanto, ao ser traduzido para o português sob a responsabilidade do Ministério da Aeronáutica, foi alterado substancialmente. Trechos importantes foram retirados e acrescentados outros inexistentes. Embora, a versão em francês não tenha sido contestado por instituições americanas interessadas, como a Boeing, a FAA (órgão controlador da aviação dos Estados Unidos) e o NTSB (órgão que investiga acidentes aéreos nos Estados Unidos), esta nova versão (em português) amenizava a responsabilidade da VARIG. Não à toa, que várias indenizações foram pagas em valores bastante inferiores.

Alice Itani (1998), de outro modo, lembra que as incertezas do sistema manifestam-se, entre outras formas, em decorrência da transcendência da tecnicidade sobre a moral pública. Se a indústria aeronáutica destaca-se pelos avançados sistemas de informatização e assume um papel importante nas inovações tecnológicas, um acidente aéreo expõe a fragilidade da sociedade tecnológica industrial. Não à toa, que é imputado ao ser humano a culpa pelos acidentes e incidentes.

Segundo Ravetz (2000), vale lembrar, escândalos ocorridos na Inglaterra envolveram a manipulação e subordinação de cientistas pelo Estado e que, no caso dos alimentos geneticamente modificados, o avanço científico-tecnológico está interferindo na vida das pessoas e no ambiente, e tem sido colocado além de qualquer dúvida. Neste sentido, o autor em outro trabalho (Ravetz, 1999) ressalta: "quem regula os reguladores?".

Por outro lado, Brian Wynne (1992), ao tratar de acidentes industriais e ambientais, propõe um alargamento das noções de incerteza. Para este autor, a "incerteza" pode se caracterizar pelo modo como se pensa a tomada de decisão sobre as descargas e prejuízos ambientais ou o modo como se pensa o papel da autoridade científica em relação a tais decisões.

Na verdade, nos últimos anos ocorreu um intenso conflito, no debate da regulação ambiental, sobre o ônus da prova científica. Daí, surgiram duas questões importantes: primeiro, onde o ônus da prova deve estar situado no espectro da proteção ambiental, quando há danos durante a espera? Segundo, que provas pode o conhecimento científico sustentar ou ser esperado que sustente de qualquer modo?

Wynne (1992), então, procura ampliar os conceitos de risco e incerteza à luz destas questões. Um modo cientificamente disciplinado de analisar o risco e os problemas de segurança foi originalmente desenvolvido para sistemas com problemas bem estruturados, tais como plantas de indústrias químicas e usinas nucleares e tecnologias para aviação e aeronaves espaciais. Considerava-se que, nestes sistemas, os processos e parâmetros técnicos eram bem definidos, poderiam ser testados e ter as análises dos resultados bem determinadas. Nestes sistemas, de fato, tentar compreender a "construção do risco" faz parte integralmente do desenvolvimento do sistema, enquanto em outros isto só se dará posteriormente.

Brian Wynne (1992) lembra, contudo, que mesmo estes sistemas têm mostrado que não são tão bem definidos quanto os construtores e analistas parecem explanar. Freqüentemente, os sistemas têm exibidos propriedades surpreendentes, tais como explosões, as quais indicam que são menos determinados e controlados que se imagina. Por outro lado, tem crescido o interesse científico para análise do risco em situações mal definidas, como uso de pesticidas ou derramamento de produtos tóxicos, que podem atingir escalas globais.

Em todo caso, a construção de modelos de análise tem seguido uma posição pragmática, na qual os sistemas "bem definidos" são os mais importantes parâmetros. Esta prática, decerto, busca reduzir "artificialmente" as incertezas e variações, de modo que se estabeleça uma padronização, uma média. A necessidade e justificativa para se produzir conhecimento, assim, se estabelecem. Porém, este fato não altera o ponto que impõe uma reflexiva aprendizagem sobre a natureza e limitações inerentes ao conhecimento(75).

Distinções chave são, então, elaboradas por Wynne (1992) para assentar a discussão do problema. Um primeiro termo refere-se à compreensão de "risco", sendo este autenticamente possível de ser abordado quando os sistemas e suas probabilidades são basicamente bem conhecidos. O segundo trata das "incertezas", entendidas deste modo quando se conhece os parâmetros importantes do sistema, mas não suas probabilidades. O terceiro conceito é a "ignorância, de longe a questão mais problemática, atribui-se ao completo desconhecimento sobre o objeto. Este escapa ao reconhecimento, pois é uma situação nova, ainda não observada.

Uma quarta distinção, a "indeterminação", reconhece que há em curso um conhecimento científico subjacente, mesmo quando a incerteza é pequena, embora seja bloqueada socialmente pelo paradigma científico ou sistemas tecnológicos. Wynne (1992) sugere que as "decisões em jogo" e as "incertezas" não são independentes um do outro, como tratam Funtowicz et al. As próprias "decisões em jogo" já comportam elementos de indeterminação.

Este último ponto, além disso, ressalta uma crítica fundamental ao modelo proposto por Funtowicz et al. Na verdade, pode-se considerar que cada eixo é em si complexo e que cada atributo sofre e gera interferências sobre os demais. Além disto, há uma tendência em valorar cada eixo, ou seja, em atribuir valores, quantificá-los, uma vez que se trata de um modelo geométrico. Por outro lado, talvez seja possível compreendê-lo em sua essência, e não como escalas matematizáveis. Por certo, o interesse em se utilizar uma representação gráfica pode estar ligada ao fato de que as operações lógicas são particularmente fáceis de descrever quando se aplica a regiões do plano ou do espaço.

Considerações mais recentes dos autores, no entanto, discutem este problema. Ravetz (1999) admite que as duas dimensões são inseparáveis, e que as próprias decisões do pesquisador, como a escolha de testes estatísticos e gerenciamento dos dados chamados de "outlier", comportam elementos de subjetividade.

Outro ponto a ser considerado refere-se à produção de saber sobre os riscos e/ou acidentes, bem como quem são os atores sociais envolvidos capazes de formular algum tipo resposta ou solução para os problemas. Para Funtowicz et al. (1993 e 1997), os especialistas, por vezes, encontram-se incapazes de oferecer respostas conclusivas para os problemas complexos que enfrentam. Deste modo, as preocupações do público, bem como os conflitos e controvérsias que circundam as análises e gerenciamentos dos riscos gerados por este, não podem ser rotulados de ignorantes e irracionais (Slovic, 1993).

Embora, o conhecimento científico, tradicionalmente, mostre-se seguro e com o controle dos fenômenos, atualmente, dentro desta perspectiva de complexidade e incerteza, coloca-se que a qualidade dos resultados da pesquisa passa pela ampliação dos olhares, onde os afetados pelo problema poderiam e deveriam participar do debate. De fato, o conflito entre especialistas e o público pode conduzir para aumentar o conhecimento científico, uma vez que, para este último, há um "saber-fazer", um entendimento das condições locais que poderiam permitir detectar, menos laboriosamente, os dados relevantes e, assim, ajudar na resolução dos problemas.

Quando Freitas et al. (1997) lembram que as análises e gerenciamento do risco não são somente um problema científico-tecnológica, mas também social, eles apontam para necessidade de incorporação do saber e participação daqueles que experimentam e se expõem aos riscos. Além disso, os autores comentam que desconsiderar esta posição seria uma deformação técnica e antiético.

Paim & Almeida-Filho (2000) destacam a importância da valorização das experiências subjetivas dos atores sociais e considera que o diálogo com outros saberes e práticas poderiam abrir novas perspectivas de reflexão e ação. E isto, sem dúvida, implicaria na necessidade de construção de um novo marco teórico-conceitual.

Estes novos participantes, então, denominados de "comunidade ampliada de pares", atuam, com o objetivo de garantir a qualidade dos resultados, transmitindo habilidades específicas, além de enriquecer as comunidades científicas tradicionais. Porém, é preciso compreender que este fenômeno não é, simplesmente, um resultado das pressões éticas e políticas que recaem sobre a ciência quando o público está preocupado (Funtowicz et al., 1993 e 1997).

De fato, para a ciência pós-normal a qualidade depende do diálogo entre todos os afetados. Então, o respeito mútuo entre os participantes no diálogo e o reconhecimento de que nenhum lado tem necessariamente o monopólio da verdade ou da moralidade, pode contribuir, sobremaneira, à construção do conhecimento científico (Healy, 1999; Ravetz, 1999; e, Ravetz et al., 1999).

A comunidade ampliada de pares, portanto, opera com o "Real", que se legitima a partir de uma variedade de noções estabelecidas, denotando uma descontinuidade com os aspectos do esclarecimento tradicional (Healy, 1999).

Não obstante, o debate não se dá tão pacificamente. Como apresentado anteriormente, a resolução dos problemas ocorre em função de, pelo menos, dois atributos. Por um lado, o conhecimento científico que busca atenuar as incertezas, por outro, as decisões em jogo que levam em consideração os interesses econômicos, os compromissos comerciais e os benefícios de cada parte envolvida na questão.

Posição semelhante é apresentada por Humberto Maturana (1998). O médico e biólogo alerta que o fenômeno de competição é do âmbito cultural humano e implica a negação do outro. Ora, mas todo argumento, sem erro lógico, é estritamente racional para aqueles que aceitam os pressupostos fundamentais em que este se baseia. Todavia, em toda competição, a vitória se constitui no fracasso do outro. Por outro lado, fato é, que viés nenhum está intrinsecamente equivocado por operar num domínio de realidade distinto daquele que é hegemônico. O autor, então, aponta para duas atitudes frente à capacidade de observar e conhecer: a) a "objetividade-sem-parênteses", cujo caminho explicativo direciona o observador a não se perguntar pela origem de suas habilidades cognitivas e aceitá-las como suas propriedades constitutivas. O que é válido, é porque é objetivo, pode ser medido, é a "realidade". Para este caminho explicativo, o que não está com o indivíduo, está contra ele e, fatalmente, contra a "realidade", os dados, as medições; e, b) a "objetividade-entre-parênteses", a qual compreende que não se pode pretender realizar uma referência a uma realidade independente de si próprio. Deste modo, o observador se faz ciente disto na intenção de entender que esta referência à realidade depende do observador para validar seu explicar. Em outras palavras, tudo é dito por um observador.

"No caminho explicativo da 'objetividade-entre-parênteses' não há verdade absoluta nem verdade relativa, mas muitas verdades diferentes em muitos domínios distintos" (Maturana, 1998, p. 48). Para o autor, então, há muitos domínios explicativos, igualmente legítimos, onde cada um deles constitui-se como explicação da experiência e, portanto, há de ser considerado um domínio da realidade. Se um pesquisador diz que quer explicar um fenômeno, o que ele quer explicar é a experiência de observar este fenômeno. A negação do outro neste "caminho" é uma negação responsável. Ela se dá dentro de "divergências lógicas", que surgem quando um dos atores comete um erro na aplicação das coerências operacionais que definem seu domínio racional, mas não dentro de "divergências ideológicas", as quais aparecem quando os domínios racionais são distintos e não há comunicação, não há diálogo entre os atores (Maturana, 1998).

É neste contexto que se formam as percepções que o público tem sobre as análises e gerenciamento dos riscos. Segundo Kasperson et al. (1988) o termo "amplificação social do risco" é um fenômeno composto pelas estruturas e processos sociais de experiência do risco, o resultado das repercussões nas percepções dos indivíduos e grupos e os efeitos destas respostas na comunidade, sociedade e economia.

De acordo com estes autores, a "amplificação social" designa o fenômeno pelo qual o processo de informações, as estruturas institucionais, o comportamento do grupo social e as respostas individuais formam a experiência social do risco e, por meio disto, contribuem para as conseqüências do risco. É, deste modo, que este conceito pode fornecer uma base teórica que torne mais compreensiva e poderosa a análise e o gerenciamento do risco na sociedade contemporânea.

Face a estas e outras discussões, cabe ressaltar que esta perspectiva de análise não suprime o saber científico tradicional, mas, antes, entende que os problemas devem transcorrer integrando diferentes olhares e questões (científicas, tecnológicas, sociais, econômicas, políticas, etc.).

 

C) Complexidade e as análises de risco

A perspectiva enunciada anteriormente demanda, então, outras formas de abordagem dos riscos. A visão tradicional e, talvez, hegemônica enfatiza uma visão estática da tecnologia. É, desta maneira, que Hilgartner (1992) sugere atacar duas deficiências da literatura a respeito da questão. Primeiro, os cientistas sociais deveriam realizar um maior esforço para analisar a estrutura conceitual das definições de risco. Para o autor, poucos analistas têm recomendado prestar atenção nos objetos que aparecem nestas definições, suas ligações e/ou as formas com que são construídos. Segundo, em geral, os analistas têm empregado uma visão antiquada de tecnologia, a qual é concebida em função das máquinas, materiais, facilidades industriais, ferramentas etc.

Os cientistas, então, têm se preocupado com aspectos objetivos da realidade. Mesmo quando é proposto uma análise das respostas subjetivas, estas são tratadas de modo objetivo, quantitativo e determinado. Contudo, a construção do problema não é tão simples. Estudos têm mostrado uma rede de causas funcionando de forma complexa. Cada objeto de análise pode ser construído a partir de uma cadeia de causas com várias ramificações e, cada uma delas comportar outras tantas ramificações e assim sucessivamente (Hilgartner,1992).

Neste sentido, tomando como exemplo o acidente aéreo do RG-254(76) pode-se atribuir as causas do acidente a: a) imperícia dos pilotos; b) insegurança da aeronave; c) insegurança do tráfego aéreo; ou, d) insegurança da empresa. A cadeia causal pode continuar neste último item considerando: d.1) imprecisão do plano de vôo fornecido pela empresa(77); d.2) deficiências no treinamento dos pilotos; d.3) escala mal elaborada, ocasionando fadiga; ou, d.4) política de corte de despesas. Reduzir custos pode significar: d.4.1) política de desemprego; d.4.2) corte de material e peças de reposição; entre outros fatores. A rede de possibilidades, a princípio, é infinita. Contudo, obviamente a culpa do acidente recaiu sobre os pilotos.

Deste modo, a perspectiva emergente concebe a tecnologia, não como artefatos ou máquinas isoladas, mas, antes, como um intricado sistema que tece relações entre a técnica e o meio social. Para Hilgartner (1992), a questão central desta perspectiva é o alargamento da visão que os indivíduos e as organizações podem construir sobre a tecnologia, a partir da variedade de componentes da rede. Vista, assim, esta perspectiva denominar-se-á de "rede sócio-técnica".

Forma semelhante de análise pode ser encontrada na "antropotecnologia" apresentada por Wisner (1994). Este autor, também, lembra da importância dos fatores sócio-político-econômicos. A antropotecnologia busca a adaptação da tecnologia à realidade do espaço social, ao tentar compreender e solucionar os problemas de origem econômica, geográfica, antropológica e, particularmente, do meio social e internos da empresa.

A teoria social dos acidentes industriais de Dwyer (1992) destaca quatro elementos fundamentais: o primeiro refere-se ao nível da "remuneração", encontrado sob a forma de incentivos financeiros com objetivo de promover maior intensidade de trabalho; horas extras; jornadas acrescentadas ao trabalho(78); e, recompensa simbólica, através de prestígio, ambição, status etc. (Bourdieu, 1992). O segundo elemento trata do nível do "comando", presente nas ações de autoritarismo, onde a autonomia do trabalhador está restringida ou nas pressões exercidas pela chefia, como nas ameaças de demissões; desintegração do grupo de trabalho, reduzindo a comunicação entre os trabalhadores; e, condução da servidão voluntária, a qual os trabalhadores parecem estar de acordo em participar de situações insatisfatórias. O terceiro refere-se ao nível "organizacional", que comporta as situações de baixa qualificação, rotina de trabalho, desorganização. Por fim, o ultimo elemento trata do nível do "indivíduo". Não é difícil imaginar as possíveis ligações que estes fatores podem ter com os acidentes de trabalho.

Em suas análises sobre o acidente da plataforma de petróleo de Piper Alpha, Paté-Cornell (1993) levantou diversos fatores que contribuíram para o acontecimento do acidente. Falhas na elaboração da planta da plataforma e no modo de operação; precariedade no funcionamento de alguns equipamentos e de manutenção; deficiências na comunicação entre as equipes de trabalho; número reduzido de empregados; promoção temporária de certo número de funcionários para posições acima de seus níveis regulares de responsabilidade, além da baixa experiência para função; deficiências no treinamento; ausência de plano e treinos para gerenciar momentos de crise; redução de custos; entre outros.

Num rápido comentário sobre o acidente da nave aeroespacial Challenger, ocorrido em 1986, Alain Wisner (1994) explica que houve "autoridade excessiva" por parte dos responsáveis pelo lançamento da nave. Segundo ele, as condições climáticas excepcionais no Estado da Flórida contribuíram para vulnerabilidade de algumas juntas, cuja ruptura resultou no dilaceramento do reservatório de líquido propulsor e, posteriormente, no incêndio e explosão.

Diane Vaughan (1992) ao analisar o acidente explora a contribuição organizacional para as falhas ocorridas. Para esta autora, é essencial compreender os fatores estruturais que poderiam conduzir ao acidente. Ela comenta que a decisão do lançamento foi influenciada por: a) o "ambiente competitivo(79)" que a NASA enfrentava no mercado mundial decorrente, principalmente, dos lançamentos de satélites comerciais; b) as "características da organização", fortemente centrada na hierarquia, divisões etc., limitavam, entre outras coisas, o acesso dos membros de cada unidade às informações pertinentes às outras unidades; e, c) o "ambiente regulador" (regulamentação, fiscalização e controle das organizações), uma vez que os mecanismos regulatórios para garantir a segurança eram insuficientes.

Um dos poucos estudos sobre aviação que aborda os problemas do risco sob um enfoque ampliado é o de Alice Itani (1998). Em "Trabalho e saúde na aviação: a experiência entre o invisível e o risco", a socióloga levanta questões importantes que se mantêm veladas na aviação. As incertezas começam na heterogeneidade dos sistemas e equipamentos instalados. As falhas nestes sistemas, amiúde, resultam num rompimento com a complexidade da automatização e no estado, subsequente, de incerteza e insegurança. Outro ponto levantado pela autora refere-se ao processo de manutenção das aeronaves, nem sempre devidamente controlada e realizada. Além das questões de competência(80) e alteração de equipamentos de modo irregular(81).

Itani (1998) lembra, também, que, no Brasil, um dos problemas encontrados é a hierarquização e militarização do setor, bem como, a dificuldade de se obter informações a respeito de acidentes e incidentes. Da mesma forma, as investigações de um acidente aéreo são tomadas de segredos. As incertezas, assim, estão presentes não só nos funcionamentos tecnológicos, mas, também, nas práticas sociais. Os interesses em jogo apresentam-se, também, bem constituídos e, segundo a autora, o Estado confunde seu papel com o de dirigentes empresarias.

A grande maioria dos estudos em aviação, por outro lado, não se apresentam sob este enfoque. Raymond et al. (1995), dentro da visão científica tradicional, avançam quando reconhecem como agentes estressores as rotas não familiares, o mau tempo, escalas imprevistas, ciclos irregulares de sono/vigília, instabilidade na carreira, pressões hierárquicas, interrupção de fins de semana e feriados, dificuldades de relacionamento familiar e social etc., e que estes podem interferir, sobremaneira, na capacidade de pilotar. Contudo, os autores retrocedem quando imputam este risco aos pilotos. Ao comentarem sobre os erros humanos como causas de acidentes(82) e sobre as estratégias de combate ao estresse, tais como, cursos de gerenciamento de estresse, terapias de modificação do comportamento, entre outras modalidades de tratamento, Raymond et al. (1995) lançam sobre os trabalhadores a responsabilidade dos acidentes, bem como, de seus próprios desconfortos.

Em outro estudo, a partir de dados de incidentes obtidos da "Federal Aviation Administration" (FAA), órgão responsável pela aviação nos Estados Unidos, McFadden (1997) encontrou diferenças entre as taxas de incidentes das "grandes" e "pequenas" companhias(83), cujos pilotos tenham sido responsabilizado. Os dados indicaram que pilotos empregados por "grandes" companhias tiveram uma taxa de erros mais baixa do que os pilotos de "pequenas" companhias. A autora comenta este fato simplesmente acreditando que a causa desta diferença manifestou-se em decorrência da maior experiência, maior idade e melhor seleção dos pilotos das "grandes" companhias. No entanto, não faz nenhuma menção às condições e organização do trabalho.

Percebe-se, assim, que a investigação sobre o "erro do piloto" é uma aplicação da moral, a qual, em última instância, busca atribuir responsabilidade a um indivíduo. As possibilidades de causa, contudo, são diversas e deveriam ser ponderadas.

O caso recente dos atentados nos Estados Unidos, por exemplo, é outra questão que deveria forçar uma revisão nas formas de compreender os acidentes. Naquele fato ocorreu um acidente de trabalho, onde o nível de "sabotagem" extrapolou o senso de racionalidade, através de comportamento dos "sabotadores" que simplesmente ignoraram o sentido humano de auto-proteção.

 

D) Complexidade e o campo da Saúde Pública

No processo saúde-doença, as causas biológicas têm sido reconhecidas por seus efeitos sobre os indivíduos. Sem dúvida, é possível relacioná-las a alterações que favorecem o aparecimento de diversas doenças. Contudo, este modo de olhar a saúde aponta para duas grandes inquietações: a visão estreita de saúde e a tomada de decisões em Saúde Pública.

A noção de saúde tem sido traduzida, principalmente, como ausência de doenças (Bentham, apud Lewis, 1986, p.1100) e como "um estado de completo bem-estar físico, mental e social e não apenas a ausência de doença ou enfermidade" (Organização Mundial da Saúde, apud Lewis, 1986, p.1100). Além disto, tem freqüentemente se pautado nas explicações biológicas.

Estas perspectivas, embora pareçam diferir, conduzem para análises reducionistas, uma vez que, para elas: a) as doenças decorrem de determinismos biológicos; b) o foco é centrado no indivíduo; c) a ausência de doenças é o "marcador" da saúde; e, d) a idéia ingênua de "completude" ou perfeição. Neste sentido, o primeiro problema que daí decorre, refere-se ao processo de "culpabilização" do indivíduo frente ao aparecimento de doenças que, em última instância, poderiam ter sido evitadas.

Ora, se o processo saúde-doença fosse uma determinação biológica, caberia ao indivíduo alterar seus hábitos de saúde e estilos de vida para encerrar a causa e, assim, cessar o efeito. Logo, as atitudes ditas adequadas que conduziriam o sujeito à saúde ou à ausência de doenças, óbvio, seriam responsabilidades do próprio indivíduo.

Burnley (1998) lembra que, entre as teorias que buscam explicar as causas das doenças, a teoria do "estilo de vida", congruente com a ideologia dominante de saúde, sugere que a prevenção é uma responsabilidade pessoal, cujo foco de intervenção se dará sobre o controle dos fatores de risco individuais(84).

Contudo, este processo não se dá de forma tão simples. De fato, a complexidade que abarca tal questão obriga a repensar tanto o conceito de saúde, como as intervenções que se dão neste campo. Embora não se pretenda, neste momento, definir o que é "saúde", é possível construir um novo entendimento do que seja saúde em consonância com a compreensão da sociedade, na medida em que, os fatores de risco não são suficientes para explicar as variações de mortalidade e morbidade desta sociedade. O foco de análise, deste modo, ultrapassa o indivíduo e recai sobre o social e o ecológico. O modo de "olhar" concentra-se, não apenas nas causas biológicas, mas antes, nas relações entre os indivíduos, grupos sociais, instituições, meio ambiente, economia, política, cultura, entre outros (Waltner-Toews, 2001; Possas, 2001; Navarro, 1998a; Burnley, 1998 e Lawson, 1992).

Sem dúvida, apreciar o campo da Saúde Pública deveria requerer um pensamento além do biológico. Os problemas de saúde existentes atualmente em todo mundo estão, assim, relacionados a uma rede complexa de interações, que comportam desde as desigualdades sociais, os problemas fundamentais da distribuição da riqueza e de exclusão social, até questões ecológicas e diversidades culturais (Possas, 2001 e Waltner-Toews, 2000).

O processo de globalização da economia, cuja tendência reflete a hegemonia do capital financeiro internacional e especulativo, não solucionou os problemas mais agudos das sociedades no mundo: as desigualdades na distribuição de renda, os efeitos devastadores sobre o meio ambiente, a fome, o desemprego. Para Possas (2001) é, então, inadequado compreender e/ou tratar de "saúde" desconsiderando vários processos sociais e ecológicos, tais como pobreza, migração, urbanização, desflorestamento. A autora comenta, ainda, que estes processos favorecem a emergência e re-emergência de diversas doenças.

Emergência da doença resulta de possíveis novas propriedades presentes em um sistema complexo, as quais não são redutíveis a um simples sistema combinando elementos. Isto significa, por exemplo, que o controle de algumas doenças, através da reestruturação do ambiente, pode conduzir a emergência de outras doenças, como foi o caso do DDT, que ao ser usado no controle da malária pôs em perigo a integridade de insetos polinizadores, pássaros e alimentos. O mesmo pode ocorrer nas políticas de estoque e barateamento de alimentos, que combatem a fome, mas podem trazer problemas relacionados à obesidade (Waltner-Toews, 2001 e Possas, 2001). Para Waltner-Toews (2001), um segundo ponto, embora menos óbvio, deve ser levantado. Algumas estratégias baseadas no modelo biomédico, como a vacinação, podem enfraquecer a capacidade do indivíduo adaptar-se ao seu próprio ambiente.

Re-emergência, por outro lado, tem sido definida como o ressurgimento de uma doença conhecida após um declínio significante em sua incidência. A febre amarela, erradicada das áreas urbanas no Brasil desde 1942, tem retornado a estas áreas em razão da penetração do homem nos nichos ecológicos do mosquito transmissor, além do desflorestamento (Possas, 2001).

A visão complexa da realidade observa que estas dificuldades teórico-metodológicas afetam as políticas e tomadas de decisão que tratam das doenças emergentes e re-emergentes. Para Possas (2001), o desafio pode ser examinado dentro de duas perspectivas: a) a primeira refere-se às condições para criação de capacidades técnico-científicas necessárias para antecipação do risco e às projeções de cenários para futuras doenças emergentes e re-emergentes; b) a segunda, aludida às informações sobre as condições de risco. Esta abordagem, por vezes denominada como "sistemas complexos" ou "ecossistêmica" encontra ressonância em diversos outros trabalhos (Waltner-Toews, 2001; Paim et al., 2000; Levins et al., 1996; Possas et al., 1994; e, Schramm et al., 1992).

Waltner-Toews (2001), seguindo o mesmo compasso, elabora uma crítica à visão reducionista presente na "ciência normal". Se por um lado, está bastante evidente a complexidade presente nos fenômenos ao redor do mundo, por outro, é fundamental considerar que a propriedade da interação entre os próprios observadores e estes fenômenos fazem parte desta complexidade. A ciência normal, deste modo, assume uma posição que se pretende "objetiva", como um observador externo. Uma outra abordagem, então, deve estudar e promover a saúde considerando os diferentes resultados ecológicos, sociais e biológicos. Esta abordagem, em consonância com o pensamento pós-normal, complexo e/ou ecossistêmico, está baseada num sistema fechado de auto-organização e "holarquia" (SOHO)(85).

O sistema SOHO é caracterizado por padrões de interação que ocorrem em agrupadas hierarquias, por vezes chamada de "holarquias". Cada unidade (holon) da "holarquia" é, ao mesmo tempo, um todo e uma parte. As pessoas, por exemplo, integram uma família, que pertencem a um bairro, que são partes de um município, e assim por diante. Assim, uma iniciativa em saúde em uma determinada comunidade ou bairro pode ter influência sobre as unidades maiores (cidades) e/ou menores (famílias e indivíduos).

As interações no sistema SOHO, porém, podem ser representadas por retroalimentações positivas e negativas, tal como no caso do DDT. A quantidade de informações e retroalimentações lançadas dentro do sistema tornam-se organizadas. Os elementos estão fortemente relacionados uns com os outros, em prol do próprio bem-estar e do bem-estar do todo. Esta combinação é denominada "auto-organização"(86). A importância destas conexões, segundo Waltner-Toews (2001), reside não no setores isolados (economia, meio ambiente, saúde etc.), mas, no fluxo de recursos e informações. Deste modo, as atividades que habilitam a comunidade a melhor fazer uso dos recursos e informações são, provavelmente, aquelas que têm maiores impactos sobre a saúde da população.

Num debate estimulante a respeito do papel emergente da Saúde Pública, Paim et al. (2000), declaram a importância que os novos profissionais têm de cumprirem distintos papéis, os quais começam pela necessidade de trazer à tona, considerando o contexto histórico-político-social, os conhecimento, êxitos e fracassos na luta em prol da cidadania e bem-estar; passam pela atribuição de produzir e agregar conhecimentos científico-tecnológicos e outros saberes; gerenciar recursos escassos; mediar os problemas de saúde e as decisões políticas em jogo; bem como, denunciar e mobilizar a sociedade à realização de seu direito à saúde.

Embora, a compreensão do papel da Saúde Pública esteja longe de entrar em consenso na literatura, observa-se alguns pontos importantes nas reflexões trazidas à tona pela "Nova Saúde Pública": a) incorporação da sociedade na pauta das reformas sobre saúde; b) destaque da importância dos "espaços de excelência", que funcionariam como "redes institucionais agregadoras de valor"; c) implementação de uma política de eqüidade, solidariedade e justiça para enfrentar o desafio da saúde; d) superação do "biologismo" dominante, da naturalização da vida social, bem como, a submissão e dependência à clínica e ao modelo médico dominante (Waltner-Toews, 2000 e Paim et al., 2000).

É, neste sentido, que as teorias dos sistemas complexos buscam, na variedade de corpos de conhecimentos, compreender e superar o afastamento entre os mundos natural e histórico, além de negociar um aprendizado baseado na resolução de conflitos, considerando as imprevisibilidades, as auto-organizações, enfim, as dinâmicas complexas. E aí, tanto os estudos científicos, quanto a participação comunitária são necessários à abordagem.

 

3.3. RISCO, INDIVÍDUO E SOCIEDADE

3.3.1. Risco

Anthony Giddens, em seu livro "As conseqüências da modernidade" (1991), propõe que se olhe novamente para a natureza da modernidade, para este período em que se vive as conseqüências, cada vez mais radicalizadas e universalizadas, da modernidade, ao invés de considerar o encerramento de um determinado sistema social.

Dentro desta perspectiva, para o autor, as "sociedades capitalistas" são consideradas como uma dimensão institucional da modernidade. Uma sociedade capitalista conta com algumas características específicas. Em primeiro lugar, sua ordem econômica envolve uma natureza fortemente competitiva e expansionista, além de implicar na constante e difusa inovação tecnológica. Em segundo, a instituição "economia" apresenta-se "separada" de outras instituições sociais. Um terceiro ponto refere-se ao fato de que esta segunda característica se fundamenta na posse privada de capital, a qual está ligada ao fenômeno da transformação do trabalho assalariado em mercadoria e no sistema de classes. Uma última característica aponta que a autonomia do estado é condicionada pela sua dependência da acumulação do capital.

Outra dimensão institucional, além do capitalismo, é a "vigilância", essencial a qualquer tipo de organização da modernidade e que se expressa nas ações de controle da informação e supervisão social. A rede de controle repousa sobre as constituições e a supervisão dos desvios, que está protegida, em última instância, pela dimensão institucional do "poder militar". Este, além disso, controla os meios de violência externa, no contexto da industrialização da guerra. Uma quarta dimensão institucional da modernidade é a "industrialização". Na modernidade, a indústria pode, a partir da associação entre ciência e técnica, transformar a natureza de modo nunca antes imaginável.

Contudo, o "industrialização" tem um profundo impacto sobre a vida cotidiana e a interação do homem com o meio ambiente. Para Giddens (1991), a tecnologia moderna freqüentemente altera as relações entre a organização social humana e o meio ambiente. Um exemplo, é o uso dos "organismos geneticamente modificados". Deste modo, a difusão do industrialismo provocou um mundo, de certa forma, mais ameaçador, um mundo onde há transformações ecológicas perigosas ou potencialmente perigosas.

Corroborando com este pensamento, Freitas (2000) lembra que os acidentes industriais surgiram com a industrialização e desenvolvimento de novas tecnologias, a partir da Revolução Industrial. Além disto, os acidentes industriais tomaram maior importância a partir da elevação da produção e consumo dos produtos industrializados.

A idéia de que o trabalho é marcado por certos "riscos" é, assim, obviamente familiar e tem sido trazida à tona em diversos estudos. Na aviação, até mesmo pelo desafio que outrora parecia impossível, os riscos apresentam-se freqüentemente. Trabalhar como aeronauta é, segundo Itani (1998) viver o risco como conteúdo do trabalho. Para estes trabalhadores há riscos pela inculpação da responsabilidade por falhas durante o vôo e danos proporcionados aos passageiros; incriminação em caso de acidentes; perda de emprego, mas, sobretudo por danos ou perda da própria vida(87).

Contudo, para melhor situar a discussão sobre o trabalho em aviação, a saúde dos aeronautas e os acidentes aeronáuticos cabe refletir sobre o conceito de "risco". Para Brito et al (1991), a noção de risco enfrenta, de imediato, um problema. A língua inglesa apresenta as palavras "hazard" e "risk"(88), onde a primeira é utilizada para expressar um risco, a partir da ação de um agente particular ou situação perigosa e a segunda para designar uma análise, normalmente quantitativa tal como o estudo de probabilidades, da presença de um risco (hazard) que pode desencadear doenças e acidentes. Esta compreensão encontra ressonância na literatura. Short Jr. (1992) designa "hazard" (perigo) como algo que ameaça às pessoas e elas valorizam e "risk" (risco) como uma combinação de medidas de probabilidade de ocorrência de algum evento ou efeitos adversos. Do mesmo modo, Freitas et al. (1997) comentam que na atualidade os conceitos de risco têm focado estritamente a probabilidade de ocorrência dos eventos e a magnitude de suas específicas conseqüências.

Para Brian Wynne (1987) uma definição convencional de risco é o produto dos danos que um evento poderiam causar e suas probabilidades de ocorrência. Deste modo, o "risco" poderia ser expresso como o número estimado de mortes ou outros danos por unidade de tempo atribuíveis a uma dada atividade. Porém, segundo Wynne (1987) este entendimento não abarca todas as situações. Uma indústria química poderia, por exemplo, emitir uma nuvem letal de gases tóxicos durante anos, numa região remota e, assim, ter baixos danos. O autor levanta, então, a limitação que ocorre ao se tentar restringir as análises de risco por quaisquer unidades de produção (tempo de trabalho, capital produzido, tempo de exposição, etc.), pois as tentativas de decompor os fatores de risco não capturam as essenciais propriedades do objeto de análise.

Uma visão mais abrangente pode ser encontrada em Kasperson et al. (1988). Para estes pesquisadores a investigação dos riscos é, de uma só vez, uma atividade científica e uma expressão da cultura. Deste modo, por exemplo, eventos de risco com menor conseqüências, muitas vezes, trazem à tona grandes inquietações públicas e produzem um extraordinário impacto social, em níveis não previstos. Neste sentido, a tese principal apresentada defendida pelos autores é que o perigo interage com processos psicológicos, sociais, institucionais e culturais, de tal forma que pode contribuir para ampliar ou atenuar as respostas públicas às situações de risco. A amplificação ocorre em dois estágios: primeiro, na transferência de informações sobre o risco; e, segundo, nos mecanismos de respostas da sociedade. Assim, as análises de risco devem incorporar uma variedade de métodos para identificar e avaliar os riscos, além de vários grupos competindo baseados em suas próprias percepções.

Posições semelhantes podem ser encontradas em diversos outros estudos. Freitas et al. (1997) sugerem incorporar o diálogo entre as diversas abordagens teórico-metodológicas das ciências sociais, entre as ciências sociais e as diversas disciplinas que participam das análises de riscos; e, a incorporação dos saberes e dos atores que vivenciam e se expõem aos riscos diariamente. Na mesma linha de pensamento, Funtowicz et al. (1997), igualmente, ponderam sobre a importância da participação ampliada de pares e a inclusão daqueles que experimentam os riscos. Mas, lembram que isto não se refere aos pontos de vista que fomentam um "tudo vale" na ciência. Do contrário, os autores acreditam que a ciência pós-normal apoia-se numa análise crítica a qual utiliza, também, o conhecimento científico.

Anthony Giddens (1991), então, ao tratar das sociedades contemporâneas, comenta que risco e perigo estão intimamente relacionados, embora não sejam a mesma coisa. O "perigo" é considerado como uma ameaça aos resultados desejados. O "risco", por outro lado, pressupõe o perigo, porém, não necessariamente sua consciência. Alguém que se submete ao risco está, de fato, cortejando o perigo. Contudo, é possível assumir ações ou passar por situações as quais os riscos estão presentes, tendo os indivíduos consciências ("risco calculado") ou não de que estão se arriscando. Nesta perspectiva, o autor define, ainda, "confiança" como uma crença que um indivíduo deposita em outro ou em um sistema, em função de um determinado conjunto de resultados ou eventos. A "crença", de outro modo, refere-se à expressão de fé na honestidade, amor ou conhecimento técnico de um outro. Por fim, "segurança" pode ser entendida como a situação pela qual um conjunto de situações perigosas encontra-se neutralizada ou minimizada. A percepção de segurança está baseada no equilíbrio entre confiança e risco aceitável.

 

3.3.2. Vulnerabilidade

A noção de "exclusão social" está fortemente associada ao crescente desemprego surgido nas últimas décadas, em virtude, principalmente, das alterações ocorridas na economia internacional. Vários autores, porém, procuram não ficar presos a este entendimento e avançam ao considerarem outros aspectos relevantes.

Dupas (1999), por exemplo, revê o conceito do termo, mas o delimita, para seu estudo, com um enfoque sobre a pobreza, a qual ele considera a principal dimensão da exclusão, uma vez que aquela dificulta o acesso real aos serviços e bens de consumo julgados adequados a uma sobrevivência digna. Sob este olhar, a literatura parece concordar que, após a segunda grande guerra, instalou-se nos países centrais o estado de bem-estar, o qual não deve ser encarado como "caridade" ou "fornecimento de donativos individuais", mas do contrário, como um direito do cidadão, como uma forma de "seguro coletivo" (Bauman, 1998).

O longo período de expansão do pós-guerra, que se estendeu de 1945 a 1973, representou um poder político-econômico que pode ser denominado de "fordismo-keynesiano". A mudança em curso entre as práticas político-econômicas do período de expansão do pós-guerra e os dias atuais sinalizam para uma passagem do "fordismo" para um regime que pode ser denominado de "acumulação flexível" (Harvey, 1996). Para Navarro (1998b), a "ortodoxia" neoliberal surge a partir de 1980 considerando o estado e suas intervenções como obstáculo à economia e ao desenvolvimento social. Ainda para o autor, o surgimento desta configuração foi facilitada pelas eleições de Ronald Reagan nos Estados Unidos e de Margaret Thatcher no Reino Unido, em 1980 e 1979, respectivamente.

De fato, a "acumulação flexível" caracteriza-se pelo choque direto com a rigidez do "fordismo". Este modo de regulamentação é marcado pela flexibilidade nos processos e mercados de trabalho, dos produtos e padrões de consumo. Caracteriza-se, ainda, pelo surgimento de novos setores de produção, modos de fornecimento de serviços financeiros, mercados e atendimento rápido às suas necessidades, intensificação da inovação tecnológica. A reestruturação produtiva passou pela forte volatilidade do mercado, do aumento da competição entre as empresas e os indivíduos, do enfraquecimento do poder sindical e, devido a grande reserva de mão-de-obra provocada pelo desemprego ou subemprego, impôs os regimes e contratos de trabalho flexíveis (Harvey, 1996; Kurz, 1997 e Dupas, 1999).

Neste momento histórico, observa-se claramente um processo de internacionalização da economia capitalista, o qual vem sendo nomeado de "globalização", que revela características como: a) desregulação dos mercados financeiros, bem como sua maior internacionalização; b) aumento no fluxo do comércio internacional; c) diminuição ou queda de barreiras protecionistas; d) enfraquecimento do poder do estado nacional; e) deslocamento da produção, pelas empresas transnacionais, para onde representar as maiores vantagens comparativas; f) transformações não só no plano político-econômico, mas, também, nos valores sociais; entre outras (Harvey, 1996 e Dupas, 1999).

Apesar de alguns autores argumentarem que o fenômeno não é de todo uma novidade na história, este processo de globalização vem sendo apontado como um importante condutor da maior vulnerabilidade dos grupos desprivilegiados, além, do descompromisso do estado com o bem-estar social (Navarro, 1998b; Kurz, 1997 e Dupas, 1999).

A exclusão social passaria, à primeira vista, pela pobreza material advinda, entre outros, da má distribuição de renda que se instala cada vez mais em várias sociedades e que interfere na possibilidade de satisfazer as necessidades básicas. São criados, então, critérios econômicos para definição daqueles que são ou não excluídos. Porém, estes critérios esbarram em diversas dificuldades práticas.

Dois indivíduos podem ter rendas iguais, mas um deles comportar um problema de saúde que exija um gasto mensal com remédios e tratamento, que torne distinta sua situação de pobreza. Deste modo, a situação econômica não pode ser analisada isoladamente entre as reais possibilidades de conversão da renda e as capacidades para "funcionar" (Dupas, 1999 e Sen, 2001).

Definir o termo "exclusão social", contudo, por um aspecto estritamente econômico parece não ser adequado. Na verdade, a definição é bem complexa. Demo (1998) frisa que a pobreza material é sempre marcante, mas que o processo de exclusão passaria pela perda do senso de pertencimento, uma vez que os indivíduos experimentariam um abandono geral, além da incapacidade de reagir. A novidade é que o debate não repousa mais sobre a visão marxista de classes sociais. Os protagonistas agora são os grupos sociais, definidos em função de interesses coletivos (Santos, 1999a e Demo, 1998).

Pode-se, então, considerar que de fato os excluídos carecem dos bens e serviços necessários, mas para além disto é preciso considerar, também, que o cerne da questão passa pela precariedade da cidadania. Bauman (1998) coloca o dedo na ferida e lembra que os "excluídos" são tratados pela sociedade como "estranhos", os quais foram negados os recursos de construção da identidade e, deste modo, os instrumentos da cidadania. O aspecto político da exclusão revela que seu maior problema é a falta de cidadania, que impede os excluídos de perceberem como as carências são impostas e as oportunidades obstruídas.

Demo (1998) comenta, ainda, que a inserção pode ser um modo elegante de exclusão. Ao buscar soluções assistencialistas ou de inserção ao percurso de privação, os indivíduos continuam desafiliados, desqualificados, inválidos, dissociados, porque na grande maioria das vezes não é atendida uma questão muito simples, a dos direitos humanos. Em outras palavras, parece que as soluções assistencialistas cumprem um papel de tolerância ao outro. Contudo, "a tolerância é uma negação postergada" (Maturana, 1998, p.50). Assim, tolerar significa expressar que o outro está em desacordo, equivocado, mas permite-se aceitá-lo.

Não é viável, também, tentar compreender a exclusão desconsiderando o conflito social. O "estranho" é considerado odioso. De fato, a sociedade suporta pouco aqueles que transgridem os limites e, assim, os convertem em estranhos. Dejours (1999) observa que os indivíduos partilham um sentimento de medo e insegurança diante da ameaça de exclusão, mas adotam freqüentemente uma postura de resignação. Os concidadãos são tomados por uma racionalidade "naturalista" que atribui ao infortúnio da exclusão uma causalidade do destino, uma adversidade ou por uma racionalidade culpabilizante, mas dificilmente como injustiça social. O autor comenta, porém, que este ato pode ser visto como uma "defesa" contra a consciência dolorosa da cumplicidade. A este processo de criação de condições específicas de obtenção do consentimento e cooperação de todos, bem como sua valorização social, Dejours (1999) designa de "banalização do mal", em referência ao termo cunhado por Hannah Arendt, em seu livro "Eichmann em Jerusalém", ao refletir sobre os atos do ex-oficial nazista Adolf Eichmann, que resultaram no assassinato de milhares de judeus.

O economista Amartya Sen (2001) trouxe à tona uma discussão interessante sobre a desigualdade. A partir das perguntas "por que igualdade?" e "igualdade de quê?", o autor buscou reexaminar o que significa as interpretações sobre desigualdade, a pluralidade de variáveis que se pode focalizar, a diversidade humana e, deste modo, orientar sobre certas ingenuidades as quais se poderia evitar nos estudos a respeito das desigualdades.

É preciso, pois, observar, de imediato, dois critérios fundamentais, presentes nos estudos de Amartya Sen (2001): a) a liberdade para realizar algo; e, b) a realização de fato conseguida. A liberdade liga-se à oportunidade real que se tem para fazer ou alcançar aquilo que se valoriza, enquanto a realização refere-se ao que se consegue fazer ou alcançar.

No rastro deste debate, Santos (1999a) lembra que a emancipação dos excluídos não perpassa só o caminho da política e da economia, mas é, antes, individual, social e cultural. Segundo o sociólogo, para abolir as formas de opressão e exclusão social não basta conceder os direitos, é preciso, também, organizar a reconversão dos processos de socialização e de inculcação cultural. Dupas (1999) analisa rapidamente este fenômeno e cita que o próprio conceito "exclusão" deve ser formulado, em cada sociedade, sob a influência de questões sócio-culturais.

Os excluídos, por outro lado, não são totalmente impotentes, eles ameaçam a ordem social, uma vez que não desistiram definitivamente de reagir. E, neste sentido, pertencem ao sistema. O processo de exclusão é, então, uma forma contraditória de inclusão e vice-versa.

É preciso, pois, repensar o contrato social na contemporaneidade. Santos (1999b) aponta para uma "crise" no contrato social nos termos de Rosseau. Para o autor, esta crise se revela, em primeiro lugar, na contratualização liberal individualista, pautada na idéia do contrato entre indivíduos e não entre agregações coletivas de interesses sociais divergentes. Em segundo lugar, este novo contrato não estabelece nenhuma garantia de estabilidade. Por fim, o contrato liberal vigente não reconhece o conflito e a luta como elementos do debate e os substitui, ao contrário, pela concordância passiva. Assim, no "rastro" do processo de globalização é que se funda aquilo que Santos (1999b) denominou "pós-contratualismo" e "pré-contratualismo". O primeiro consiste no processo pelo qual os grupos sociais incluídos no contrato social passam a ser excluídos sem qualquer perspectiva de retorno e o segundo, significa o bloqueamento do acesso à cidadania por parte daqueles que eram candidatos a tomar parte dela.

A saída proposta pelo autor é, grosso modo, "reinventar" a democracia. Não uma democracia representativa, mas, antes, uma democracia participativa (Santos, 1999a e 1999b). Esta idéia encontra consonância em Slovic (1993). Santos (1999a e 1999b) lembra, no entanto, que existe um distanciamento entre o exercício da democracia e as desigualdades sócio-econômicas, tanto no nível dos cidadãos, quanto entre as nações centrais e periféricas.

A história da saúde pública é repleta de exemplos onde o tecido social provocou alguma deterioração nos mecanismos de defesa e, consequentemente, resultou em problemas epidemiológicas. Os estudos de Snow, Virchow, Pasteur, Koch, Engels, entre outros, enfatizaram bem esta questão da vulnerabilidade que certos grupos apresentavam em relação à saúde. Contudo, a vulnerabilidade pode manifestar-se não só em decorrência das condições sociais de vida desfavoráveis. A vulnerabilidade individual, biológica(89), geográfica(90), entre outras, são, também, fundamentais para se compreender os agravos à saúde.

Numa breve, mas esclarecedora, revisão sobre o assunto, Horlick-Jones (1992) explica que o termo "vulnerabilidade" foi primeiramente utilizado nos estudos sobre acidentes, em 1976, por O’Keefe, Westgate e Wisner. Estes autores exploraram o papel dos fatores sócio-econômicos em criar uma resposta enfraquecida aos efeitos naturais adversos.

Contudo, o conceito de vulnerabilidade pôde, além de tratar dos acidentes naturais, ser estendido àqueles "feitos pelo homem". Deste modo, Timmerman, em 1981, definiu vulnerabilidade como o grau que um sistema pode reagir adversamente à ocorrência de um evento perigoso. Além disso, traz à tona o conceito de "poder de recuperação", como a capacidade do sistema absorver e se recuperar da ocorrência deste tipo de evento (Horlick-Jones, 1992).

Posteriormente, os trabalhos sobre vulnerabilidade revelaram a importância das condições sócio-econômicas em gerar susceptibilidade aos eventos perigos, bem como, relacioná-los ao desenvolvimento econômico. Porém, esta perspectiva provocou reações contrárias. Pearce apud Horlick-Jones (1992), ao refletir sobre as conseqüências de um terremoto, lembrou que as pessoas que sofrem com os desastres não são necessariamente pobres.

As análises do acidente de Bhopal realizadas por Bogart, em 1989, incluíram a sustentação que, em nível global, a vulnerabilidade para o perigo parece estar aumentando. Ele atribuiu este processo ao aumento das possibilidades de engano e incertezas nas medidas de proteção, que surgiram com o aumento da complexidade dos sistemas.

Pôde-se, também, destacar a vulnerabilidade das mulheres, idosos, crianças, pessoas com deficiências aos eventos perigosos, especialmente em situações de evacuação.

As diversas apreciações sobre o conceito de vulnerabilidade, apresentadas por Horlick-Jones (1992), conduzem a duas concepções generalizadas. Por um lado, tratam a vulnerabilidade como uma erosão do poder de reação de um determinado sistema às perturbações geradas pela interação entre este mesmo sistema e o ambiente. Por outro, expõem a suscetibilidade que determinados grupos, muitas vezes denominados de "grupos de risco", apresentam à aparição das perturbações.

Dentro deste contexto, De Marchi apud Horlick-Jones (1992) sustenta a importância da informação e dos meios de comunicação para reduzir a vulnerabilidade das populações e distinguir sua emergência a partir de quatro distintas circunstâncias.

  1. "local", ou seja, através da proximidade geográfica do perigo;
  2. "condições de vida", a partir da observação da prosperidade, classes, gênero, etnia e outros fatores sociais;
  3. "auto-proteção", isto é, a capacidade da população proteger a si própria do perigo, incluindo o acesso aos equipamentos e informações necessários;
  4. "proteção social", através das ações da sociedade para providenciar medidas de mitigação ao perigo, incluindo recursos e conhecimento técnico.

Ao discorrer sobre o problema da AIDS no mundo, Mann et al. (1993) trazem à tona a questão da vulnerabilidade. Inicialmente, os autores sustentam que existe uma "vulnerabilidade biológica" presente em todos os seres humanos. A probabilidade da pessoa tornar-se soropositiva, através da exposição ao vírus por relação sexual sem proteção ou transfusão de sangue, é extremamente elevada. Se há uma resistência biológica à infecção pelo HIV, ela ainda não foi descoberta.

Contudo, os autores lembram que, além da suscetibilidade biológica, repousam outros fatores e influências os quais relacionam-se ao crescimento da epidemia do HIV pelo mundo. Assim, existe uma "vulnerabilidade individual" diretamente ligada à questão biológica, mas, também, ao comportamento pessoal, às condições cognitivas, ao acesso pessoal às informações, entre outros. Mann et al. (1993) não esquecem, porém, que estes fatores estão, de certo modo, conectados socialmente e alteram-se constantemente.

Mann et al. (1993), ao comentar sobre o risco de infecção pelo HIV, explicam que o HIV necessita de ações/comportamentos específicos para que ocorra a transmissão do vírus. Assim, o comportamento individual seria o determinante final da vulnerabilidade à infecção pelo HIV. Porém, o que os autores propõem é considerar, na avaliação da vulnerabilidade, os fatores presentes na comunidade que podem influenciar a vulnerabilidade pessoal.

É desta forma, que suscita a importância da "vulnerabilidade coletiva" (ou social). Neste ponto, Mann et al. (1993) elaboraram, através da soma de valores determinados em itens específicos, uma medida para classificar a vulnerabilidade social em "alta", "média" ou "baixa". Estes valores são provenientes de dados disponíveis no Relatório de Desenvolvimento Humano, do Programa de Desenvolvimento das Nações Unidas. São considerados, então, oito índices. O índice 1 refere-se ao acesso à informação, avaliado pelo número de rádios per capita e televisões por 1.000 indivíduos; o índice 2 é obtido através das despesas com saúde (% do PNB e % do PIB); o índice 3 a partir do acesso aos serviços de saúde; o índice 4 através da mortalidade antes dos cinco anos de idade; o índice 5 refere-se à condição geral das mulheres em cada país ou região; o índice 6 é verificado a partir de um indicador da liberdade humana constituído de outros 40 indicadores isolados; o índice 7 através da relação entre despesas militares e gastos com educação e saúde; e, por fim, o índice 8, de maior peso, é obtido através do próprio "Índice de Desenvolvimento Humano".

A partir daí os autores ainda propõem uma interação entre o índice de vulnerabilidade social e os programas nacionais de combate à AIDS. Desta forma, concluem que em países como a Suécia, de baixa vulnerabilidade social, a vulnerabilidade nacional poderia crescer em dependência da qualidade do seu programa. O mesmo ocorreria com a Índia, de alta vulnerabilidade social(92), a qual deveria ter um excelente programa para fazer reduzir a vulnerabilidade nacional.

Outra revisão do conceito de vulnerabilidade foi elaborada por Delor & Hubert (2000). Os autores reconhecem, de imediato, a ambigüidade do uso do termo "vulnerabilidade" e a importância de conceituá-lo mais precisamente, sob o risco deste perder sua capacidade heurística. Dentre os trabalhos, por eles, revisados encontra-se o de Watts e Bothe, o qual traz à tona o entendimento de "espaço de vulnerabilidade", onde manifestam-se três coordenadas de vulnerabilidade: o risco de estar exposto a situações de crise (exposição); o risco de não ter recursos necessários para lutar contra estas situações (capacidade); e, o risco de estar sujeito a sérias conseqüências como resultado das crises (potencialidade). Estes espaços, assim, estão superpostos e acabam por reforçar a vulnerabilidade individual. Deste modo, os indivíduos não têm a mesma vulnerabilidade em diferentes contextos.

A definição do conceito de vulnerabilidade nas pesquisas sobre pessoas portadoras de HIV/AIDS, no entanto, é apresentada por Delor & Hubert (2000), a partir de três níveis: o primeiro nível refere-se à "trajetória social", onde cada indivíduo segue diferentes fases de sua trajetória de vida. Este nível se relaciona ao curso individual da vida, idade, identidade, projeto de vida etc. O segundo nível, "cruzamento", ocorre na interação entre duas "trajetórias". De fato, lembram os autores, a infecção pelo HIV requer que no mínimo dois indivíduos e, deste modo, duas trajetórias se encontrem. O terceiro e último nível é imputado ao "contexto social". Este nível influencia o momento, as decisões em jogo e as formas de encontros entre as diferentes trajetórias.

Por fim, a resolução do problema da vulnerabilidade perpassaria, então, pela participação mais democrática dos atores sociais. Isto se daria, inicialmente, respeitando-se os direitos básicos do cidadão. Seria preciso, ainda, lutar por uma sociedade cujos indivíduos não ficassem tão expostos e enfraquecidos frente aos riscos, embora não se tenha, ainda, "fórmulas" eficazes contra tais questões. Contudo, o que se propõe, aqui, é a incorporação imediata do conceito de "vulnerabilidade" para as análises das situações de risco.

 

3.3.3. Risco e Vulnerabilidade

A) Vulnerabilidade e acidentes de trabalho

Um dos acidentes mais famosos foi, sem dúvida, o naufrágio do transatlântico S. S. Titanic ocorrido em 15 de abril de 1912. A bordo do enorme navio de transporte 1.316 passageiros, distribuídos em três classes, e 885 tripulantes. Do total de 325 passageiros da primeira classe, 203 (62,46%) conseguiram se salvar. Na segunda classe, salvaram-se 118 pessoas (41,40%) de um total de 285. Na terceira classe, que comportava 706 passageiros, sobreviveram 178 (25,21%).

Uma análise mais recente sobre o acidente e a investigação do mesmo (Hall, 1986) realçou a vulnerabilidade do grupo social que viajava na terceira classe. De fato, as chances de sobrevivência declinaram linearmente da primeira para a última classe (p<0,007). As razões levantadas na época é que: a) os passageiros da terceira classe foram deliberadamente excluídos dos botes salva-vidas; b) o projeto da embarcação desfavorecia os passageiros da terceira classe, de tal modo que dificultava o acesso ao salvamento; e, c) os passageiros da terceira classe reduziram suas chances devido ao próprio comportamento. Contudo, a despeito das claras evidências, o relatório de investigação do acidente considerou a última hipótese.

Por outro lado, Hall (1986) esclarece que a posição dos botes; a política de atenção diferenciada por classes; e, mesmo, a exclusão dos passageiros da terceira classe favoreceram as duas primeiras classes.

Lima et al. (1999), ao estudarem as características dos acidentes de trabalho típicos notificados do Instituto Nacional de Seguridade Social de Pelotas, demostraram, também, que os trabalhadores de baixa renda apresentavam três vezes mais riscos de se acidentarem do que aqueles com renda igual ou superior a seis salários mínimos, quando comparados a grupos controle do próprio trabalho ou da vizinhança. Ao considerar o grupo populacional como controle, este valor de risco chegou a oito vezes. Os autores, ainda, perceberam que a escolaridade igual ou menor a quatro anos associava-se a um risco de acidente cinco vezes maior do que o examinado com aqueles com escolaridade maior ou igual a onze anos.

Porto et al. (1996) ao examinarem os riscos provenientes das indústrias químicas identificaram que a partir de 1970 com o processo de industrialização, o número de acidentes aumentou consideravelmente nos países em desenvolvimento. O estudo mostra claramente que os países periféricos têm um grande número de acidentes industriais e comportam mais fatalidades do que os países centrais. Segundo os autores, de 295 acidentes ocorridos em dez países, 79% ocorreram em países em desenvolvimento e 21% em países desenvolvidos. Na análise dos dados de acidentes químicos da Organização Mundial da Saúde é interessante perceber a dinâmica das mortes e lesões.

Nos países periféricos os números de vítimas tornam-se elevados não só devido aos trabalhadores acidentados, mas também em decorrência da quantidade de moradores vizinhos envolvidos. A caótica urbanização, o alto nível de pobreza, as construções irregulares e localizadas em situações perigosas ao redor das indústrias contribuem para a existência de maiores condições de risco nos países em desenvolvimento. Esta proximidade é um diferencial que marca a presença de um adequado plano de urbanização. Explosões de um tanque com o mesmo produto químico, ocorridas no México e na França, resultaram em proporções diferentes de vítimas. Um dos aspectos refere-se a proximidade das habitações ao redor das fábricas, que na França estava em torno de 1.000 metros e no México menos de 100 metros (Porto et al., 1996).

Este fato é, ainda, mais dramático ao considerar que nos países em desenvolvimento os dados são mais difíceis de serem obtidos. Outro ponto relevante refere-se à manutenção inadequada, muitas vezes decorrente da redução de investimentos para poder competir e aos custos dos acidentes, principalmente àqueles referentes às indenizações das vítimas, os quais são mais elevados nos países industrializados. Os modelos de industrialização desenvolvidos nos países periféricos, como o Brasil, México, Índia, buscaram um rápido crescimento econômico entre 1960 e 1980 e uma inserção acelerada no sistema econômico global, favorecidos pela ausência ou fraqueza do sistema político democrático e pelas mudanças ocorridas na organização social. Este modelo, segundo Porto et al. (1996), seria responsável pela maior magnitude dos acidentes químicos neste países.

B) Saúde e pobreza

Um trabalho clássico que aponta para os problemas da pobreza e da saúde é o de Luc Boltanski (1989). Uma rede de interações entre pobreza, saúde e educação se inter-relacionam de tal modo que os baixos salários, a má educação, a dieta pobre, a habitação e as condições de higiene insalubres e o vestuário inadequado se influenciam mutuamente. Esta visão é compartilhada por diversos outros autores (Navarro, 1998a e Levins et al., 1996). Vários estudos epidemiológicos, também, têm apontado para os resultados desiguais da saúde, embora não haja consenso nestes achados.

Szwarcwald et al. (1999) observaram correlações significativas entre a desigualdade de renda e as condições de saúde no município do Rio de Janeiro. Os autores utilizaram os indicadores de distribuição de renda (índice de Gini e de Robin-Hood) e sócio-demográficos (taxa de analfabetismo, índice de pobreza, renda média, densidade demográfica e da população favelada, etc.) para confrontarem com os indicadores de saúde (coeficiente de mortalidade infantil, mortalidade padronizada por idade, esperança de vida ao nascer e taxa de homicídios). Todos os indicadores de saúde mostraram-se, então, significativamente correlacionados aos indicadores de desigualdade de renda.

Mheen et al. (1998) analisaram as diferenças sócio-econômicas na mortalidade de homens entre 15 a 64 anos de idade, na Grã-Bretanha. Os autores concluíram que há uma crescente desigualdade, entre as classes sociais, nas taxas de mortalidade para doenças cardiovasculares, respiratórias, infecciosas e causas externas ou acidentes. Estas desigualdades se pronunciaram com mais força na Escócia, do que na Inglaterra e País de Gales.

Para Kaplan (1996) existe um substancial corpo de evidências que demonstram a forte associação inversa entre as classes sociais e os efeitos sobre a saúde. Contudo, o autor chama a atenção de que o foco de análise deve considerar as características da comunidade em que as pessoas vivem, ao invés dos atributos individuais que indicam as condições sócio-econômicas. Os fatores de risco sócio-ambientais e pessoais aglomeram-se nos espaços sociais, de tal modo que são importantemente relacionadas a todas as mortalidades. Kaplan demonstra, então, uma série de fatores associados com as taxas padronizadas de mortalidade, a partir de dados de residentes na Califórnia (EUA). As "odds ratios" (razões de chances) entre os fatores e as altas e baixas mortalidades foram: baixa educação (4,25); incapacidade de realizar Rx (4,0); obesidade (3,1); insegurança na vizinhança (2,75); baixo suporte emocional (2,6); sedentarismo (2,3); baixo salário (2,3); alimentação inadequada (1,6); e, hábito de fumar (1,5).

O Relatório do Desenvolvimento Humano de 1998 (PNUD, 1998) permite observar, também, como as desigualdades econômicas podem interferir na saúde das populações. Os casos de tuberculose para cada 100.000 habitantes são de 69,9 nos países menos desenvolvidos; 68,6 nos países em desenvolvimento; e, 27,6 nos países industrializados. O percentual de crianças até um ano vacinadas contra esta doença é de 80%, 89% e 92% respectivamente.

A observação dos dados do Relatório do Desenvolvimento Humano ainda pode indicar como as desigualdades sócio-econômicas se unem às condições de saúde. A tabela 1 apresenta alguns dados, onde é possível destacar como os valores em dólares do PIB per capita variam, entre os 20% mais pobres e os 20% mais ricos, cerca de 6,70 vezes nos países industrializados, 8,06 nos países em desenvolvimento e 32,11 vezes no Brasil, o que denota uma grande desigualdade social no país. Os números encontrados indicam que os países industrializados estão em melhor situação que os demais no que se refere à saúde pública.

 

Tabela 1. Fatores econômicos e sociais na saúde e educação da população

 

Países

industrializados

Países em

desenvolvimento *

Brasil

Número de países

50

125

-

População estimada

(milhões)

1.233,1

4.394,0

159,0

PIB per capita (dólares): 20% + pobres / 20% + ricos

4.811 / 32.273

768 / 6.195

578 / 18.563

Taxa de analfabetismo em adultos (%)

1,4

29,6

16,7

Expectativa de vida ao nascer (em anos)

74,2

62,2

66,6

Taxa de mortalidade infantil (por 1.000 natos-vivos)

13

65

44

Oferta diária de calorias per capita

3.157

2.572

2.824

Médicos (por 100.000 habitantes)

287

76

134

Despesa pública na saúde (em % do PIB)

9,4

2,0

2,8

fonte de dados: Relatório do Desenvolvimento Humano 1998 (PNUD, 1998)

* incluindo o Brasil

 

C) Saúde e divisão social do trabalho

É bastante conhecido, atualmente, a repercussão que o processo e a organização do trabalho pode provocar à saúde dos trabalhadores (Laurell, 1981 e Hernberg, 1995). Uma lista interminável de pesquisas podem demonstrar associações entre as ocupações profissionais, o posto de trabalho ou o processo e organização de trabalho e a prevalência de doenças.

Os estudos de Dejours (1992) sobre psicodinâmica do trabalho são um bom exemplo. Dejours (1992) procurou explanar sobre como se dá o sofrimento psíquico a partir do significado do conteúdo da tarefa. Neste sentido, o autor percebe que a insatisfação e a ansiedade são dois sintomas comuns quando há "indignidade" do operário com a tarefa desinteressante, sem significação ou quando ocorre o sentimento de "inutilidade" decorrente da falta de qualificação ou de finalidade do trabalho. Decerto, o sofrimento começa quando a relação entre o indivíduo e o significado do trabalho é bloqueada. Contudo, a grande contribuição de Dejours remonta às estratégias defensivas que o trabalhador desenvolve para lidar com o sofrimento no trabalho.

Rosengren et al. (1998) observaram, a partir dos dados de saúde dos trabalhadores suecos, que a mortalidade é três vezes maior nos trabalhadores não qualificados do que nos gerentes e altos funcionários. Os autores verificaram, também, que as baixas classes ocupacionais associaram-se com a alta prevalência do fumo, baixa integração social, baixo nível de atividades em casa e fora de casa, baixo suporte emocional, bem como, uma baixa capacidade de percepção da própria saúde. Todavia, não foi encontrada associação das classes ocupacionais mais baixas com a pressão arterial, triglicerídeos e colesterol.

Em estudo realizado por Winkleby et al. (1992), a "ocupação profissional" foi considerada como um preditor de risco menos consistente. Mesmo assim, os autores apontam que homens e mulheres em cargos importantes de gerência e administração exibem menores níveis de uso de cigarros, enquanto que executivos do sexo masculino apresentam menores valores de pressão arterial.

Outro caso de suma importância refere-se ao desemprego. A repercussão do desemprego de longa duração na dinâmica causal de distúrbios constitui uma série de perturbações que chegam, inclusive, a prejudicar a própria consecução de um novo emprego, formando, assim, um ciclo vicioso o qual engendra cada vez mais agravos à saúde.

Estes agravos podem ser decorrentes do: a) agravamento da pobreza, em função da insuficiência de recursos financeiros para alimentação, transporte e vestuário, que pode provocar desgaste mental sob a forma de desânimo e depressão; em virtude da diminuição da resistência física por carência alimentar ou, ainda, devido à dificuldade de acesso aos cuidados médicos (bons serviços de saúde, compra de remédios, etc); b) "estresse psicológico", o qual pode ocorrer pela rejeição sistemática aos empregos procurados e pela experiência traumática da repetição de insucessos. É possível observar, ainda, um isolamento social e familiar. Em decorrência, vários sintomas podem se manifestar, tais como insônia, irritabilidade, retraimento social, sentimentos de tristeza, ou mesmo doenças cardiovasculares. Por isso, tanto quanto a ameaça à subsistência, são importantes aos estudos sobre desemprego, a marginalização perante à sociedade, a discriminação e humilhação sofrida pelos próprios pares e o afastamento social; e, c) maior uso de álcool e fumo (Seligmann-Silva, 1994 e 1997 e Shortt, 1996).

O risco de suicídio foi, também, verificado na situação de desemprego (Seligmann-Silva, 1994 e Shortt, 1996), principalmente, nas fases de depressão econômica. Neste caso, os índices de distúrbios mentais e problemas psicossomáticos também se elevam. Contudo, nos momentos de grande desemprego, as taxas de suicídios tendem a diminuir. Isso ocorre, bem provavelmente, devido a menor valoração do trabalho e a conseqüente "banalização" do desemprego.

 

D) Gênero e saúde

A questão de gênero também exige uma análise a partir das formas de desigualdades produzidas na sociedade. Um dos pontos essenciais de partida refere-se àquelas engendradas nas relações de trabalho. Brito (1997), numa breve revisão dos problemas associados a questão, ressalta a importância de um olhar mais apurado sobre a divisão sexual do trabalho para observar como os postos menos qualificados; os salários inferiores; a qualificação de um padrão natural de feminilidade; as desigualdades nos direitos entre trabalhadoras e trabalhadores; o assédio sexual; a dupla jornada de trabalho; entre outros, expressam algumas características gerais do trabalho feminino.

A vulnerabilidade da mulher frente ao risco para a epidemia de HIV/AIDS é, também, extremamente relevante. Atualmente, vem crescendo o número de mulheres infectadas pelo vírus HIV, o que pode ser verificado pela redução da razão de casos entre os sexos. Se em 1984 havia uma mulher para cada 23 homens, em 1996/97 havia uma mulher para cada três do sexo oposto. Contudo, ainda hoje percebe-se uma série de equívocos no trato desta questão. Os programas educativos parecem desconsiderar que as mulheres também têm desejos sexuais; que não só as prostitutas estão em risco; que os preservativos são, em sua maioria, de uso masculino e, por isso, depende da aceitação do parceiro para usá-lo, além das barreiras culturais a respeito; que o preservativo de uso feminino tem maior custo financeiro; e, que a prevenção está associada aos níveis educacionais e sócio-econômicos (Vermelho et al., 1999).

Outros fatos importantes relacionados à questão de gênero e saúde referem-se à violência doméstica e a impossibilidade de decidir sobre o próprio corpo, como nos casos de aborto, que engendra atitude de risco.

 

E) Vulnerabilidade, risco e aviação

No transporte aéreo, o risco de acidente é parte integrante do conteúdo do trabalho. Isto porque os acidentes, neste setor, são marcantes por sua dimensão e também pelo fato de uma máquina extremamente pesada estar em desafio às leis da natureza. Não à toa, freqüentemente as empresas comerciais ou industriais do setor levantam estatísticas para tentar comprovar que há maior risco em deslocar-se através do transporte rodoviário.

Parece claro, embora os números tentem comprovar o contrário, que há um risco inerente à atividade. Outros números, portanto, merecem reflexões. Alice Itani (1998), por exemplo, debruçou-se sobre os acidentes na aviação brasileira, entre 1983 e 1996. Em 1983 ocorreram 429 acidentes e em 1996 este número caiu para 88. Os índices de acidentes, então, caíram de 54 para 9 acidentes por 1000 aviões da frota. Contudo, o cálculo de vítimas fatais por acidente revelou que houve um aumento de 0,34 para 2,02 no mesmo período. Isto é, um aumento de aproximadamente sete vezes.

A microfísica do poder dentro do setor denuncia uma estrutura militar, onde a possibilidade de negociação é bastante restrita e a hierarquia conduzida com rigor. Sob responsabilidade da Aeronáutica, instituição militar(93), as informações completas sobre os incidentes e acidentes são mantidas sob sigilo (Itani, 1998). O mesmo se refere aos dados sobre a saúde dos aeronautas.

O salário é, também, outro ponto relevante. Os maiores rendimentos dos aeronautas são os de comandante de Boeing 747. Os salários dos pilotos americanos estavam, em média, em U$ 155 mil anuais, enquanto os pilotos brasileiros ganhavam em torno de R$ 100 mil anuais para a mesma aeronave. Do mesmo modo, o menor salário na tripulação técnica (do co-piloto de Boeing 737) era, nos EUA, metade do maior salário. No Brasil, um co-piloto ganhava cerca de R$ 35 mil anuais (Itani, 1998). A disparidade é, ainda, maior quando se analisa os salários dos controladores de tráfego aéreo (CTA). Os controladores, alguns civis e outros militares (sargentos e suboficiais) chegam a receber aproximadamente R$ 1.000,00. Embora, não sejam considerados aeronautas, aqui interessa evidenciar a situação, uma vez que toda e qualquer ação é orientada e controlada por estes profissionais(95).

Uma questão que também repercute sobre o risco refere-se à manutenção das aeronaves e equipamentos. Como resultado da redução do número de funcionários do setor de manutenção das aeronaves (25% no período entre 1986 e 1993 e 30% entre 1991 e 1993). Uma das conseqüências imediatas é a terceirização do setor (Itani, 1998). Além disso, é comum a "canibalização" dos equipamentos, isto é, a retirada de peças para repô-las em outras aeronaves e, assim, permitir que estas últimas funcionem. Este processo, também, ocorre nos equipamentos do Controle de Tráfego Aéreo (Itani, 2000). Na verdade, ao invés da manutenção preventiva e compra de peças de reposição, as instituições parecem estar interessadas em observar seus profissionais "burlarem" as regras para fazer funcionar as aeronaves ou equipamentos. Contudo, no momento de falha quem responde é o próprio trabalhador.

Ora, cada grupo destes incorporam características distintas e complexas, cujos efeitos se refletem sobre a saúde. Pode-se, então, reconhecer que estes e outros grupos apresentam certa vulnerabilidade, a qual os expõe com mais facilidade aos riscos de adoecer. Para Paim et al. (2000), um dos desafios da Saúde Coletiva se estabelece, precisamente, na consideração de um conjunto de práticas, sejam econômicas, políticas ou técnicas, que apreendem como objeto as "necessidades sociais de saúde". A formação dos saberes advindos daí resultaria num suporte às questões de saúde-doença, para os diversos atores sociais envolvidos, e suas categorias.


6 - Ícaro é tido, então, como símbolo da aviação. É, por exemplo, símbolo da Organização de Aviação Civil Internacional, órgão vinculado à Organização das Nações Unidas (ONU). Mas por que Ícaro, e não Dédalo, é o símbolo da aviação civil? É razoável sustentar que se, por um lado, é bem verdade que esse personagem deixa transparecer o arrojo, a aventura, a desmedida contida nos heróis, por outro revela o quão esta desmedida deve ser disciplinada, controlada para que não se corram riscos desnecessários. É indispensável para os empreendedores comerciais, pois, lembrarem de atenuar a hýbris (o descomedimento, o excesso) e resgatar a sophrosýne (o meio termo, a justa medida).

7 - Para maiores esclarecimentos sobre o assunto sugere-se ver Ministério da Aeronáutica (1988). É possível encontrar também algumas considerações em Pereira (1987).

8 - Segundo Coleman (1986; p. 1077): "Revolução Industrial designa a soma total das transformações relativamente rápidas - nos campos econômico, técnico, social e intelectual - que provocaram o surgimento da sociedade industrializada na Grã-Bretanha entre 1760 e 1860".

9 - Ministério da Aeronáutica (1988). Interessante notar, no levantamento histórico, a participação criativa de brasileiros na evolução do desenvolvimento aeronáutico, com experiências de Bartolomeu Lourenço de Gusmão, Júlio César Ribeiro de Sousa e Augusto Severo de Albuquerque Maranhão, sem contar, é obvio, com Santos Dumont. Costa & Schwarcz (2000) comentam que até o abolicionista José do Patrocínio participou desta "corrida" para voar.

10 - Paul Virilio (1995) lembra que na virada de século "a profundidade de campo das perspectivas clássicas" deu lugar à "a profundidade de tempo das técnicas avançadas" (p. 19) e que a aviação determinou "uma revisão do ponto de vista, uma mutação radical da percepção do mundo" (p. 20). Em conformidade, Augusto Comte já indicava, mesmo prematuramente, que a "navegação aérea" seria um dos grandes propulsores do progresso contemporâneo (Ministério da Aeronáutica, 1988; p. 68).

11 - Todavia, o Instituto Histórico-Cultural da Aeronáutica destaca que as aplicações práticas da aeronáutica, com fins militares, já haviam sido vislumbrado por Bartolomeu de Gusmão no século XVIII, utilizadas em balões na Guerra do Paraguai e examinadas pelos oficiais franceses e apoiadas por Santos Dumont, em seus dirigíveis.

12 - O termo, tomado emprestado de Deleuze & Guattari (1997), designa-se pela velocidade e não pelo deslocamento: "O cavalo, por exemplo, não pertence à máquina de guerra enquanto servir apenas para transportar homens que apeiam para combater. A máquina de guerra define-se pela ação, não pelo transporte, mesmo que o transporte reaja sobre a ação" (p. 74).

13 - O mesmo autor cita um comentário do Contra-Almirante Bradley A. Fiske, em 1920, que demonstra a importância do desenvolvimento da técnica militar moderna, notadamente, do avião: "até os últimos anos, a mais importante transformação nas circunstâncias e métodos de guerra de que se tem registro na História foi provocada pela invenção do canhão; mais agora podemos ver que mudanças ainda maiores certamente virão com a invenção do avião" (p. 54).

14 - De outro modo, Scaff (1996), aponta para uma segunda revolução, a revolução tecnológica-industrial, associada a revolução microeletrônica, a informática e, portanto, mais recente. Poderíamos, assim, ponderar para a diferenciação entre três revoluções: "Revolução Industrial", "Revolução Técnico-Científica" e "Revolução Microeletrônica ou Informática".

15 - Segundo Crouzet (1996), a fotoeletricidade permitiu, em 1935, a criação da célula fotoelétrica ou "olho elétrico", que se considera mais apto do que o olho humano no trabalho de vigiar e manipular objetos num determinado quadrante. Neste sentido, cabe apreciar o texto de Paul Virilio (1995) quando se refere a estas novas formas do "olhar", as quais inauguram novos procedimentos de medição e observação. Nesta terceira revolução, a "forma-imagem", a "imagem-sintética" não pertence mais a ordem da observação direta ou da visualização ótica, mas sim aos receptores eletromagnéticos ou analisadores de espectro que, através dos computadores, adquirem e armazenam dados. O autor, então, questiona: "como podemos ter deixado de acreditar em nossos próprios olhos para crer tão facilmente nos vetores da representação eletrônica e, sobretudo, no vetor-velocidade da luz?" (p. 31).

16 - Sodré (1990, p. 36). Interessante a anedota que este autor conta: "Amigo: - Que lindo bebê o seu! Mãe do bebê: Oh, não é nada. Você precisa ver sua fotografia.

17 - Interessante o paradoxo percebido por Virilio (1995; p. 8), entre a possibilidade de "ir e vir" nos aeroportos e a forte experimentação de controle e vigilância exercida neste espaço pela "polícia do ar e das fronteiras": "(...) o equipamento de maior liberdade de deslocamento servindo paradoxalmente como modelo para o encarceramento penitenciário".

18 - Para maiores detalhes conferir Pereira (1995a).

19 - A citação refere-se às causas indiretas concluídas por Elio F. Barros no relatório das investigações do acidente e que pode ser encontrada em Pereira (1995a) nas págs. 276 a 282.

20 - Verificar conteúdo da Lei em Pereira (1995a), p. 247.

21 - É atribuído à Pitágoras, não se pode deixar escapar em branco, o célebre teorema sobre o triângulo retângulo, onde o quadrado da hipotenusa é igual a soma dos quadrados dos catetos.

22 - Após retornar à Atenas, Aristóteles abre uma escola, o Liceu. Seus estudantes tinham por hábito realizar debates enquanto passeavam, daí o termo peripatéticos, ou seja "os que passeiam". O termo, então, serviu para designar os seguidores de Aristóteles.

23 - Aristóteles considerava, ainda, que a tarefa do conhecimento deveria seguir um método indutivo (Chaui, 2001).

24 - Daí resulta, pode-se afirmar, o clássico "princípio da identidade ou correspondência", que garante a correlação entre a idéia na mente e a coisa a ser conhecida no mundo externo, reafirmado por Descartes em suas Meditações.

25 - Em geral, as formas de raciocínio são: a) "dedução", que consiste em partir de uma verdade geral já conhecida par demonstrar os casos particulares, ou seja, os fatos particulares são conhecidos por sua inclusão numa teoria geral. Por exemplo: sabendo-se que a soma dos ângulos de um triângulo é igual a 180º pode-se daí deduzir várias propriedades dos triângulos; b) a "indução" parte de casos particulares em busca de uma lei geral, que explicaria todos os casos particulares. Por exemplo: a fervura da água provoca evaporação, a fervura do leite idem e assim se dá com diversos líquidos. Induz-se, neste caso, que o calor produz evaporação dos líquidos; e, c) a "abdução" é a forma racional empregada quando se inicia o estudo de um novo campo científico, ainda não abordado, tal como, muitas vezes, fazem os historiadores (Chaui, 2001).

26 - Na prática, ressalta Marcondes (2000), a Universidade de Paris foi criada em 1200, quando o rei Felipe Augusto reconheceu o conjunto de mestres e estudantes (Universitas) reunidos na cidade de Paris.

27 - A querela dos universais incide sobre uma questão que ocupa uma posição central na filosofia da lógica e trata do valor da linguagem enquanto meio de acesso à verdade ou dos fundamentos da teoria do conhecimento (Omnès, 1996).

28 - Marcondes (2000, p.132) cita a expressão: "entia non sunt multiplicanda praeter necessitatem, isto é, não devemos multiplicar a existência dos entes além do necessário".

29 - John Henry (1998) explica que a expressão "revolução científica é o nome dado pelos historiadores da ciência ao período da história européia em que, de maneira inquestionável, os fundamentos conceituais, metodológicos e institucionais da ciência moderna foram assentados pela primeira vez" (p.13). Embora, o período preciso possa variar entre os historiadores, considera-se, em geral, que o foco central situa-se no século XVII, mas com a "montagem do cenário" no século XVI e sua consolidação no XVIII. O autor lembra, também, a peculiaridade presente no "saber" da época. Era muito comum, por exemplo, o envolvimento dos pensadores deste período ter afinidades com a magia, astrologia, alquimia, além, é claro com a própria religião.

30 - Um ponto extremamente importante refere-se à utilização do termo "ciência". Henry (1998) explica que o uso que se faz atualmente desta palavra, fora cunhada somente no século XIX e que não existia no período Moderno inicial. Assim, para tratar da história da ciência seria preciso compreender como o próprio conceito surgiu. As expressões correlatas, se assim se pode chamar, eram as denominadas "filosofia natural", "filosofia mecânica", "filosofia experimental", entre outras. Isto, porém, não é o objetivo do presente estudo. Portanto, será utilizado, de modo equivalente as expressões "ciência" e "filosofia natural" ou outras semelhantes.

31 - Na física, o paradigma hegemônico, nesta época, ainda era a concepção aristotélica, a qual regia que o movimento dos corpos entre a terra e o céu respeitava o "lugar natural" das coisas. Assim, os corpos simples, cuja natureza pode ser terra, fogo, ar ou água, comportam-se de acordo com sua característica. O movimento natural do fogo e do ar é para cima, enquanto da água e da terra para baixo. Logo, uma pedra cai porque sua natureza é "terra" e seu "lugar natural" é na terra. Por outro lado, a fumaça sobe porque seu lugar é o céu. Aplica-se, então, a denominação "pesado" àquilo que se move em direção ao centro, e o termo "leve" para o que se afasta do centro.

32 - As denominadas leis de Kepler são: 1ª, as órbitas planetárias são elipses das quais o Sol ocupa um dos focos; 2ª, as áreas percorridas pelos raios vetores, que vão do centro do Sol ao centro do planeta, são proporcionais aos tempos empregados no percurso; e, 3ª, os quadrados dos tempos das revoluções planetárias são proporcionais aos cubos dos eixos das órbitas.

33 - Apesar de não ter sido um cientista, no sentido clássico da palavra, Francis Bacon teve grande influência sobre o pensamento científico, a ponto da Royal Society of London for Improvement of Natural Knowledge o ter considerado um de seus inspiradores. Além disso, Immanuel Kant dedicou-lhe à Crítica da razão pura (Marcondes, 2000).

34 - Posteriormente, ampliada e publicada em 1623 sob o título de De augmentis.

35 - Sobre o Método, Descartes escreveu na regra IV das "Regras para a direção do espírito": "Por método, entendo regras certas e fáceis graças às quais todos os que as observem exatamente jamais tomarão como verdadeiro aquilo que é falso e chegarão, sem se cansar com esforços inúteis e aumentando progressivamente sua ciência, ao conhecimento verdadeiro de tudo o que lhes é possível esperar". Descartes, portanto, destaca três principais características: a) a certeza; b) a facilidade nas operações e economia de esforço; e, c) a possibilidade de alcançar todo conhecimento possível (Chaui, 2001; p.158).

36 - A participação de Laplace, também, foi decisiva para o uso da estatística nas análises referentes às questões sobre saúde. Em 1812, em sua obra "Théorie Analytique des Probabilités", o autor destacou a importância ao uso da teoria da probabilidade nas investigações médicas. Além destes, pode-se destacar, ainda, os nomes de William Farr, Adolphe Quetelet e Johann Peter Frank, entre outros.

37 - A respeito do "sistema Leibniz-Wolff", Marcondes (2000) explica que a filosofia de Leibniz passou a ter grande influência, sobretudo, no meio acadêmico alemão, a partir da interpretação e sistematização elaboradas por Christian Wolff (1679-1754). A formulação teórica desta sistematização é considerada de um racionalismo fortemente dogmático.

38 - A "Crítica da razão prática", por outro lado, foi dedicada ao problema moral, da conduta.

39 - Possuir "validade universal" significa que a verdade alcançada pela atitude racional independeria do tempo e do lugar em que fora construída. "Necessários" significam que são indispensáveis ao pensamento.

40 - No tópico "Princípio da sucessão no tempo, segundo a Lei da Causalidade, presente na "Crítica da razão prática", Kant (s/d) expõe: "(...) Esse conceito é aqui de relação, de causa e efeito, isto é, de uma relação cujo primeiro termo determina ao segundo como sua conseqüência, e não tão-só como algo que poderia preceder na imaginação (ou não ser percebido de nenhuma maneira). (...) A apreensão da diversidade do fenômeno é sempre sucessiva. As representações dos fatos se sucedem uma a outras. (...) Toda apreensão de um evento é, pois, uma percepção que sucede a outra. (...) Segundo este princípio, é no que precede em geral a um evento que se acha a condição da regra pela qual este evento continua sempre e sucessivamente".

41 - Esta possibilidade de determinação do futuro fica bem nítida nas palavras do próprio Laplace: "Devemos, pois, encarar o estado presente do Universo como o efeito de seu estado anterior e como causa do que vai seguir-se. Uma inteligência que, por um instante dado, conhecesse todas as forças de que está animada a natureza e a situação dos seres que a compõem, e que, além disso, fosse ampla o bastante para submeter seus dados à análise, abarcaria na mesma fórmula os movimentos dos maiores corpos do Universo e os do mais leve átomo: nada seria incerto para ela, e o futuro, como o passado, estaria presente aos seus olhos" (Em "Ensaio filosófico sobre as probabilidades", de 1814, apud Bergé, Pomeau &Dubois-Gance, 1996; p.30).

42 - No século XX, o movimento positivista encontra ressonância no chamado "Círculo de Viena", sob a direção de Moritz Schilick e participação de Rudolf Carnap, Kurt Gödel e Otto Neurath (Marcondes, 2000).

43 - Interessante notar, por exemplo, a aproximação que os pensadores positivistas faziam entre as ciências sociais e as naturais. Condorcet designava uma "matemática social", para afirmar que a ciência da sociedade deve ser objeto de estudo matemático, numérico, preciso e rigoroso; Saint-Simon, por outro lado, propunha a "fisiologia social" como um modelo biológico, que teve por finalidade demonstrar os parasitas do organismo social; e, Comte, com sua "física social", que procurava estudar os fenômenos sociais tal como os fenômenos físicos, astronômicos, químicos etc (Löwy, 1985).

44 - Aqui cabe uma citação de Prigogine & Stengers (1997; p.61) a respeito da exclusão do homem: "Quando, no fim do século XIX, o físico alemão Du Bois-Reymond fez do demônio de Laplace a encarnação da lógica da ciência moderna, acrescentou: 'Ignorabimus': ignoremos sempre e totalmente a relação entre o mundo que a nossa ciência torna transparente e o espírito que conhece, percebe e cria essa ciência".

45 - Cabe ressaltar que embora tenha-se descoberto que havia um agente infeccioso, este ainda não havia sido identificado. O Vibrio cholera, agente do cólera, por exemplo, só foi isolado em 1883, por Koch.

46 - É desta época o surgimento da sociologia como disciplina científica, com Émile Durkheim (1858-1917). Max Weber (1864-1920) e Wilhelm Dilthey (1833-1911) são outros grandes pensadores da área.

47 - Em "A miséria da Filosofia", segundo Löwy (1985).

48 - Costa & Schwarcz (2000) destacam as ambigüidades da ciência e tecnologia, que se por um lado traz a eletricidade, por outro traz, também, o choque elétrico. O mesmo ocorre com os aviões e automóveis e os acidentes aeronáuticos e automobilísticos. Freitas (2000) destaca, ainda, que os acidentes industriais surgiram com o processo de industrialização e desenvolvimento de novas tecnologias, a partir da Revolução Insustrial.

49 - É importante considerar que Marx reconhecia seu compromisso e dos socialistas e comunistas com a classe social proletária. Max Weber fazia uma anedota contra a aplicação do materialismo histórico pelos marxistas, onde dizia que estes desmascaravam os interesses das outras ideologias, mas que não aplicavam seu método contra sua própria ideologia. Assim, todas as formas de pensamento, inclusive o marxismo, teriam uma posição social determinada. Esta crítica pode ser verdadeira em alguns casos. Kautsky, importante pensador marxista na II Internacional, por exemplo, considerava o marxismo uma ciência pura, que não tinha relação alguma com moral, ideologia, etc. Esta tese, denominada de "princípio da carruagem", contudo, não se aplica jamais a Marx, que se apresentava claramente partidário de uma classe social.

50 - Marcondes (2000) explica que Apolo era o deus da racionalidade, da medida, da ordem; enquanto, Dioniso era o deus da embriaguez, da música. No período que antecede a filosofia, o "espírito apolíneo" e o "espírito dionisíaco" mantinham-se equilibrados, completavam-se mútua e dialeticamente.

51 - Interessante conferir alguns exemplos de textos que apontam as novas "tábuas da salvação". Foucault (1997, p. 42) cita a frase de um historiador, que em 1960 disse: "nos nossos dias a saúde substitui a salvação". Ilya Prigogine e Isabelle Stengers (1997, p. 19) ao tratarem da filosofia da ciência, fazem um percurso histórico e convidam a refletir sobre o tom "religioso" do projeto da ciência moderna: "O tom enfático de Pope não nos deve admirar. Aos olhos da Inglaterra do século XVIII, Newton é o novo Moisés a quem as 'tábuas da lei' foram reveladas".

52 - "É um simples preconceito acreditar que a verdade é melhor que a aparência, é inclusive a mais infundada que existe", em "Além do bem e do mal", § 34.

53 - Esta posição anti-Darwin e crítica da idéia moderna de progresso está bastante clara em algumas passagens. Em "A Gaia Ciência", § 349: "A vontade de conservação é a expressão de um estado de desespero, uma restrição ao verdadeiro instinto fundamental da vida que tende à extensão de potência e que, por essa vontade, põe em questão e freqüentemente sacrifica a autoconservação". Em "Crepúsculo dos ídolos" (2000c) no § 14 de "Incursões de um extemporâneos", cujo título é "Anti-Darwin", o filósofo retorna a questão: "(...) onde há luta, luta-se por potência... (...) As espécies não crescem em meio à perfeição: os fracos sempre tornam novamente senhores sobre os fortes. Isto acontece porque eles estão em grande número e porque eles também são mais inteligentes". E no "Ecce homo", prefácio, § II, Nietzsche posiciona-se firmemente: "A última coisa que eu prometeria, seria esta: 'melhorar' a humanidade. Não pretendo exigir novos ídolos; basta-me que os antigos aprendam comigo o que significa ter pés de barro".

54 - Georges Canguilhem, em seu "O normal e o patológico" (1995), esclarece que, em latim, a palavra "valere" significa passar bem. "Santé", em francês, "sanidade", em castelhano e o adjetivo, em português, "são", provêm do latim "sanus", que denota puro, imaculado, correto, verdadeiro. O termo "são", ainda, aparece como sinônimo de santo.

55 - Esta posição está também evidente em "Ecce homo", "Assim falou Zaratustra", § II, quando se lê: "(...) um ideal singular, tentador, cheio de perigos, um ideal que não desejamos recomendar a ninguém, porque não encontraremos quem possua reconhecido direito a este ideal"; ou, ainda, em "Além do bem e do mal", § 43: "O que é bom para mim, não é bom para o paladar do vizinho. E como poderia haver um 'bem comum'?".

56 - Prigogine e Stengers (1997; p.109) a respeito da atividade química, comentam: "Nietzsche, por exemplo, afirmava ser detestável ouvir falar de 'leis químicas', como se os corpos químicos estivessem submetidos a leis semelhantes às leis morais; em química, protestava ele, não há submissão, cada corpo faz tudo o que pode; não se trata de respeito, mas sim de afrontamento de forças, de dominação do mais fraco pelo mais forte, impiedosamente".

57 - Michel Foucault (1985; p. 134) comenta sobre a formação do homem burguês: "O homem ocidental aprende pouco a pouco o que é ser uma espécie viva num mundo vivo, ter um corpo, condições de existência, probabilidade de vida, saúde individual e coletiva, forças que se podem modificar, e um espaço em que se pode reparti-las de modo ótimo. Pela primeira vez na história, sem dúvida, o biológico reflete-se no político (...) deveríamos falar de 'bio-política' para designar o que faz com que a vida e seus mecanismos entrem no domínio dos cálculos explícitos, e faz do poder-saber um agente de transformação da vida humana (...) o homem moderno é um animal, em cuja política, sua vida de ser vivo está em questão". Foucault (p.135), então, conclui: "Não é necessário insistir, também, sobre a proliferação das tecnologias políticas que, a partir de então, vão investir sobre o corpo, a saúde, as maneiras de se alimentar e de morar, as condições de vida, todo o espaço da existência".

58 - Sigmund Freud (1856-1939).

59 - O "efeito fotoelétrico" consistia na emissão de elétrons por metais sob ação da luz (Heisenberg, 1999).

60 - Prigogine e Stengers (1997) e Heisenberg (1999) lembram que esta dualidade onda-partícula também foi estendida para a matéria por Louis de Broglie.

61 - Prigogine e Stengers (1997) destacam, ainda, que os sistemas não-lineares explicam que toda norma resulta de uma escolha, isto é, contém um elemento de acaso. Porém, cumpre ressaltar que embora possa ser decorrente do acaso, não é de todo arbitrário.

62 - Masterman apud Epstein (1990) contabilizou 21 sentidos diferentes para o termo "paradigma", embora em Kuhn (1997) encontre-se a referência de 22 sentidos.

63 - É possível citar alguns trabalhos que buscam redefinir ou reconsiderar os conceitos para melhor investigar os fenômenos. Ao tratar dos conceitos de "igualdade" e "desigualdade", Amartya Sen (2001) procurou explicar sua forma de abordar a questão; o mesmo fizeram Paim & Almeida-Filho (2000) sobre a "saúde pública" e a "saúde coletiva".

64 - Quanto a isso Boaventura Sousa Santos (1987; p.43) comenta: "(...) o que antes era a causa do maior atraso das ciências sociais é hoje o resultado do maior avanço das ciências naturais. Daí também que a concepção de Thomas Kuhn sobre o caráter pré-paradigmático (isto é, menos desenvolvido) das ciências sociais, que eu, aliás, subscrevi e reformulei noutros escritos, tenha de ser abandonada ou profundamente revista".

65 - Segundo Maturana et al. (1997; p.71) "uma máquina autopoiética é uma máquina organizada como um sistema de processos de produção de componentes concatenados de tal maneira que produzem componentes que: I) geram os processos (relações) de produção que os produzem através de suas contínuas interações e transformações, e II) constituem à máquina como uma unidade no espaço físico".

66 - Neste sentido, conferir também Latour et al. (1997).

67 - Nodari et al. (2000) comentam, por exemplo, que o herbicida (agrotóxico) pode causar reações tóxicas à espécie humana e, mesmo, um efeito mais drástico, recentemente descoberto, que seria o aumento do risco de um tipo de câncer linfoma.

68 - Segundo Brian Wynne (1992), o "princípio da precaução ou precaucionário" foi primeiramente desenvolvido na Alemanha como medida de justificar a intervenção regulatória ocorrida para restringir as descargas de poluição marinha na ausência de conhecimento sobre as conseqüências ou prejuízos ao meio ambiente. Contudo, o autor lembra que o princípio precaucionário envolve muito mais do que simpesmente deslocar o ponto inicial da prova para outro ponto diferente mantendo-se o mesmo corpo disponível de conhecimento. Significa, assim, considerar as incertezas científicas, assumindo os riscos inerentes aos sistemas através de cuidados e informações específicas. Além disso, incorpora outros pontos, como justiça, eqüidade, respeito, senso comum e prevenção (Nodari et al, 2000).

69 - Cf. "efeito da borboleta".

70 - Os "anticontagionistas" ou representantes da "teoria miasmática" acreditavam que os surtos epidêmicos de doenças infecciosas seriam causados pelo estado da atmosfera, de tal modo, que as condições sanitárias inadequadas estabeleciam um estado atmosférico local que causava as doenças. Por outro lado, os "contagionistas" pensavam que as únicas causas de infecções e de doenças epidêmicas eram devido a contágios específicos. Havia, ainda uma terceira posição, de conciliação das duas primeiras (Rosen, 1994).

71 - Neste sentido, cabe conferir, também, algumas observações de Bourdieu (1992).

72 - Os autores lembram que algumas das pesquisas realizadas interessam, sobremaneira, às indústrias químicas ou farmacêuticas e organismos financiadores (Latour et al., 1997).

73 - Interessante ressaltar o caso envolvendo a empresa canadense Bombardier e a brasileira (com capital externo) Embraer. Os canadenses denunciaram à Organização Mundial do Comércio (OMC) justamente esta questão dos subsídios governamentais. Noam Chomsky (2001) comenta em seu artigo, utilizando as palavras do "Fortune, Business Week": "Depois da guerra o mundo empresarial reconheceu que 'a indústria aérea contemporânea não pode existir satisfatoriamente numa economia de livre-empresa pura, competitiva, sem subsídios', e que 'o governo é seu único salvador possível'".

74 - No romance "Armadilha aérea", Michael Crichton levanta questões bastantes interessantes sobre este ponto.

75 - Um exemplo apresentado por Omnès (1996) lembra que na epidemiologia constata-se, muitas vezes, correlações entre causa e efeito, sem, no entanto, conferir maiores explicações sobre as causas e suas ações.

76 - Este acidente aéreo ocorreu em 3 de setembro de 1989 com uma aeronave Boeing 737-200, da VARIG. O comandante do vôo era Cézar Augusto Padula Garcez. Neste vôo, de Marabá para Belém, a tripulação técnica tomou um rumo errado e perdeu-se sobre a selva Amazônica. Após algum tempo os pilotos perceberam o equívoco e tentaram encontrar algum aeroporto para aterrissar. Como não havia um radar que indicasse a posição da aeronave no espaço aéreo, isto não ocorreu e, por falta de combustível caiu na selva. O caso ficou bastante conhecido e no meio da aviação é comum quem cite o fato como o "acidente do comandante Garcez". Sobre maiores detalhes sobre o acidente conferir Ivan Sant'Anna (2000).

77 - Neste acidente, o plano de vôo apresentava como o rumo 027o a numeração 0270, sendo este último zero a referência ao grau. Os pilotos leram como sendo 270o. Vinte e dois comandantes internacionais foram testados em Amsterdã, pela Federação Internacional de Pilotos de Linhas Aéreas, e quinze cometeram o mesmo erro (Sant'Anna, 2000).

78 - Por exemplo, dupla jornada de trabalho ou diferentes locais de trabalho para compor maior renda.

79 - No acidente de Piper Alpha, citado anteriormente, Paté-Cornell (1993), também, levanta a questão do "ambiente competitivo" e do mercado mundial como fatores importantes a considerar na gênese do acidente.

80 - Um dos setores na aviação que tem sofrido o processo de terceirização é o de manutenção (Giannotti, 1995).

81 - Este processo é denominado "sucateamento" ou "canabalização".

82 - Neste sentido, cabe conferir os trabalhos apresentados pela Boeing (1996) e por Billings & Reynard (1984).

83 - A autora cita que o US Department Transportation considera "grandes companhias" aquelas que operam com rendimentos superiores a 1 bilhão de dólares.

84 - Para Waltner-Toews (2001) isto significa que todos esforços estão focados para encontrar os determinantes individuais da doença, enquanto uma variedade de outros elementos são ignorados.

85 - Self-Organization, Holarchic, Open.

86 - É particularmente interessante conferir o conceito de autopoiese (organização mínima do vivo) em Maturana et al. (1997).

87 - Um elevado índice de mortalidade por acidentes é encontrado entre as principais causas de mortalidade em aeronautas (Band et al., 1996).

88 - Na utilização subseqüente das referências em língua inglesa utilizar-se-á as palavras "perigo" como tradução de "hazard" e "risco" como "risk".

89 - No nível biológico, por exemplo, atualmente é aceito que todas as pessoas são vulneráveis à infecção pelo HIV. Isto é, ao contato com o sangue ou sêmen as pessoas podem tornar-se soropositivas (Mann et al., 1993).

90 - As condições climáticas extremas, os eventos como terremotos e furacões ou ainda, a proximidade de regiões perigosas como os vulcões, por exemplo, podem criar um ambiente propício ao aparecimento de desastres (Horlick-Jones, 1992). Na aviação, alguns estudos destacam a importância das variações geográficas e o risco de acidentes (Kearney et al., 2000)

91 - A palavra original, em língua inglesa, é "resilience".

92 - Embora, este modelo de análise seja bastante interessante, cabe refletir, neste último ponto, até onde os programas nacionais de combate à epidemias ou acidentes industriais não estão, eles mesmos, diretamente ligados ao desenvolvimento humano da região.

93 - O Brasil é um dos poucos países do mundo onde a aviação, ainda, é controlado por forças armadas.

94 - Valores de 1995.

95 - A despeito da extrema responsabilidade e importância presentes na profissão, estes profissionais (os civis) recebem R$ 340,00 mais adicional de insalubridade, adicional noturno e gratificações especiais. Toda precariedade do trabalho dos controladores de tráfego aéreo pode ser bem visualizada nos estudos de Alice Itani (2000) sobre estes trabalhadores.

  

 
 
  Início