terça-feira, 26 de abril de 2016

Ciências - Artigos

  1.               A Revolução Biotecnológica do Século XXI
  2.               A Visão da Ciência no Contexto Escolar
  3.               O Desenvolvimento Industrial e o Impacto no Meio Ambiente
  4.               Dinâmica: As Leis de Newton
  5.               Ecossistemas, Comunidades e Populações: Conceitos básicos
  6.               Energia e Meio Ambiente
  7.               Modelos Científicos e suas Relações com a Epistemologia da Ciência...
  8.               O Método Científico
  9.               Teoria Atômico-molecular
  10.          Transformações Químicas e Físicas dos Materiais
  11.         Teoria da Evolução
  12.         A Hipótese e a Experiência Científica...


A revolução biotecnológica do século XXI.
Resumo: O avanço da biotecnologia e a real possibilidade da intervenção científica na matéria viva têm aguçado os debates políticos, econômicos, filosóficos e jurídicos que florescem a partir de questões polêmicas decorrentes destas novas tecnologias. Lidar com avanços biotecnológicos implica enfrentar situações problemáticas e controversas que se originam de realidades que, embora em princípio não passem de meras pretensões científicas, tornam-se efetivas no cotidiano, clamando por um amplo e público debate da matéria, uma vez que possuem reflexos diretos na própria existência da vida humana, nos seus valores éticos e morais e, por conseguinte, no tratamento jurídico que se pretende dar a tais transformações. O fato é que o acelerado desenvolvimento da biotecnologia trouxe para o direito questões até então desconhecidas e que merecem ser melhor estudadas e debatidas pela comunidade jurídica e pela sociedade, fazendo-se necessário refletir sobre os aspectos éticos e jurídicos que permeiam o tema, devendo-se tomar sempre como premissa o princípio da dignidade da pessoa humana, como um novo paradigma bioético humanista.
1. CONTEXTUALIZAÇÃO DA PROBLEMÁTICA
Em "Admirável Mundo Novo" (Brave New World), livro publicado em 1932, Aldous Huxley narra um hipotético futuro onde as pessoas são pré-condicionadas biologicamente e condicionadas psicologicamente a viverem em harmonia com as leis e regras sociais, dentro de uma sociedade organizada por castas.
Hoje, quase oitenta anos depois, esse "admirável mundo novo", antevisto por Huxley, saiu do papel, da utopia ou da ficção, passando a tornar-se uma realidade para a sociedade atual, que passa a conviver com os riscos e benefícios dessas transformações.
Os constantes avanços na área da biotecnologia e a real possibilidade de intervenção científica na matéria viva têm aguçado os debates políticos, econômicos, filosóficos e jurídicos que florescem a partir de questões polêmicas decorrentes destas novas tecnologias.
Segundo Maria Helena Diniz [01], os avanços tecnológicos na seara da medicina e da saúde, o anúncio de resultados fantásticos da biologia molecular e da engenharia genética, inclusive no meio ambiente, e as novas práticas biomédicas resultantes do descobrimento do DNA recombinante podem colocar em risco o futuro da humanidade, uma vez que trazem, em si mesmos, tanto os poderes de criação, como de destruição da vida e da natureza.
Apesar do risco que podem acarretar, é certo que não se podem afastar por completo os benefícios que a biotecnologia traz ao ser humano, a quem é inerente o desejo e o direito de melhoria da qualidade de vida.
Lidar com avanços biotecnológicos implica enfrentar situações problemáticas e controversas que se originam de realidades que, embora em princípio não passem de meras pretensões científicas, tornam-se efetivas no cotidiano, clamando por um amplo e público debate da matéria, uma vez que possuem reflexos diretos na própria existência da vida humana, nos seus valores éticos e morais e, por conseguinte, no tratamento jurídico que se pretende dar a tais transformações.
O fato é que o acelerado desenvolvimento da biotecnologia trouxe para o direito questões até então desconhecidas, falando-se já nos direitos de quarta geração.
Neste contexto, o Direito chegou ao século XXI e colocou o jurista frente ao desafio de enfrentar e harmonizar conflitos ou perplexidades decorrentes do avanço biotecnológico, de modo a impor limites entre o que é cientificamente possível fazer e o que é moralmente desejável realizar.
As questões debatidas no presente estudo não pretendem formular proposições contrárias aos avanços da biotecnologia, mas apenas convidar o leitor a aprofundar o tema em seu íntimo e levá-lo a refletir acerca da repercussão ética, filosófica e jurídica do impacto do século biotecnológico sobre a humanidade.


2. O SÉCULO DA BIOTECNOLOGIA
O final do século XX e início do século XXI foram marcados por profundas transformações científicas e tecnológicas.
Hoje já se encontra ao alcance do homem tecnologias voltadas ao desenvolvimento de espécies transgênicas, quimeras animais e clones, fabricação de órgãos humanos, novas tecnologias conceptivas, mapeamento sequencial do genoma humano, intervenções genéticas, experimentos com células-tronco embrionárias, experiências farmacológicas e clínicas com seres humanos, e muitos outros.
Mas será que o ser humano está realmente preparado para tão significativa e aparente irrefreável revolução biotecnológica?
Jeremy Rifkin [02], em sua obra O Século da Biotecnologia, já havia expressado sua preocupação com o rápido avanço da biotecnologia, afirmando que o mapeamento de doenças genéticas poderia ensejar discussões sobre a discriminação genética praticada por empregadores, companhias de seguros e escolas, além disso, outra questão preocupante no século biotecnológico seria a crescente comercialização do banco de genes nas mãos de empresas do setor farmacêutico, químico e biotécnico, bem como os impactos, a longo prazo, dos organismos geneticamente planejados em contato com o meio ambiente.
Compartilha de semelhante preocupação a jurista Maria Helena Diniz, que alerta para o fato de que tais avanços tecnológicos, embora surjam em prol do homem:
"(...) dão ensejo à exploração econômica, ante o irresistível fascínio de desvendar os mistérios que desafiam a argúcia da ciência, e à imposição de uma perigosa e injustificada autoridade científica, que podem gerar resultados esteticamente desastrosos e problemas ético-jurídicos voltados à vida, à morte, ao paciente terminal, à sexualidade, à reprodução humana, às tecnologias conceptivas, à paternidade, à maternidade, à filiação, ao patrimônio genético, à correção de defeitos físicos e hereditários, ao uso de material embrionário em pesquisas, à eugenia, às experiências farmacológicas e clínicas com seres humanos, ao equilíbrio do meio ambiente, à criação de seres transgênicos, à clonagem, ao transplante de órgãos e tecidos humanos, à transfusão de sangue, ao mapeamento sequencial do genoma humano, ao patenteamento da vida, à mudança de sexo, etc" [03].
Segundo Jeremy Rifkin, as mudanças econômicas da história ocorreram quando várias forças sociais e tecnológicas se juntaram para criar uma nova "matriz operacional". Para ele, o século biotecnológico estaria estruturado em sete importantes fatores, que seriam a base da nova economia. Seriam eles:
1.A "capacidade de se isolar, identificar e recombinar genes", ou seja, os genes são os recursos primários para a futura atividade econômica porque as técnicas de recombinação de DNA e outras biotecnologias permitiriam a exploração de recursos genéticos para fins econômicos específicos;
2."Concessão de patentes de genes, linhas de células, tecido geneticamente desenvolvido, órgãos e organismos, bem como os processos usados para alterá-los", que fomentam e incentivam a exploração comercial desses recursos;
3."Globalização do comércio", que permite o aparecimento da "Gênese de laboratório", onde a ciência cria uma natureza bioindustrial capaz de afetar áreas que vão da agricultura à medicina, e que estão sendo consolidadas por "gigantescas empresas da vida";
4."O mapeamento de aproximadamente 100 mil genes que compõe o genoma humano, novas descobertas sobre a seleção genética, incluindo os chips de DNA, terapia somática de genes e a iminente perspectiva da engenharia genética em ovos humanos, esperma e células embrionárias", que levará necessariamente à redefinição da espécie humana e ao nascimento de uma civilização comercialmente eugênica;
5."A grande quantidade de estudos científicos sobre a base genética do comportamento humano e a nova sociobiologia que favorece a natureza em relação à alimentação estão promovendo um contexto favorável a uma ampla aceitação de novas biotecnologias";
6.Utilização do computador como instrumento de comunicação e organização para a administração da informação genética, que compõe a economia biotecnológica;
7."Uma nova narrativa cosmológica sobre a evolução", que se justifica pela agregação das novas tecnologias à estrutura de uma nova ordem econômica global.
Essa nova matriz operacional veio, de fato, para transformar o século biotecnológico, assim como o próprio mercado global, ressemeando o planeta com o que Rifkin chamou de "segunda Gênese artificial". Segundo ele: "juntos, genes, biotecnologias, patentes da vida, a indústria global da ciência da vida, a seleção do gene humano e cirurgia, as novas correntes culturais, computadores e as revisadas teorias da evolução estão começando a refazer o nosso mundo[04].
2.1. AVANÇOS CIENTÍFICOS
Jeremy Rifkin já prenunciava: "as revoluções na genética e na informática estão chegando juntas na forma de uma verdadeira falange científica, tecnológica e comercial, uma poderosa nova realidade que terá profundo impacto em nossas vidas nas próximas décadas".
E ele estava certo. As descobertas feitas nas últimas décadas pela engenharia genética impressionaram e maravilharam muitos de nós e aproximou os cientistas de respostas para a cura de muitas enfermidades, trazendo-nos, acima de tudo, esperanças de uma melhor qualidade de vida no futuro.
Marcando sobremaneira os avanços na biogenética, em 1978, foi noticiado o nascimento de Louise Brown, primeira criança gerada em um tubo de ensaio (fertilização in vitro), notícia esta que chocou a opinião pública e sinalizou o início de uma nova era na reprodução humana.
Hoje já são várias as técnicas científicas para reprodução humana assistida e incontáveis os bebês que foram gerados a partir desses procedimentos. Crianças engenheiradas dentro de laboratórios tornou-se comum na sociedade atual.
Há cinquenta anos a identidade química do material genético era totalmente desconhecida. Desde então, a biologia molecular progrediu revelando os segredos do DNA, desvelando o código genético, transferindo e manipulando genes.
Em 1983, Ralph Brinster, da Faculdade de Veterinária da Universidade da Pensilvânia, inseriu genes humanos de hormônio do crescimento em embriões de ratos. Estes, por sua vez, manifestaram os genes humanos e cresceram duas vezes mais rápido e quase duas vezes mais o tamanho de qualquer outro rato. Esses "super-ratos" transmitiram o gene humano do hormônio do crescimento para suas crias.
No começo de 1984, os cientistas lograram êxito numa experiência que consistia em fundir células embrionárias de uma cabra e de uma ovelha e colocaram o embrião num animal substituto que gerou uma quimera cabra-ovelha. O primeiro exemplo de "mistura" de duas espécies animais distintas na história humana.
A biotecnologia está sendo vista também como uma das grandes aliadas no combate à poluição, trazendo novas técnicas que contribuem para a limpeza do meio ambiente. A biorremediação, por exemplo, é uma dessas técnicas, que consiste no uso de organismos vivos para remover ou transformar poluentes perigosos e lixo contaminado em inofensivo. Uma nova geração de microorganismos geneticamente modificados está sendo desenvolvida para converter materiais tóxicos em substâncias benignas.
O setor da silvicultura também está lançando mão dos recursos genéticos para melhorar o seu desempenho florestal, estudando novos genes que possam ser inseridos em mudas de árvores para fazê-las crescer mais rapidamente, mais resistentes a doenças e mais toleráveis ao calor, frio e seca e com maior rendimento energético.
Na agricultura, os avanços biotecnológicos se mostram mais latentes, com o desenvolvimento de alimentos geneticamente modificados.
Em 1990, foi lançado o audacioso Projeto Genoma Humano, um dos mais importantes empreendimentos científicos dos séculos XX e XXI e um dos mais fascinantes estudos que poderia ser realizado nessa nova era científica. Inicialmente liderado por James Watson, na época chefe do Instituto Nacional de Saúde dos Estados Unidos (NIH), tinha o projeto como meta o conhecimento de todo o código genético humano e de suas alterações, que são as causas de mais de quatro mil doenças hereditárias. O resultado desse estudo foi divulgado em 2003, anunciando o sucesso do projeto.
De acordo com Maria Helena Diniz, o Projeto Genoma pode ser considerado o superstar da big science "em virtude do seu potencial para alterar, com profundidade, as bases da biologia, por ser uma revolucionária tecnologia de sequenciamento genético baseada em marcadores de ADN, que permitem a localização fácil e rápida dos genes". E continua a jurista:
"Com isso, o genoma humano, que é propriedade inalienável da pessoa e patrimônio comum da humanidade (art. 1° da Declaração Universal sobre o Genoma Humano e Direitos Humanos), passará a ser base de toda pesquisa genética humana nos próximos anos. Esse projeto, ao descobrir e catalogar o código genético da espécie humana, efetuando um mapeamento completo do genoma humano, possibilitará a cura de graves enfermidades, explorando as diferenças entre uma célula maligna e uma normal para obter diagnósticos de terapias melhores" [05].
Em 1997, outro marco na emergente era biotecnológica foi anunciado ao mundo científico: o nascimento da ovelha Dolly, primeiro mamífero clonado da história. A notícia causou enorme impacto e frisson na comunidade científica e empolgou o mundo.
A divulgação pela imprensa de determinadas experiências de clonagem, principalmente da sofrida por Dolly, suscitou o debate sobre a possibilidade de sua aplicação dentro das técnicas de reprodução assistida, a seres humanos e as consequências que dela poderiam derivar, despertando a reação de cientistas, teólogos, juristas, de diferentes entidades e organismos internacionais, em busca de respostas viáveis e de uma tomada de posição contrária à clonagem humana.
Segundo Rifkin, as descobertas acerca da habilidade de identificar, estocar e manipular as estruturas químicas dos organismos vivos tornou-nos engenheiros da própria vida: "começamos a reprogramar os códigos genéticos de coisas vivas para adaptá-las às nossas necessidades e desejos econômicos e culturais. Assumimos a tarefa de criar uma segunda Gênese, dessa vez uma sintética, voltada para os requisitos de eficiência e produtividade".
É certo que essas grandes transformações biotecnológicas estão sendo acompanhadas por uma transformação filosófica igualmente relevante: "a humanidade está começando a remodelar sua visão da existência humana para coincidir com sua nova relação organizacional com a Terra" [06].
2.2. RETROCESSO ÉTICO
No seio das intensas transformações contemporâneas, avanços biotecnológicos e retrocessos éticos marcaram profundamente o século XX e, certamente, o século XXI dará continuidade às discussões.
Apesar da empolgação e esperança proporcionada pelo progresso científico na área da biotecnologia, especialmente no âmbito da engenharia genética, todo esse avanço levou-nos a refletir ainda mais sobre o caminho sem volta que estaríamos trilhando para as futuras gerações.
Maria Helena Diniz chega a alertar que, no século biotecnológico, estaríamos diante de uma receita infalível para a coisificação do ser humano e de um "terrível processo para liquidação da humanidade a longo prazo".
De fato, os procedimentos laboratoriais de manipulação de células germinais humanas, principalmente a produção, armazenamento ou manipulação de embriões humanos destinados a servir como material biológico disponível, confundem sujeito com objeto, afetando uma das mais importantes distinções jurídicas de todos os tempos: o ser humano enquanto sujeito de direito não pode estar, ao mesmo tempo, considerado como objeto.
Revelam também tentativa de coisificação do ser humano as pretensões de criação, por meio de técnicas de engenharia genética, de seres humanos com características específicas, voltadas para determinadas funções na sociedade, a chamada eugenia positiva, como a criação de seres humanos com compleição física específica para determinados trabalhos, ou a criação de seres humanos com alto potencial de desenvolvimento intelectual, etc.
Esse entrecruzamento da ética com as ciências da vida e com o progresso biotecnológico provocou uma radical mudança nas formas tradicionais de agir dos profissionais da saúde e na forma da pensar da sociedade em geral.
No prefácio de sua obra O Estado Atual do Biodireito, Maria Helena Diniz discorre que:
"Com essa nova faceta criada pela biotecnologia, que interfere na ordem natural das coisas para "brincar de Deus", surgiu uma vigorosa reação da ética e do direito, que, aqui, procuramos ressaltar, fazendo com que o respeito à dignidade da pessoa humana seja o valor-fonte em todas as situações, apontando até onde a manipulação da vida pode chegar sem agredir" [07].
Em que pese vislumbrarmos, no século biotecnológico, a perspectiva de grandes avanços num futuro repleto de esperanças, é certo que a manipulação da vida do homem pelo próprio homem traz riscos incomensuráveis à humanidade. A criação da vida pelo homem dá-lhe poderes nunca antes experimentados.
Os riscos, sem dúvida, são sedutores diante das maravilhas que o mundo científico pode nos proporcionar, mas qual o preço que estaríamos dispostos a pagar por tais riscos? Quais os impactos que as nossas decisões de agora trarão para as futuras gerações?
Ernest-Wolfgang refletindo sobre os problemas trazidos pelo progresso da biomedicina e da biotecnologia dá alguns exemplos merecedores de maior reflexão:
"A fecundação e o desenvolvimento de embrião prematuro pelo homem, hoje, podem se realizar fora do corpo humano; intervenções cirúrgicas tecnológicas, por razões genéticas, podem ser efetuadas junto aos núcleos das células embrionárias. Não é mais utopia a ideia de seleção da prole. Existe a possibilidade real de se fazer uma seleção negativa, que é orientada pelos defeitos genéticos, bem como de efetuar uma seleção positiva, que se baseia nas características desejadas para o descendente. (...) O que Adous Huxley formulou com evidência em seu admirável mundo novo como utopia negativa, apontando a produção de homens, cujas respectivas características foram estabelecidas de antemão; que forma fabricados, sim, em sentido real, apresenta-se hoje como opção possível, e não mais como utopia irreal" [08].
Mas é isso realmente que a sociedade almeja para as próximas décadas? Fabricação de pessoas com características predefinidas, para fins específicos? Nesse contexto, não poderiam os bebês "personalizados" ser a base para o surgimento de uma civilização eugênica no século XXI?
Para Rifkin, esse novo movimento eugênico diferiria do reinado de horror que resultou do holocausto, na medida em que a antiga eugenia (que buscava a pureza racial), capitaneada por Adolf Hitler, se calcava em uma ideologia política e era motivada pelo medo e pelo ódio. Ao contrário, a nova eugenia seria impulsionada pelas forças de mercado e pelos desejos do consumidor.
Mas será que esses movimentos eugênicos seriam mesmo tão diferentes assim? A longo prazo, será que não haveria uma predileção natural por seres humanos engenheirados, altamente eficientes e tecnicamente infalíveis, ao invés de seres humanos "normais"? Quem pode garantir que não haverá marginalização e perseguição dos homens "comuns"? Será que não serão vistos como "raça inferior" à luz do antevisto por Huxley em "Admirável Mundo Novo"?
Diante de toda essa revolução, onde fica o direito fundamental à identidade genética? À dignidade da pessoa humana? Teríamos que reformular e redefinir esses preceitos? Ou todos esses questionamentos não passariam de mero alarmismo? Ficam no ar as reflexões.
Na opinião de Jeremy Rifkin, apesar de todos os esforços e progressos biotecnológicos, a tentativa dos cientistas de se igualarem a Deus é inútil e sempre fracassará diante de uma natureza implacável e imprevisível, onde a vida sempre encontra uma forma de se superar. E complementa: "a natureza é vigorosa, complexa e variável demais para ser previsivelmente modelada pelos cientistas. No final, podemos acabar perdidos e à deriva nesse novo mundo artificial que estamos criando para nós mesmos no século biotecnológico".
É essa nova maneira de pensar sobre a natureza da vida que certamente determinará o rumo da próxima grande era da história.
http://jus.com.br/artigos/18976/a-revolucao-biotecnologica-do-seculo-xxi


                                    A VISÃO DE CIÊNCIA NO CONTEXTO ESCOLAR       
JULIANA CARDOSO PEREIRA*
   Introdução
   Meu interesse nessa problemática de estudo me acompanha desde a graduação. Ao ingressar no curso de Licenciatura em Química na Universidade Federal de Pelotas/RS carregava a “certeza” que iria me tornar uma “cientista” e, após os quatro anos de curso poderia ensinar esse “fazer ciência” aos meus estudantes. Minha visão de ciência repousava sobre a noção de que ciência tem método, tem rigor e é essencialmente experimental. Ao longo dos semestres fui me questionando sobre essa “ciência” e esse “fazer cientifico”. Desde então ao longo dos meus estudos, essas questões permeiam minhas leituras e vêm me constituindo enquanto pesquisadora.
   Na maioria das vezes buscamos definições fechadas sobre algo, com a ciência não é diferente. Porém quando pensamos em uma definição específica do que é a ciência, criamos uma divisão do que é e o que não é ciência. Essa divisão pode ser ainda maior quando utilizamos, nessa tentativa de definição, um dicionário, seja de língua portuguesa ou um dicionário etimológico de filosofia. Cada uma destas definições está certamente comprometida com as práticas e valores da sua respectiva área de conhecimento.
   A ideia de não nos fecharmos em conceitos e definições nem sempre está presente no ensino de ciências (química, física, biologia). Muitas vezes, em sala de aula, alguns docentes não dão lugar para a dúvida, nem mesmo discutem a existência de conflitos entre diferentes linhas de pensamento sobre o que vem a ser a ciência.
   Sendo assim, o ensino de ciências baseia-se, muitas vezes, em definições vernaculares, ou ainda uma visão legitimada pelo discurso da mídia, contribuindo para que os estudantes construam uma visão fechada de ciência.
   Esse distanciamento do debate sobre o que se entende por ciência e como ela é percebida no contexto escolar, principalmente no ensino de ciências me parece fonte de uma produtiva discussão, tanto para os docentes como para estudantes.
   Na tentativa de problematizar as diferentes concepções sobre ciência, bem como valorizar dentro do ensino de ciências, as discussões da história e filosofia da ciência é que desenvolvi esse trabalho. Para isso, tentei identificar as concepções de ciência de estudantes formandos no Ensino Médio de uma escola da cidade de Pelotas/RS.
   Através dessa investigação, é possível discutir sobre qual concepção de ciência acompanha esses estudantes no seu contexto escolar, e que irá também acompanhá-lo/s ao seu ingresso no Ensino Superior.
   O que se pretende é uma discussão sobre a importância de uma reflexão sobre as condições de produção do saber dentro das ciências, tentando romper com a ideia de linearidade presente no ensino de ciências. Para isso num primeiro momento apresento algumas concepções que compõem o cenário das discussões sobre a construção da ciência, e em seguida trago os registros dos estudantes com algumas discussões. Finalizo com algumas considerações a respeito da importância da história e filosofia da ciência no currículo escolar.
  
   O nascimento da ciência
   Antes de tudo, gostaria de salientar que não é pretensão nesse texto, contar a história da constituição da ciência como uma série de acontecimentos evolutivos, mas tentar buscar um entendimento de como foram ocorrendo às transformações a respeito dos saberes científicos.
   Sabemos assim, que inúmeras são as concepções sobre o que vem ser a ciência, e
problematizar essas discussões entre as várias vertentes de pensamento no contexto escolar é
de extrema relevância. No seio dessa discussão está a importância da história e filosofia da
ciência no currículo de escolar, pois assim como Loguercio e Del Pino (2007, p.70), acredito
que com o conhecimento da história das ideias em nossas salas de aula, podemos “propiciar
ao estudante sentido aos conteúdos”, possibilitando também, uma melhor compreensão dos
conceitos uma vez que “há um melhor entendimento do conceito quando se conhece a forma
do pensamento no seu tempo de emergência”.
   Nesse sentido, existem muitas visões sobre ciência, abordaremos aqui as principais concepções que a partir da Idade Média, vieram a constituir a visão hegemônica tradicional sobre ciência. Parto então, das “grandes descobertas” da Matemática, da Física e da Astronomia, no século XVI, na Europa, como início de um novo paradigma, que rompeu com a visão de mundo que se tinha até aquele momento. Esse movimento, segundo Henning (2008, p.63) foi “originário de uma nova concepção de conhecimento válido”, caracterizado pela supervalorização do homem, “agora sendo o ser que, através da observação e da experiência, determina os saberes legítimos, certos e errados, verdadeiros e falsos”.
   Muitas das visões sobre a ciência são derivadas do pensamento positivista, como por exemplo, a representada por Augusto Comte (1798-1857). Para ele, o conhecimento cientifico é uma proposição demonstrada e demonstrável de leis que se originam na experiência. Desta forma, o método positivista se fundamenta na crença de que as hipóteses são formuladas com base na observação e na experiência, e é esse método que deve instruir o pensamento na elaboração do conhecimento científico.
   Uma das maiores estratégias dos positivistas era distinguir a ciência do discurso metafísico e religioso, ambos considerados como não científico. Segundo o pensamento de Comte existia uma “lei do três estados”. Segundo ela, cada ramo do conhecimento passaria sucessivamente em seu desenvolvimento por três estados: o teológico, o metafísico e o positivo ou científico.      Com isso, seria possível descobrir as leis efetivas dos fenômenos. A descoberta das leis efetivas se daria de acordo com aplicação do método positivo que, por ser único e invariável, determinaria o modus operandi das ciências, independente das suas especialidade. A invariabilidade do método acabou por se cristalizar em espécie de receituário a ser seguido em toda investigação científica (OLIVEIRA, 2000) que também, está presente no ensino de ciências quando regido pelo pensamento positivista.
   Essa tentativa de caracterização geral da ciência, não se deu somente pelos positivistas. O novum organum de Francis Bacon, o Discurso sobre o método de René Descartes e A Crítica da razão pura de Immanuel Kant são notáveis precursores dos esforços para essa caracterização (CHALMERS, 1994).
   Para essa caracterização geral das ciências, os positivistas baseavam-se em dois aspectos. O primeiro é que ela deveria ser universal, para isso deveria ser aplicável a todos os testes científicos. Essa teoria unificada deveria também, servir para explicar tanto a física quanto a psicologia, e ainda ser capaz de criticar a religião e a metafísica. O segundo aspecto é que deveria ser a-histórica, pois deveria aplicar-se tanto as teorias passadas como às contemporâneas (CHALMERS, 1994).
   Mas mesmo nesse terreno firme que abrigou diversas teorizações, criou-se rachaduras, e um dos primeiros a fazer a crítica ao método positivista da ciência foi Karl Popper (1902- 1994). Popper buscava demarcar o limite entre a ciência e a não ciência, para isso baseou-se no refutacionismo, ao propor o falseacionismo como modelo para a descrição do desenvolvimento da ciência.
   Segundo estas ideias, o cientista busca através da experimentação e de suas visões sobre a natureza, obter fatos que contestem teorias atuais vigentes. Aceitando a visão de ser impossível provar uma teoria, ele diz apenas que a teoria seria tão melhor quanto mais vezes tivesse sido posta à prova, na tentativa infrutífera de ter sido refutada. O determinante de o que vem a ser científico está na possibilidade de ser testado e refutado, tornando o avanço científico um descartar de erros passados. Para o falsificacionista, o erro desempenha um papel importante na elaboração do conhecimento. Seria através da proposição de hipóteses audaciosas, passíveis de serem experimentalmente refutadas, que ocorreria o refinamento teórico, pois, ao se descobrir que a hipótese era falsa, poder-se-ia aprender muito sobre a verdade (KOSMINSKY; GIORDAN, 2002).
   Na crítica ao positivismo, podemos destacar também Gaston Bachelard (1884-1962). Segundo ele, a evolução das ciências é dificultada por obstáculos epistemológicos, entre os quais estão: o senso comum, os dados recolhidos, os resultados experimentais e a própria metodologia aceita como válida, assim como todos os conhecimentos acumulados. Segundo ele, só podemos superar esses obstáculos por atos epistemológicos de ruptura com os conhecimentos anteriores, seguida por sua reestruturação.
   Ainda segundo Bachelard, a ciência não acumula inovações, mas as sistematiza e coordena. Assim, o cientista não descobre nada, apenas sistematiza melhor. Para ele, o essencial não é acumular fatos e documentos, mas reconstruir o saber, através de atos epistemológicos que reorganizam e transformam a evolução de uma determinada área das ciências. A ciência seria então um processo de construção não linear.
   Duas outras contribuições tão se tornam de extrema importância para entendermos esse processo de construção da ciência, o primeiro deles é Imre Lakatos (1922-1974). Segundo ele, o cientista está preso as teorias vigentes, evitando rejeitá-las. Assim quando os dados experimentais discordam dos modelos já propostos, o cientista não abandona imediatamente o modelo, mas, ao contrário, procura modificá-lo mediante uma nova construção na qual são acrescentadas novas hipóteses auxiliares, que, além de sofisticarem o modelo, contribuem para a manutenção da teoria vigente (KOSMINSKY; GIORDAN, 2002).
   O segundo é Thomas Kuhn (1922-1996), para ele o desenvolvimento das ciências se dá por
meio de inúmeras e profundas rupturas. Kuhn argumenta que a ciência é caracterizada por dois momentos com comportamentos científicos distintos: a ciência normal e a ciência revolucionária.   Na primeira, os conceitos adotados por uma comunidade científica estão bem estabelecidos, e os modelos vigentes descrevem bem os fatos observáveis. Nesse período, os cientistas, partilham consensualmente de um conjunto de técnicas, métodos, objetos de estudo, princípios, leis, teorias e ferramentas culturais, reconhecidos como paradigma dessa comunidade. Quando, porém, existem acúmulos de dados que contradizem o paradigma, surgem pequenas e limitadas explicações paralelas para cada fato em particular. Estes, posteriormente são somadas pouco a pouco, até causarem uma crise no paradigma. É a fase revolucionária, na qual ocorre o avanço da ciência (KOSMINSKY; GIORDAN, 2002).
   Porém, segundo Loguercio e Del Pino (2007, p.85) “foi o empirismo de Bacon e sua ‘descoberta’ que mais atingiram a noção de ciência que se desenvolveu nas academias e escolas brasileiras, por ter, entre outras coisas, servido de base para o positivismo”. Na concepção de Francis Bacon, para pensar a ciência é necessário eliminar a presença do observador, era necessário uma observação controlada para se obter o conhecimento. Nesse sentido, para ele era possível fazer uma ciência neutra.
   Até o início do século XIX, a ciência moderna foi convertida numa instância suprema para “além do bem e do mal”. A crise moral que pairava sobre a Europa desde a Reforma, resultando na crise do poder religioso, só poderia ser resolvida por uma nova religião. E essa nova religião era a ciência (SANTOS, 2000, p.51). Assim a ciência obteve o mesmo dogma religioso.
   Essa tentativa de estabelecer uma verdade universal para as ciências perdurou até meados do século XX onde se dá então, uma quebra do paradigma científico, moderno. A ideia de definir uma essência imutável da ciência esconde várias fraturas ao longo dos séculos
e é com o pós-modernismo e o pós-estruturalismo que se dará a visibilidade a essas fraturas.
   Como nos propõe Foucault, é necessário colocarmos em suspenso às verdades produzidas e
legitimadas pela ciência desvalorizando assim, qualquer tipo de dogmatismos e/ou autoritarismos.
   Segundo Santos (2000), vivemos numa situação de transição paradigmática.
   Vivemos, pois, numa sociedade intervalar, uma sociedade de transição paradigmática. Esta condição e os desafios que ela nos coloca fazem apelo a uma racionalidade ativa, em trânsito, tolerante, porque desinstalada de certezas paradigmáticas, inquieta, porque movida pelo desassossego que deve, ela própria, potenciar. (p.42)
   Percebo assim, a importância de analisar a concepção de ciência dos estudantes, que é construída, entre vários espaços, também no espaço escolar. Pois é através dessa análise
podemos favorecer uma discussão sobre a construção dessa ciência, e quais as condições que
possibilitaram para que assumisse o atual status científico.
   Assim como os estudantes, muitos docentes também não discutem ou mesmo questionam o saber científico que ensinam. Diversos estudos têm revelado que muitos docentes possuem concepções confusas acerca do empreendimento científico. Durante a sua formação inicial, os docentes raramente têm oportunidade de refletir sobre aspectos da natureza da ciência (REIS E GALVÃO, 2006). Nessa medida, cada vez mais se torna necessária uma desestabilização, do cânone tão firme da ciência tradicional, ainda presente em nossas salas de aula.

   O que é “Ciência” para os estudantes
   Na busca pela representação sobre ciência dos estudantes, realizei um levantamento com estudantes do 3º ano do Ensino Médio de uma escola da rede privada de ensino de Pelotas/RS. Participaram 35 voluntários, respondendo a seguinte pergunta – “o que é ciência?”, em seguida pediu-se aos estudantes que representassem através de uma imagem ou desenho a sua visão de “ciência”.
   Com isso, foi possível perceber uma visão reducionista sobre a ciência nos registros dos estudantes. Essa visão, no entanto, é também muitas vezes predominante na escola, (re)afirmada pelo discurso dos livros didáticos e por alguns docentes. A mídia também é outro
grande influenciador e formador de visões reduzidas e estereotipadas sobre a ciência.
   Percebo em alguns registros dos estudantes que a ciência é tida como uma atividade cheia de grandes descobertas. Por exemplo, quando uma aluna diz – “ciência é o que se cria, é o que se descobre coisas novas, ou melhora as coisas já existentes”, ou ainda – É a ciência que descobre alguma coisa”. Fica claro, como ainda hoje está presente na escola o método da redescoberta, onde se investiu na década de 70 no experimentalismo no ensino de ciências, retomando o empirismo de Francis Bacon.
   Outro ponto importante a respeito da ciência são as “certezas científicas”. A visão de ciência percebida nos registros dos estudantes pode ser vista como uma prática em que não há espaço para dúvida, como diz um depoimento – “ciência para mim é tudo aquilo que estudamos e podemos retirar as dúvidas. Assim sabemos cada vez mais sobre a ciência das coisas”.
   A ideia de uma ciência objetiva também se faz presente na concepção dos/as estudantes/as, pois um estudante diz – “a ciência ajuda a humanidade, o cientista é aquele que trabalha para a o progresso da humanidade.” Com isso, percebemos que na visão dos estudantes a ciência é neutra, fechada em si mesma, ao contrário do que se percebe em nossa sociedade atual, uma ciência que tem interesses, que vem sempre acompanhada ou patrocinada por interesses econômicos que obedecem a uma determinada racionalidade.
   Na segunda atividade, percebi que a imagem que os estudantes tem da ciência são, em sua maioria, a figura de um “cientista”, representado pelo sexo masculino e interagindo com seus “experimentos” (anexo 1). Sendo assim, nota-se que há uma preponderância ao caráter experimental da visão de ciência dos estudantes, desconsiderando aparentemente, as elaborações teóricas e as ciências não experimentais. Como dizem Loguercio e Del Pinto (2007, p. 75) “não pensamos nossos conhecimentos como obras de humanos” e isso favorece a visão do conhecimento como único e verdadeiro. Percebemos assim, que a história e filosofia da ciência ainda não têm lugar no currículo da escola, pois há uma valorização da
lógica do pensamento da ciência dita exata em detrimento das áreas humanas.

   Considerações Finais
   Com esse estudo inicial que irá compor minha dissertação de mestrado, percebo o quanto as visões tradicionais de ciência, cheias de certezas e verdades, baseada no método experimental, estão presentes na visão dos estudantes.
   Mesmo estando em um período de transição paradigmática, como nos anuncia Santos (2000), a escola, e principalmente o ensino de ciências, ainda não incorporou a ciência como construção não linear, com inúmeras rupturas. Sabemos que esse processo é lento, e que são derivados de reformas curriculares e investimentos financeiros.
   Sendo assim, acredito que a continuidade desses estudos poderá trazer muitos frutos para se pensar o ensino de ciências como espaço de debate sobre a história e a filosofia da ciência, contribuindo para diminuir o distanciamento que existe entre o currículo de ciências e o estudo de história e filosofia, bem como para possibilitar um melhor entendimento desse universo científico, que é feito por pessoas reais que vivem em seus universos discursivos e que não está fora das relações de poder/saber.
   Não é à toa que emergem hoje estudos na área da história da ciência, bem como suas implicações no ensino, em instituições com larga tradição, como em Harvard como citam Loguercio e Del Pino (2007, p. 70).
   Referências
CHALMERS, A. A fabricação da ciência. São Paulo: Editora da Universidade Estadual Paulista, 1994.
HENNING, P. Efeitos de sentido em discursos educacionais contemporâneos: produção de
saber e moral nas ciências humanas. 2008. 282f. Tese (Doutorado em Educação)-
Universidade do Vale do Rio dos Sinos, São Leopoldo.
KOSMINSKY, L.; GIORDAN, M. Visões de Ciências e sobre Cientista entre estudantes do
Ensino Médio. Química Nova na Escola, n. 15, maio 2002.
OLIVEIRA, J. R. de. A escola e o Ensino de Ciências. Ed. UNISINOS: São Leopoldo, 2000.
REIS, P.; GALVÃO, C. O diagnóstico de concepções sobre os cientistas através de análise e
discussão de histórias de ficção científica redigidas pelos estudantes. Revista Electrónica de
Enseñanza de lãs Ciências, vol. 5, n.2, 2006.
LOGUERCIO, R. Q.; DEL PINO, José Claudio. Em Defesa do Filosofar e do Historicizar
Conceitos Científicos. História da Educação (UFPel), v. 23, p. 67-96, 2007.
SANTOS, B. de. S. A crítica da razão indolente: contra o desperdício da experiência. 2.ed. –
São Paulo: Cortez, 2000.
*Docente do Instituto Federal de Mato Grosso do Sul – Campus Nova Andradina
Mestre em Educação pela Universidade Federal de Pelotas/RS.

O DESENVOLVIMENTO INDUSTRIAL E O IMPACTO NO MEIO AMBIENTE
Marciano Almeida Mello
(...)
1. Introdução:
Grandes empresas passaram a incluir a questão do ambientalismo em sua agenda. Entretanto, Castells assinala que “a maioria de nossos problemas ambientais mais elementares ainda persistem, uma vez que seu tratamento requer uma transformação nos meios de produção industriais e de consumo, bem como de nossa organização social e de nossas vidas pessoais”.
A partir do inicio dos testes nucleares e as explosões das bombas atômicas sobre o povo japonês, próximo a metade do século passado, é que surge e se organizam os primeiros ambientalistas, chamados alternativos, procurando mostrar ao mundo a possibilidade de estar sob o comando de malucos poderosos, que poderiam explodir o planeta por conta de suas ambições e egoísmos.
Um dos mais importantes movimentos sociais dos últimos anos, foi a chamada “Revolução Ambiental”, que promoveu significantes transformações no comportamento da sociedade como um todo e na organização política e econômica mundial. Começando a ser questionada e debatida no final do século XIX, a questão ambiental emergiu após a Segunda Guerra Mundial, promovendo importantes mudanças na visão do mundo. A humanidade, pela primeira vez, percebeu que os recursos naturais são finitos e que seu uso incorreto pode representar o fim de sua própria existência. Com o surgimento da consciência ambiental, a ciência e a tecnologia passaram a ser questionadas.
A partir desses questionamentos houve uma maior preocupação para prevenir e precaver situações ocasionadoras de danos ambientais. Alguns autores, consideram a publicação, em 1962, do livro Primavera Silenciosa, de Rachel Carson, como o começo das discusões internacionais sobre o meio ambiente. Porém, pode-se afirmar com certa segurança, que o conceito de desenvolvimento sustentável, teve seu início em 1.968, ano em que constitui-se o Clube de Roma, composto por cientistas, industriais e políticos, que tinha como objetivo discutir e analisar os limites do crescimento econômico levando em conta o uso crescente de recursos naturais.
Detectaram que os maiores problemas eram: industrialização acelerada, rápido crescimento demográfico, escassez de alimentos, esgotamento de recursos não renováveis, deterioração do meio ambiente. Tinham uma visão ecocêntrica e definiam que o grande problema estava na pressão da população sobre o meio ambiente.
O Clube de Roma propôs na oportunidade através de um documento chamado Relatório Meadow (conhecido como Relatório do Clube de Roma), crescimento econômico zero e influenciou , de maneira decisiva, o debate na conferência de Estocolmo, realizada em 1.972, como a primeira Conferência das Nações Unidas sobre o Meio Ambiente Humano.
2. FATOS HISTÓRICOS E DESASTRES ECOLÓGICOS
Nos séculos passados, o meio natural era visto como mecânico e predominava o pensamento determinista, sendo a natureza colocada como condição ou obstáculo para o desenvolvimento de uma determinada sociedade. Mas, a partir dos anos 60, o caráter preparatório provocado pelo processo industrial foi enfatizado por diversos autores.
Miltom Santos (1996), por sua vez , enfatizou o papel do Capitalismo Tecnológico e seu impacto no meio natural. Destacou que, hoje a natureza sofre, antes de qualquer coisa, um processo de instrumentalização, tornando-se um processo social e, com isso “desnaturalizada” O meio natural sempre esteve em pauta no debate ambiental, mas hoje a Ecologia e outras ciências são influenciadas pelo surgimento de novos paradigmas e o debate ambiental com mais vigor.
A ciência e a tecnologia desenvolveram-se muito rapidamente a partir do início do século XX e a intensificação da atividade industrial tornou suas técnicas de produção cada vez mais sofisticadas e foram multiplicadas ocupando território físico e comprometendo cada vez mais o meio ambiente.
A tecnologia avança e a industrialização segue junto, com isso provocando mais riscos á vida humana. Ao lado do crescimento industrial existe a pressão econômica para dela (indústria) tirar mais lucro e desempenho. Explorando, muitas vezes, sem nenhum controle ou prevenção, as riquezas da terra por ordem de um capitalismo egocêntrico em sua forma de produzir. Esses fatos constatados atualmente afetam diretamente o meio ambiente, muitas vezes provocando impactos negativos, irreversíveis ou de difícil recuperação. Hoje os riscos produzidos se alastram em quase todas as dimensões da vida humana, obrigando-nos a rever a forma como agimos em relação meio ambiente. O consumismo leva a nos questionar sobre os hábitos de consumo e a maneira como a produção disso está sendo alimentada pelo próprio meio ambiente. As novas tecnologias industriais proporcionam inúmeras comodidades para nosso bem estar. No entanto, devemos ter a consciência dos riscos que essas novas tecnologias provocam no ambiente e a gravidade da situação.
Os riscos em curto prazo são absorvidos pela própria natureza, mas a preocupação maior é com a própria capacidade de espaço físico para suportar tantos dejetos industriais. O perigo provocado pela industrialização do mundo faz surgir movimentos de resistência e conscientização (educação, informação ecológica) no sentido de se criar normas e organismos que possam controlar riscos presentes e muito especialmente a noção relacionada com o futuro ambiental da humanidade.
Na atualidade os riscos estão mais relacionados com os acidentes ou com abusos humanos. A não ser os eventos naturais de grande porte, os demais riscos podem-se prevenir ou serem evitados até certo grau.
Alguns acontecimentos marcantes no século XX auxiliaram numa tomada de consciência sobre os riscos da industrialização e do uso indiscriminado da tecnologia. Vamos relembrar alguns desses fatos para melhor analisarmos todo o impacto de destruição e danos ambientais que a indústria causa no espaço físico em que habitamos, transformando e alterando a ecologia natural que responde pelo processo de vida tanto vegetal, como animal.
Desde o inicio da Revolução Industrial, Londres foi a primeira grande preocupação com o potencial técnico científico destrutivo da humanidade e do meio ambiente. No final da Segunda Guerra, com o lançamento da bomba atômica sobre Hiroshima e Nagasaki, causando a morte de milhares de pessoas, o mundo ficou chocado e surpreendido com o potencial de destruição que havia se atingido com o crescimento tecnológico e industrial.
Entretanto, a verdadeira tomada de consciência ecológica, começou com a percepção de que o planeta estava sendo permanentemente danificado, quando no final da década de 1950 e o Japão estava passando por um rápido processo de industrialização. Nessa época, na Baía de Minamata, as pessoas ainda viviam como há centenas de anos, tiravam o alimento do mar e comiam peixe fresco diariamente. O primeiro sinal de alerta e de que havia alguma coisa errada, foi notado através dos gatos que, também comiam peixes, começaram agir estranhamente, com ataques e tremores seguidos de morte. Algumas pessoas começaram a apresentar os mesmos sintomas. As crianças estavam nascendo com o cérebro danificado. Tomiji Matsuda nasceu cego e com o cérebro defeituoso, tornando-se mais tarde um símbolo do movimento ecológico. Os médicos suspeitaram inicialmente que se tratava de envenenamento por metal e chamaram o fenômeno de “doença de Minamata”.
Não existia nenhum tipo de veneno na Baía antes que uma indústria tivesse se instalado na vila – a Chiso Corporation. A fábrica continuou poluindo, matando e deformando gente e animais por mais dez anos. Os japoneses, assim como a maioria das pessoas no final dos anos 50, relacionavam fumaça e lixo com progresso, prosperidade e geração de empregos, e o Japão estava tentando acompanhar o ritmo de industrialização da Europa Ocidental e da América do Norte. Na época, o problema de Minamata ainda era considerado simplesmente um fato local.
Outro caso marcante a ser relatado foram os efeitos negativos da industrialização no campo, onde os pesticidas pareciam vencer para sempre os problemas das pragas. Até que, em 1962, a bióloga Rachel Carson lançou, nos Estados Unidos, o livro “Silent Spring”, dizendo os perigos causados pelos inseticidas e pesticidas. Carson afirmava que os produtos químicos matavam os insetos e pragas prejudiciais, mas também os benéficos, destruíam o solo e envenenavam as pessoas.
Apesar dos ataques contra Carson, esta recebeu apoio público e seu livro virou um fenômeno nos Estados Unidos, vendendo mais de seis milhões de exemplares e chamando a atenção das autoridades para o problema.
O aviso para o perigo dos produtos químicos acontecia quando os países industrializados estavam ficando mais dependentes do petróleo. No final dos anos 60, um enorme derramamento de óleo na costa oeste da Inglaterra chocou o mundo, sendo exibido na televisão o horrível espetáculo de animais morrendo atingidos pelo petróleo e de praias contaminadas pelo vazamento. O mais grave derramamento de óleo aconteceu no Alasca, em 1989, quando o navio Exxon Valdez se chocou com um rochedo. O casco se rompeu e deixou vazar 40 milhões de litros de petróleo, atingindo uma área ambiental de 250 km2.
Os grandes acidentes em prejuízo do meio ambiente continuaram acontecendo por toda a metade do século XX. Em dezembro de 1984, a cidade de Bhopal, na Índia, foi contaminada por 40 km2 de gás tóxico. Cerca de 200 mil pessoas ficaram queimadas ou cegas, 10 mil morreram na hora e até hoje as vitimas sobreviventes apresentam problemas respiratórios ou no aparelho digestivo. A causa foi um acidente na fábrica de pesticidas Union Carbide, multinacional com sede nos Estados Unidos.
As chuvas ácidas também se tornaram comuns perto das grandes concentrações industriais e urbanas do mundo, poluindo os Grandes Lagos da América do Norte e os Lagos Alpinos. Em abril de 1986, ocorreu o maior acidente nuclear na Usina Nuclear de Chernobil, localizada na Ucrânia, então parte da União Soviética. É considerado o pior acidente da história da energia nuclear, produzindo uma nuvem de radioatividade que atingiu a União Soviética, Europa Oriental, Escandinávia e Reino Unido. Grandes áreas da Ucrânia, Bielorrússia e Rússia foram muito contaminadas, resultando na evacuação e reassentamento de aproximadamente 200 mil pessoas. É difícil precisar o número de mortos causados pelos eventos de Chernobil, devido ás mortes esperadas por câncer, que ainda não ocorreram e são difíceis de atribuir especificamente ao acidente. Um relatório da ONU de 2005 atribuiu 56 mortes até aquela data – 47 trabalhadores e 9 crianças com câncer de tireóide – e estimou que cerca de 4000 mil pessoas morrerão de doença relacionada com o acidente. O Greenpeace, entre outros contesta a conclusão do estudo.
O governo soviético procurou esconder o ocorrido da comunidade mundial, até que a radiação em altos níveis foi detectada em outros países.
Estes são acidentes de proporções que abalaram e proporcionaram ao mundo a necessidade da tomada de consciência adequando melhor o crescimento tecnológico e industrial, estabelecendo normas mais rígidas com relação ao uso e exploração do meio ambiente, com a finalidade de prevenir e precaver as eventuais calamidades que possam vir acontecer.
Acidente de menores proporções, acontecem no mundo ás centenas, todos eles transformando de forma negativa o meio ambiente natural.
3. CONSCIENTIZAÇÃO MUNDIAL PARA SUSTENTAÇÃO RACIONAL DO MEIO AMBIENTE
Pode-se considerar que as preocupações com o meio ambiente remontam ao longo da história do homem, principalmente, abordada pelos filósofos e teólogos. No entanto, os primeiros questionamentos do homem sobre o meio ambiente, segundo alguns autores, acontecem a partir do século XVI, com as grandes navegações e a ampliação das fronteiras mundiais para novos continentes, contrapondo a cultura e a civilização europeia aos costumes e a relação com o meio ambiente dos habitantes do novo mundo. Com a revolução industrial e cientifica no século XVIII, estabeleceu-se definitivamente um divisor de águas entre a sociedade do homem desenvolvido e sua cultura peculiar em contraponto dissonante á Natureza. O surgimento de uma ideologia consumista nas linhas de produção capitalistas, deu origem ás primeiras reflexões quanto a atuação danosa do homem sobre a Natureza. Para alimentar o consumismo emergente as consequências recaíam na degradação do meio ambiente, naquela época, alienatária e sem nenhuma previsão sobre reposição daquilo que se estava subtraindo da Natureza.
As primeiras manifestações organizadas em defesa do meio ambiente surgem no século XX no pós-II Grande Guerra, quando o homem tomou consciência de que poderia acabar definitivamente com o planeta e com todas as espécies, inclusive a própria. Após a explosão das bombas de Hiroshima e Nagasaki, iniciaram-se na Europa manifestações pacifistas contra o uso de energia nuclear em função das consequências desastrosas para a humanidade e o meio ambiente.
Um fator que marcou profundamente a conscientização sobre os danos ocasionados pelo avanço tecnológico/industrial, foi o livro “A Primavera Silenciosa”, de Rachel Carson, lançado nos Estados Unidos, em 1962. Rachel Carson, dava ali um grito de alerta relacionado as graves consequências provocadas pelo uso de pesticidas e inseticidas nas lavouras. O uso desordenado e sem controle desses produtos estava trazendo danos ecológicos ambientais irreparáveis, como é o caso do quase extermínio da águia americana, uma das aves símbolo daquela nação. O grande desenvolvimento da indústria bélica, levaram ao crescimento dos movimentos ambientalistas que ajudaram a pressionar a comunidade internacional na tomada de decisão política para debater a produção industrial trabalhando parâmetros, necessários á conservação e preservação do meio ambiente.
Com a pressão do governo da Suécia a ONU, por motivo do desastre ecológico da Baía de Minamata, no Japão, realizou-se em 1972 a Conferência de Estocolmo, uma reunião internacional para discutir e debater o meio ambiente. Nessa Conferência surgiram duas correntes do pensamento ambientalista: os zeristas e os marxistas. Os zeristas, servindo-se da trincheira do Clube de Roma e com as armas fornecidas pelo relatório de Meadow sobre os Limites do Crescimento, propunham o crescimento zero para a economia mundial respaldados em projeções computacionais sobre o crescimento exponencial da população e do capital industrial como ciclos positivos, resultando em ciclos negativos representados pelo esgotamento dos recursos naturais, poluição ambiental e a fome. Assim previam o caos mundial em menos de quatro gerações. Já os marxistas embasados na contribuição de Goldssmith e o Manifesto pela Sobrevivência (1972), publicado em Londres, atribuíam a culpa ao sistema capitalista e ao consumismo da ideologia do supérfluo, provocando a banalização das necessidades e a pressão irresponsável sobre o meio ambiente, obtendo como subproduto do crescimento industrial a degradação ambiental. Os marxistas franceses a mesma época propõe a mudança do modo de produção e consumo, fundamentados em uma ecologia com ótica socialista, que abandone a produção de supérfluos pela produção de bens necessários transformando o trabalho árduo em trabalho criador, reduzindo este para aumentar o lazer cultural e a relação ecológica do homem com o meio ambiente.
“Com uma visão universal e baseados em uma compreensão ecológica do planeta, os fundamentalistas deixam de lado o antropocentrismo em nome de uma interpretação ecocêntrica, onde a terra é um enorme organismo vivo, parte de outro universal e maior, onde o homem é uma das formas de vida existente, não possuindo qualquer direito de ameaçar a sobrevivência de outras criaturas ou o equilíbrio ecológico do organismo.”
Apesar da conscientização mundial sobre a necessidade de exercer um maior controle de regras no uso e exploração do meio ambiente, foi a partir do relatório divulgado pela Sra. Brundtland, ex-primeira Ministra da Noruega, sob o nome de “Nosso Futuro Comum”, que a expressão “Desenvolvimento Sustentável” ganhou notoriedade. Este documento foi a base das discussões da Conferência das Nações Unidas para o Meio Ambiente e o Desenvolvimento (CNUMAD), mais conhecida como ECO 92 ou RIO 92, uma conferência promovida pela ONU no Rio de Janeiro, em 1992, em prosseguimento aquela realizada em 1972, na Suécia, Estocolmo.
O relatório propõe o conceito de que Desenvolvimento Sustentável seria a capacidade das atuais gerações atenderem ás suas necessidades sem comprometer o atendimento das necessidades das gerações futuras.
Enaltecido por uns e criticado por outros, tem a seu favor o fato de trazer definitivamente para o cenário mundial a problemática ambiental, propondo uma mudança no teor do crescimento econômico, mas pecando na identificação da pobreza dos países subdesenvolvidos como uma das causas da degradação ambiental. Entre alguns dos economistas há o entendimento de que a pobreza é um dos rejeitos necessários da acumulação capitalista e assim, como um efluente poluidor, identificam nos países desenvolvidos o foco gerador desta poluição humana. Com isso amplia-se o conceito de Desenvolvimento Sustentável, além da política do bom comportamento internalizado a este a questão das externalidades, ou seja, a incorporação dos danos ambientais provocados pela atividade econômica, aos custos das indústrias, o que coloca os países desenvolvidos em débito com a recuperação dos ecossistemas do planeta.
No Rio Eco-92, que contou com a participação de todos os países do mundo, a presença de representantes de mais de 180 países, possibilitou produção de extensa gama de instrumentos ambientalistas. Nela foram aprovadas duas convenções internacionais, a Convenção sobre a Diversidade Biológica e a Convenção Quadro sobre Mudanças Climáticas, além de duas declarações de princípios ( a Declaração do Rio de Janeiro sobre Meio Ambiente e Desenvolvimento e a Declaração sobre Florestas). Nesta Conferência foram também criadas as bases para o instrumento de construção do processo de desenvolvimento sustentável global: a Agenda 21, uma declaração de intenções que foi imediatamente subscrita por 179 países, ou a quase totalidade das representações presentes e de todas as nações do planeta.
No ordenamento jurídico brasileiro, o desenvolvimento sustentável está expresso no artigo 225 da Constituição Federal, que diz: “Todos têm direito ao meio ambiente ecologicamente equilibrado, bem de uso comum do povo e essencial á sadia qualidade de vida, impondo-se ao Poder Público e á coletividade o dever de defendê-lo e preservá-lo para as presentes e futuras gerações.” O equilíbrio ecológico só é possível na medida em que o país se desenvolve de maneira sustentável; o dever de preservar as condições ambientais para as futuras gerações caracteriza o elemento fundamental para a sustentabilidade.
Além da Agenda 21, a Conferência Eco-92 ou Rio 92, produziu outros documentos de extrema importância, tais como “A Declaração do Rio Sobre o Meio Ambiente e Desenvolvimento”, uma espécie de complementação da Convenção de Estocolmo, 1972 (Primeira Conferência das Nações Unidas sobre o Meio Ambiente). Nela, restou demonstrada, em 27 princípios, a importância de se proteger o meio ambiente em nível global, denunciando a relação entre a pobreza e a degradação do ambiente. Outro documento relevante é a Convenção da Biodiversidade, aprovada pelo Brasil através do Decreto Legislativo nº 2, de 3 de fevereiro de 1.994 e promulgada pelo Decreto 2.519, de 16 de março de 1.998, que teve como uma de suas importantes consequências a celebração do Protocolo de Biossegurança. Ainda, de lá surgiu a Convenção Quadro sobre Mudanças Climáticas, que serviu de base ao Protocolo de Kyoto, de 1997.
Os objetivos da Agenda 21 na visão de muitos segmentos socioambientais: “é o mais completo e importante documento redigido pela humanidade, pois, preconiza uma nova forma de desenvolvimento, abrangendo e disciplinando todos os setores ou atividades humanas no sentido de se desenvolver uma sociedade mais condizente com a manutenção da qualidade de vida global”. Esses propósitos, cada um contendo uma série de ações e recomendações que lhe são apropriados, são os seguintes:
- Produção e consumo sustentáveis contra a cultura do desperdício.
- Ecoeficiência e responsabilidade social das empresas.
- Retomada do planejamento estratégico, infraestrutura e integração regional.
- Energia renovável e biomassa.
- Informação e conhecimento para o desenvolvimento sustentável.
- Educação permanente para o trabalho e a vida.
- Promover a saúde e evitar a doença, democratizando o SUS.
- Inclusão social e distribuição de renda.
- Universalizar o saneamento ambiental protegendo o ambiente e a saúde.
- Gestão do espaço urbano e a autoridade metropolitana.
- Desenvolvimento sustentável do Brasil rural.
- Promoção da agricultura sustentável.
- Promover a Agenda 21 Local e o desenvolvimento integrado e sustentável.
- Implantar o transporte de massa e a mobilidade sustentável.
- Preservar a quantidade e melhorar a qualidade da água nas bacias hidrográficas.
- Política florestal, controle do desmatamento e corredores de biodiversidade.
- Descentralização e o pacto federativo: parcerias, consórcios e o poder local.
- Modernização do Estado: gestão ambiental e instrumentos econômicos.
- Relações internacionais e governança global para o desenvolvimento sustentável.
- Cultura cívica e novas identidades na sociedade da comunicação.
- Pedagogia da sustentabilidade: ética e solidariedade.
Todos esses objetivos traçados na ECO 92 RIO 92, trouxeram significativos avanços na teoria e na prática de mudanças na área ambiental, proporcionando a criação e a positivação de direitos universais relativo ao uso e aproveitamento do meio ambiente.
Partindo da Lei 6938/81, Política Ambiental, foram criadas as Leis de Biossegurança 8974/95, Lei de Crimes Ambientais 9605/98, Águas lei 9433/97 resolução 357/05 – CONAMA, Lei de Agrotóxicos 7802/89 alterada pela lei 9974/2000. todas elas concebidas e baseadas já nos princípios da Agenda 21.
A transformação dos objetivos em realidade palpável, social, econômica ou ambientalmente é um processo de longa duração e que esbarra na necessidade de reorganização e vontade política de todos os participantes. Os Poderes Municipais são em regra geral os maiores fiscais e controladores de toda a política ambiental e, para isso o Poder Público Federal deve estar atento e gerar uma política ampla e de maior apoio, principalmente, financeiro e tecnológico, para poder direcionar uma maior responsabilidade de ações concretas no cumprimento dessas realizações.
Em 2002, quando da revisão dos processos de implantação das agendas nacionais, em Johanesburgo, na África do Sul, na conferência conhecida por Rio + 10, o Brasil, ao lado da maioria das nações participantes, viu-se obrigada a fazer um “meã culpa” e a reconhecer a pouca efetividade de seu processo. As necessidades nacionais apresentadas no encontro constaram de documento então elaborado. Por enquanto, a coordenação da Agenda 21 brasileira resolveu concentrar suas energias em três ações básicas: implementação da Agenda 21 brasileira, apoio a processos de construção e implementação de agendas 21 locais e formação de multiplicadores em agenda 21 local.
Os principais problemas que estão afligindo a humanidade nos dias atuais, segundo relatório publicado, em 2002, pelo PNUMA – Programa das Nações Unidas para o Meio Ambiente – conhecido como GEO-3 (Panoramam Ambiental Global), foi preparado para facilitar o balanço da saúde ambiental do planeta e estimular os debates sobre os rumos da política ambiental nos próximos anos, visando evitar desastres ambientais e seus severos impactos sobre as populações indefesas.
O relatório aponta os seguintes problemas:
- A concentração de gás carbônico na atmosfera é um dos fatores que provoca o efeito estufa
– o aquecimento global. Apesar de amplamente divulgado, documentado e reconhecido na Convenção das Nações Unidas Sobre Mudanças Climáticas, e, posteriormente reforçado pelo Protocolo de Kyoto, sua implementação continua suspensa devido à recusa dos Estados Unidos em assumir suas responsabilidades, desde 1997. Com o aumento do aquecimento global terrestre devido ao consumo crescente de combustíveis fósseis,a produção de cimento e a combustão de biomassas, nos últimos anos causou a extensão dos danos á camada de ozônio que alcançou um nível alarmante, estimando-se o “buraco” no ano 2000 , de 28 milhões de km2 somente na região antártica.
- A crescente escassez de água potável: com uma demanda crescente em consequência do aumento da população, o desenvolvimento industrial e a expansão da agricultura irrigada verifica-se uma oferta limitada de água potável distribuída de forma muito desigual. O Relatório de PNUMA estima que 40% da população mundial sofre de escassez de água, já a partir de 1990.
- A degradação dos solos por erosão, salinização e o avanço contínuo da agricultura irrigada em grande escala e os desmatamentos, remoção da vegetação natural, uso de máquinas pesadas, monoculturas e sistemas de irrigação inadequados, além de regimes de propriedade arcaicos, contribuem para escassez de terras e ameaçam a segurança alimentar da população mundial.
- A poluição dos rios, lagos, zonas costeiras e baías, têm causado degradação ambiental contínua por despejo de volumes crescentes de depósitos de resíduos re dejetos industriais e orgânicos. O lançamento de esgotos não tratados aumentou drasticamente nas últimas décadas, com impactos eutróficos severos sobre a fauna, flora e os próprios seres humanos.
- Desmatamentos contínuos – o Relatório do PNUMA estima uma perda total de florestas durante os anos 90, de 94.000 km2, ou seja, uma média de 15.000 km2 anualmente, já abatendo as áreas reflorestadas. Emblemático a respeito é a devastação da Mata Atlântica da qual sobraram somente 7% segundo levantamento patrocinado pelo SOS Mata Atlântica.
Um das consequências do desmatamento é a destruição da biodiversidade, particularmente nas áreas tropicais. Mudanças climáticas, extração predatória de recursos naturais e minerais, transformações no uso dos solos estão dizimando a fauna e a flora em diversas regiões do mundo.
O crescimento da população acompanhado de novos padrões de consumo e produção resulta em quantidades de resíduos e substâncias tóxicas poluentes com efeitos desastrosos na biodiversidade. Embora não existam dados precisos sobre espécies extintas nas últimas décadas, o relatório PNUMA estima que 24% (1.183) das espécies de mamíferos e 12% (1.130) de pássaros estariam ameaçados de extinção.
A consciência ambiental avançou muito desde o Rio-92 e, para o secretário-executivo do Ministério do Meio Ambiente, João Paulo Capobiano, presidente interino do Instituto Chico Mendes, afirmou que a efetivação dos processos de licenciamento ambiental faz parte dos avanços pós-Rio 92, mas que é preciso paciência e inteligência no planejamento de obras que atingem o meio ambiente. “Nós devemos tratar essa questão com eficiência. Temos que dar qualidade aos processos de licenciamento, dar segurança para a sociedade brasileira de que os empreendimentos licenciados atendem aos interesses privados e públicos.” O embaixador da União Europeia no Brasil, João Pacheco, declarou que a preservação do meio ambiente se tornou uma preocupação geral depois da realização da conferência Rio 92: “Nem o Brasil, nem a Europa podem resolver esse problema sozinhos. Esse problema só pode ser resolvido com uma ação de todos, começando por aqueles que têm maior responsabilidade.”
O conhecimento dos problemas está a mostrar ao mundo á necessidade da forte tomada de posição política aceitando a realidade dos fatos, aplicando o positivismo com mais rigor na criação e elaboração de mecanismos concretos e eficazes para combater, prevenir, precaver e resguardar nosso planeta de todos os riscos apresentados contra o meio ambiente. Elaborando controle e fiscalizações necessárias estarão os países garantindo o futuro de novas gerações habitando o nosso planeta.
4. CONSIDERAÇÕES FINAIS
Considerando todo o contexto histórico da Revolução Industrial, constatamos, inicialmente, uma imaturidade despreocupada com os impactos danosos ao meio ambiente que poderiam advir do processo de industrialização.
Com o constante aumento da população e a necessidade de produzir cada vez mais para atender a uma maior demanda, as indústrias foram se expandindo, bem como, a tecnologia foi evoluindo e proporcionando ao homem mais conforto e comodidades, ampliando o espaço para o consumismo e com isso crescendo a devastação no meio ambiente.
Esse crescente aumento da população, da industrialização e também do consumismo trouxeram junto riscos e alterações no sistema ambiental devastando ecossistemas, poluição do ar, do solo e das águas ocasionando perdas, algumas irrecuperáveis, como centenas de espécies de mamíferos e de aves extintos nas últimas décadas. Além do grande impacto devastador provocado na flora e nos próprios seres humanos, através da poluição dos rios, desmatamentos, degradação do solo, que causam a destruição da biodiversidade
Podemos afirmar que houve nos últimos anos uma tomada de consciência mundial referente à preservação e conservação do meio ambiente. A conscientização fez o homem perceber, que o progresso estava deixando atrás de si um rastro macabro de destruição e um trágico caminho de mortes. A partir dessa conscientização começaram a acontecer Conferências Internacionais para tratar e debater sobre o meio ambiente.
No entanto, há necessidade de um grande processo de transformação em todo o mundo para que essa consciência possa realmente exercer uma prática saudável de um relacionamento entre o ser humano e a natureza, que tenha mais eficácia e produza um verdadeiro efeito.
Países ricos, como Estados Unidos, Austrália e outros 60 governos que rejeitaram assinar o Protocolo de Kyoto cujo documento estabelece a redução das emissões de dióxido de carbono (CO2) e outros gases que provocam o efeito estufa, responsável pelos danos causados a camada de ozônio e o aquecimento global. A rejeição por parte dos Estados Unidos e outros preocupam a humanidade, pois mesmo tendo a consciência dos danos ambientais presentes e futuros, ainda, existem países cujos representantes negam-se a ajustar-se á realidade.
Para que mudanças como essa se concretizem, é necessário muito trabalho e, que políticos, empresários e consumidores, aceitem quebrar o paradigma da revolução industrial, centrado nas indústrias do aço, do petróleo e, principalmente, no mais desejado bem de consumo durável do planeta: o automóvel.
E como sempre, acreditamos, que somente através de um Direito Ambiental Internacional fortemente apoiado, disciplinado, aceito e amparado por todos os seres humanos, por todas as sociedades humanas e por todos os países do mundo, teremos a garantia de preservação e manutenção da vida em nosso planeta.
5.BIBLIOGRAFIA
- BECKER, B.K. Gomes. Meio Ambiente: Matriz do Pensamento Geográfico. As Ciências Sociais e a Questão Ambiental. Rio de Janeiro. Aped. 1.993.
- BERNARDES, Julia Adão. A Questão Ambiental 2ª Ed. São Paulo. Ed. Bertrand Brasil. 2.003
- CARSON, Rachel. A Primavera Silenciosa 1ª Ed. São Paulo. Ed. Critica. 2.001.
- CASTELLS. M. O Poder da Identidade vol.2. São Paulo. Paz e Terra. 1.999.
- FERREIRA, Francisco Pontes de Miranda. A Questão Ambiental 2ª Ed. São Paulo. Ed. Bertrand Brasil. 2.003
- GIDDENS, A. As Consequências da Modernidade. São Paulo. UNESP. 1.991.
- SANTOS, M. A Natureza do Espaço: Técnica e Tempo, Razão e Emoção. São Paulo. Hucitel. 1.996.
INTERNET
Site Gogle – PNUMA – Programa das Nações Unidas para o Meio Ambiente
PT.wikipédia.org.wiki/acidente_nuclear de Chernobil


DINÂMICA: AS LEIS DE NEWTON
No estudo do movimento, a cinemática, propõe-se descrevê-lo sem se preocupar com as suas causas. Quando nos preocupamos com as causas do movimento, estamos entrando em uma área da mecânica conhecida como dinâmica.
Da dinâmica, temos três leis em que todo o estudo do movimento pode ser resumido. Essas leis são conhecidas como as leis de Newton:
Primeira lei de Newton - a lei da inércia
Segunda lei de Newton - o princípio fundamental da dinâmica
Terceira lei de Newton - a lei da ação e reação
A primeira lei de Newton descreve o que ocorre com os corpos que estão em equilíbrio. A segunda lei explica o que ocorre quando não há o equilíbrio, e a terceira lei mostra como é o comportamento das forças quando temos dois corpos interagindo entre si.
Para o entendimento dessas leis, é necessário conhecer alguns conceitos físicos muito importantes, como força e equilíbrio.
Observe a sua situação nesse exato momento: provavelmente você está sentado em uma cadeira lendo esse texto. Nesse momento existem forças agindo sobre você: elas vêm da cadeira, do chão e de algum outro objeto em que esteja encostado. Observe que, mesmo com a existência dessas forças, você continua parado. Isso ocorre porque elas estão se cancelando. Podemos dizer, portanto, que você se encontra em equilíbrio.
O repouso não é a única situação de equilíbrio possível. Imagine-se de pé em um ônibus em movimento: se ele acelerar, frear ou fizer uma curva, você pode acabar se desequilibrando e caindo. Mas existe um caso que, mesmo com o ônibus em movimento, não haverá perigo nenhum de você cair. Isso acontecerá caso o ônibus execute um movimento retilíneo e uniforme (em outras palavras, quando ele se movimenta em linha reta e com velocidade constante). Nessa situação, podemos dizer que o ônibus está em equilíbrio.
Os dois casos exemplificados anteriormente ilustram situações de corpos em equilíbrio. O primeiro mostra o equilíbrio dos corpos em repouso, que é conhecido como equilíbrio estático. O segundo mostra o equilíbrio dos corpos em movimento, que é conhecido como equilíbrio dinâmico. Nos dois casos temos algo em comum que define a situação de equilíbrio, e esse algo em comum é o fato de que todas as forças que estão atuando estarem se anulando. Portanto:
O equilíbrio ocorre em toda a situação em que as forças atuantes em determinado corpo se cancelam.
A primeira lei de Newton - a lei da inércia
Na natureza, todos os corpos apresentam certa resistência a alterações no seu estado de equilíbrio, seja ele estático ou dinâmico. Imagine que você tenha que chutar duas bolas no chão: uma de vôlei e uma de boliche. É claro que a bola de vôlei será chutada com mais facilidade que a de boliche, que apresenta uma maior resistência para sair do lugar. maior tendência em se manter em equilíbrio, ou ainda, apresenta uma maior inércia. Define-se inércia como uma resistência natural dos corpos a alterações no estado de equilíbrio.
A primeira lei de Newton trata dos corpos em equilíbrio e pode ser enunciada da seguinte forma:
Quando as forças atuantes em um corpo se anulam, ele permanecerá em repouso ou em movimento retilíneo uniforme.
Um objeto que repousa sobre sua mesa, por exemplo, está em equilíbrio estático, e tende a ficar permanecer nessa situação indefinidamente. No caso dos corpos em movimento, podemos imaginar um carro em movimento que freia bruscamente. Os passageiros serão lançado para frente porque tendem a continuar em movimento.
Força Resultante
No nosso cotidiano, é impossível encontrar um corpo sobre o qual não existam forças atuando - só o fato de vivermos na Terra já nos submete à força da gravidade. Muitas vezes essas forças se anulam, o que resulta em equilíbrio. Em outros casos, a resultante das forças que atuam sobre um corpo é diferente de zero. Quando isso ocorre, o resultado dessas forças é definido como força resultante.
A determinação de uma força resultante não é algo simples, já que se trata de uma grandeza vetorial. Isso quer dizer que uma força é definida por uma intensidade, uma direção e um sentido. Como a força se trata de uma grandeza vetorial, não podemos determinar a força resultante utilizando a álgebra com que estamos acostumados. É preciso conhecer um processo matemático chamado de soma vetorial.
A seguir, estão ilustrados os casos mais conhecidos para a determinação da força resultante de duas forças aplicadas em um corpo.
Caso 1 - Forças com mesma direção e sentido.
Caso 2 - Forças perpendiculares
Caso 3 - Forças com mesma direção e sentidos opostos
Caso 4 - Caso Geral - Com base na lei dos Cossenos
A Segunda lei de Newton
Quando diversas forças atuam em um corpo e elas não se anulam, é porque existe uma força resultante. E como se comporta um corpo que está sob a ação de uma força resultante? A resposta foi dada por Newton na sua segunda lei do movimento. Ele nos ensinou que, nessas situações, o corpo irá sofrer uma aceleração. Força resultante e aceleração são duas grandezas físicas intimamente ligadas.
A segunda lei de Newton também nos mostra como força e aceleração se relacionam: essas duas grandezas são diretamente proporcionais. Isso quer dizer que, se aumentarmos a força, a aceleração irá aumentar na mesma proporção.
Onde é o símbolo de proporção. Para que possamos trocar a proporção por uma igualdade, precisamos inserir na equação acima uma constante de proporcionalidade. Essa constante é a massa do corpo em que é aplicada a força resultante
A segunda lei de Newton também nos ensina que força resultante e aceleração serão vetores sempre com a mesma direção e sentido.
Unidades de força e massa no Sistema Internacional.
Força - newton (N).
Massa - quilograma (kg).
A terceira Lei de Newton
A terceira lei de Newton nos mostra como é a troca de forças quando dois corpos interagem entre si, seja essa interação por contato ou por campo. Segundo a terceira lei, se um corpo faz uma força em outro, imediatamente ele receberá desse outro corpo uma força de igual intensidade, igual direção e sentido oposto à força aplicada, como é mostrado na figura a seguir.
Para Newton, por que a maçã cai da árvore?
O físico e matemático inglês Isaac Newton (1642-1727) formulou as leis da Mecânica, leis que apresentam o movimento dos corpos. Criado pela avó, ele foi aluno e professor da Universidade de Cambridge, e também se interessava por astrologia e teologia. O que você sabe sobre Newton?
Paulo Augusto Bisquolo, Especial para a Página 3
Pedagogia & Comunicação é professor de
física do colégio COC-Santos (SP).
http://educacao.uol.com.br/disciplinas/fisica/dinamica-as-leis-de-newton.htm


ECOSSISTEMAS, COMUNIDADES E POPULAÇÕES: CONCEITOS BÁSICOS
Valério De Patta Pillar
Abordam-se alguns conceitos ecológicos relacionados aos diferentes níveis de organização biológica e espacial e que podem ser aplicados ao estudo de agroecossistemas.

Agricultura e ecologia
A agricultura é essencialmente a intervenção humana mais ou menos drástica em ecossistemas com o objetivo de obter uma maior colheita dos produtos desejados. Esses ecossistemas podem ser chamados de agroecossistemas (Hart 1980), porque contam com pelo menos uma população de utilidade agrícola e estão regulados pela intervenção humana.
Os fenômenos biológicos que ocorrem em agroecossistemas são fundamentalmente idênticos aos que ocorrem em ecossistemas naturais. Portanto, agroecossistemas são um subconjunto dentro dos sistemas ecológicos, e no estudo de ambos podem-se aplicar os mesmos conceitos.

Ecossistemas
Os diferentes níveis de organização biológica (célula - órgão - organismo – população - comunidade) e espacial (ecossistema - bioma - biosfera) definem uma hierarquia de sistemas ecológicos. Da mesma forma, agroecossistema - propriedade agrícola – região definem uma hierarquia de sistemas agrícolas. Um sistema é um arranjo de componentes que funciona como uma unidade, embora o grau de integração seja variável. Por exemplo, o grau de integração em uma comunidade é menor do que em um organismo.
Um ecossistema é um sistema de organismos vivos e do meio com o qual trocam matéria e energia. Um ecossistema contém componentes bióticos (plantas, animais, microorganismos) e abióticos (água, solo, etc.) que interagem para formar uma estrutura com uma função. Os limites de um ecossistema são mais comumente difusos e portanto arbitrariamente definidos, como uma área de floresta ou de campo. Estrutura é definida pela interação e arranjo dos componentes do sistema. Função é definida pelo processo de receber entradas e produzir saídas. As entradas e saídas de um sistema são os fluxos que entram e saem do sistema. Uma comunidade é formada por componentes bióticos do ecossistema.
Populações são grupos de organismos do mesmo grupo taxonômico (geralmente espécies) e podem ser estudadas como sistemas separados. O estudo de sistemas ecológicos envolve a descrição da sua estrutura e função, o que é facilitado pelo uso da simbologia de circuitos de Odum (1971).

Fluxos de energia e matéria
Em ecossistemas é importante estudar o fluxo de energia e matéria. A matéria viva é altamente organizada, ou seja, a sua entropia é baixa, e manter tal nível de organização contra a tendência natural de aumento de entropia demanda energia (Lehninger 1977). A radiação solar é a principal fonte de energia dos oganismos de um ecossistema, entrando via fotossíntese. O fluxo de energia dentro do ecossistema é unidirecional, não havendo reciclagem de energia, o que é explicado pelas leis da termodinâmica. Em todos os degraus da cadeia alimentar parte da energia que entra no sistema via fotossíntese é convertida em calor, e parte é usada para incrementar a biomassa dentro do sistema ou sai do sistema na forma de biomassa animal ou vegetal. O restante da energia solar incidente participa de processos quase físicos, nos quais se inclui a transpiração. A energia que entra e sai de um ecossistema é necessária ao fluxo cíclico de matéria dentro do ecossistema. Matéria nesse caso é usualmente representada pelos nutrientes N, P, S, C, etc., e os ciclos são chamados de ciclos biogeoquímicos.

Populações
Uma população é um grupo de organismos pertencentes a um mesmo grupo taxonômico, geralmente uma espécie, que se encontram ocupando um determinado espaço.
Populações são estudadas quanto ao seu crescimento e interações com outras populações. O crescimento de uma população é função da natalidade, mortalidade e dispersão do grupo. O tamanho de uma população X em um dado momento i, não havendo limitação de recursos do ambiente necessários ao seu crescimento, pode ser descrito pela equação

Xi = rXi–1

onde r é a taxa de crescimento da população entre os momentos i e i–1, e Xi–1 é o tamanho da população no momento i–1. Por esse modelo o crescimento da população é geométrico, sendo apenas limitado por fatores biológicos que determinam r. Havendo limitação de
 recursos, a curva de crescimento é sigmóide, podendo ser descrita pela equação

Xi =
rXi–1 (K – Xi–1)
K

onde K é um limite ambiental. Obtem-se valores relativos atribuindo-se um valor entre zero e 1 para X e K = 1; zero representa extinção e 1 a maior população possível no espaço considerado. Após vários ciclos, o tamanho da população atinge um patamar que, contrário ao que se pode imaginar, não é constante indefinidamente, mas sim caótico, imprevisível (ver Gleick 1987).

Comunidades
Uma comunidade é formada pelos organismos que ocorrem em uma dada superfície (ou volume) arbitrariamente delimitada (Palmer & White 1994). Podemos considerar uma comunidade de plantas, uma comunidade de animais, ou subconjuntos destas (por exemplo, comunidade de insetos, comunidade de plantas herbáceas). Numa comunidade há um grau variado de interação dos organismos entre si e com outros componentes bióticos ou abióticos.
No estudo de comunidades, por razões práticas, organismos são representados por populações mais ou menos homogêneas. O estudo de comunidades objetiva principalmente descrever a estrutura de diferentes tipos de comunidades no tempo e no espaço e identificar processos ecológicos que explicam tais diferenças. O processo de mudança direcional das comunidades no tempo após uma alteração drástica é conhecido como sucessão. A estrutura da comunidade é usualmente descrita por uma lista das populações componentes, e suas respectivas quantidades (número de indivíduos, área coberta, etc.). A Tabela 1 apresenta um exemplo com a composição de espécies em comunidades campestres ao longo de um gradiente ambiental. Riqueza e diversidade são conceitos usados para estudar comunidades. Riqueza é uma função do número de populações (usualmente espécies) que compõem a comunidade, e pode ser medida por ln s, isto é, o logaritmo natural (ln) do número de populações (s). Numa escala global, observa-se maior riqueza de espécies nos trópicos.
Numa escala local, a riqueza é menor em ambientes extremos.



Diversidade, também chamada de entropia, leva em conta, além da riqueza, a
 distribuição das populações. Diversidade pode ser representada por uma medida de entropia
 como o índice de Shannon (Orlóci 1991):






Onde

n é o número de populações na comunidade, e Xk é a importância ou quantidade da população k na comunidade, sendo medida em termos de abundância de indivíduos, cobertura, biomassa, etc.. Para um mesmo número de populações, a entropia ou diversidade é máxima quando as populações estão presentes em quantidades iguais, e mínima quando uma população domina quase que completamente a comunidade. Diversidade mais alta indica maior complexidade em um sistema. Também, diversidade mais alta em geral indica maior estabilidade e menor variabilidade. Numa pastagem cultivada, por exemplo, a diversidade é baixa, é difícil manter somente a espécie de interesse e há quedas bruscas de produtividade quando as condições não são favoráveis à espécie dominante; em um campo natural, ao contrário, a diversidade é alta e a comunidade é mais estável.
As comunidades vegetais variam quanto a composição e proporção de populações. Comunidades são contrastadas com outras comunidades usando indices de similaridade ou dissimilaridade, por exemplo, a soma dos valores absolutos das diferenças de importância das populações (espécies) nas comunidades i e j:

onde n é o número total de populações e Xki é a importância ou quantidade da população k na comunidade i. Quando uma população está ausente, X é zero.

Bibliografia básica
Dajoz, R. 1971. Ecologia Geral. Vozes, Petrópolis, 1978.
Ferri, M. G. 1980. Ecologia Geral. Itatiaia, Belo Horizonte.
Hart, R. D. 1980. Agroecosistemas; conceptos básicos. CATIE, Turrialba, Costa Rica. Odum, E. P. 1971. Fundamentals of Ecology. Saunders, Washington, D.C..
Bibliografia adicional citada
Gleick, J. 1987. Chaos; making a new science. Penguin Books, N. York.
Lehninger, A. L. 1970. A lógica molecular dos organismos vivos. In:_____ Bioquímica. Edgard Blücher, São Paulo, 1976. p. 1-7.
Orlóci, L. 1991. Entropy and Information. SPB Academic Publishing, The Hague, The Netherlands.
Palmer, M. W. & P. S. White. 1994. On the existence of ecological communities. Journal of Vegetation Science 5: 279-282.


Energia e Meio Ambiente
Gilberto De Martino Jannuzzi
O sistema energético compreende as atividades de extração, processamento, distribuição e uso de energia e é responsável pelos principais impactos ambientais da sociedade industrial. Seus efeitos nocivos não se restringem ao nível local onde se realizam as atividades de produção ou de consumo de energia, mas também possuem efeitos regionais e globais. Na escala regional pode-se mencionar, por exemplo, o problema de chuvas ácidas, ou ainda o derramamento de petróleo em oceanos, que pode atingir vastas áreas. Existem ainda impactos globais, e os exemplos mais contundentes são as alterações climáticas devidas ao acúmulo de gases na atmosfera (efeito estufa), e a erosão da camada de ozônio devida ao uso de CFCs (compostos com moléculas de cloro-fluor-carbono) utilizados em equipamentos de ar condicionado e refrigeradores.
Todas as etapas da indústria energética até a utilização de combustíveis provocam algum impacto ao meio ambiente e à saúde humana. A extração de recursos energéticos, seja petróleo, carvão, biomassa ou hidroeletricidade, tem implicações em mudanças nos padrões de uso do solo, recursos hídricos, alteração da cobertura vegetal e na composição atmosférica. As atividades de mineração (carvão e petróleo) empregam cerca de 1% da mão de obra global, mas são responsáveis por cerca de 8% dos acidentes de trabalho fatais.
As atividades relacionadas com a produção e uso de energia liberam para a atmosfera, água e solo diversas substâncias que comprometem a saúde e sobrevivência não só do homem, mas também da fauna e flora. Alguns desses efeitos são visíveis e imediatos, outros tem a propriedade de serem cumulativos e de permanecerem por várias décadas ocasionando problemas.
A seguir, apresentamos as principais consequências ambientais decorrentes da produção e usos dos energéticos mais importantes.
Poluição atmosférica
O setor energético é responsável por 75% do dióxido de carbono lançado à atmosfera, 41% do chumbo, 85% das emissões de enxofre e cerca de 76% dos óxidos de nitrogênio. Tanto o enxofre como os óxidos de nitrogênio têm um papel importante na formação de ácidos na atmosfera que, ao precipitarem na forma de chuvas, prejudicam a cobertura de solos, vegetação, agricultura, materiais manufaturados que sofrem corrosão e até mesmo a pele do homem. A constante deposição de compostos ácidos em rios e lagos afeta a vida aquática e ameaça toda a cadeia alimentar de ecossistemas. Nos solos, a acidez das chuvas reduz a presença de nutrientes. Para a saúde humana, a presença de particulados contendo enxofre e óxidos de nitrogênio provocam ou agravam doenças respiratórias como bronquite e enfisema, especialmente em crianças. Esse tipo de problema tem sido verificado em regiões da China, Hong Kong e Canadá que sofrem os efeitos de termoelétricas a carvão situadas muitas vezes em locais distantes de onde ocorrem as chuvas ácidas.
O consumo de derivados de petróleo pelo setor de transporte é o que apresenta a maior contribuição para a degradação do meio ambiente em nível local e global. Estima-se que 50% dos hidrocarbonetos emitidos em áreas urbanas e aproximadamente 25% do total das emissões de todo dióxido de carbono gerado no mundo, resultem das atividades desenvolvidas com os sistemas de transporte.
Além disso, partículas em suspensão decorrentes da queima de material orgânico ou de combustíveis constituem um problema sério em várias partes do mundo. Isso ocorre sempre que há queimadas de florestas ou de diesel e óleo combustível nas áreas urbanas. A baixa qualidade desses combustíveis em muitos países, aliada à precariedade de veículos, trânsito congestionado e condições climáticas desfavoráveis em grandes cidades, contribuem para que exista uma quase permanente concentração de finas partículas no ambiente urbano. A saúde respiratória fica comprometida para milhões de pessoas expostas a essas partículas. Devido ao pequeno tamanho dessas partículas, elas vão se acumulando ao longo do tempo nos pulmões das pessoas e são especialmente problemáticas porque podem carregar ainda compostos carcinogênicos para esses órgãos.
O efeito estufa
Um dos mais complexos e maiores efeitos das emissões do setor energético são os problemas globais relacionados com mudanças climáticas. O acúmulo de gases, como o dióxido de carbono na atmosfera, acentua o [efeito estufa] natural do ecossistema terrestre a ponto de romper os padrões de clima que condicionaram a vida humana, de animais, peixes, agricultura, vegetação, etc. É cada vez mais evidente a constatação de crescentes concentrações de CO2 na atmosfera e o aumento de temperaturas médias. São imprevisíveis as implicações de mudanças climáticas para os países e suas populações. Alteração na produtividade da agricultura, pesca, inundações de regiões costeiras e aumento de desastres naturais estão entre as mudanças provocadas pelas alterações climáticas esperadas.
A seriedade desses efeitos tem sido reconhecida por diversos estudos científicos internacionais e vários países estão procurando consenso para uma agenda mínima de atividades para controle e mitigação de emissões, como o [Protocolo de Kyoto], discutido no âmbito dos países signatários da Convenção Climática. Infelizmente, ainda não se tem acordado um sistema de controle de emissões de gases estufa entre os países industrializados, historicamente os maiores contribuintes para os altos níveis de concentração desses gases na atmosfera.
Termoelétricas
A produção de eletricidade em termoelétricas representa em escala mundial cerca de um terço das emissões antropogênicas de dióxido de carbono, sendo seguida pelas emissões do setor de transporte e industrial. Os principais combustíveis utilizados em todo o mundo são o carvão, derivados de petróleo e, crescentemente, o gás natural. Existem ainda outros tipos de usinas termoelétricas que queimam resíduos de biomassa (lenha, bagaço) e até mesmo lixo urbano.
Além das emissões de gases e partículas, existem outros problemas associados com utilização de água para o processo de geração termoelétrica, pois muitas usinas usam água para refrigeração ou para produção de vapor. Esse tem sido um dos principais obstáculos para a implantação de termoelétricas no país, pois diversos projetos se localizam ao longo do principal gasoduto construído, que segue exatamente as bacias hidrográficas com problemas de abastecimento e de qualidade de água em regiões densamente povoadas. É importante notar também que houve bastante progresso com relação ao aumento da eficiência de usinas termoelétricas através da introdução de tecnologias de cogeração e turbinas a gás. As possibilidades de gaseificação de carvão, madeira e bagaço oferecem novas oportunidades de usinas mais eficientes e com menores impactos que as convencionais.
Hidroelétricas
Muitas vezes faz-se referência a hidroeletricidade como sendo uma fonte "limpa" e de pouco impacto ambiental. Na verdade, embora a construção de reservatórios, grandes ou pequenos, tenham trazidos enormes benefícios para o país, ajudando a regularizar cheias, promover irrigação e navegabilidade de rios, elas também trazem impactos irreversíveis ao meio ambiente. Isso é especialmente verdadeiro no caso de grandes reservatórios. Existem problemas com mudanças na composição e propriedades químicas da água, mudanças na temperatura, concentração de sedimentos, e outras modificações que ocasionam problemas para a manutenção de ecossistemas à jusante dos reservatórios. Esses empreendimentos, mesmo bem controlados, têm tido impactos na manutenção da diversidade de espécies (fauna e flora) e afetado a densidade de populações de peixes, mudando ciclos de reprodução.
O Brasil tem acumulado grande experiência com o resultado das várias usinas hidroelétricas que foram construídas, sendo um dos seus maiores exemplos o caso da hidroelétrica de Balbina, que provocou a inundação de parte da floresta nativa, ocasionando alterações na composição e acidez da água, que depois teve impacto no próprio desempenho da usina. Até recentemente as turbinas apresentavam problemas de corrosão e depósito de material orgânico, devidos a alterações que ocorreram na composição da água.
Energia nuclear
A energia nuclear é talvez aquela que mais tem chamado atenção quanto aos seus impactos ambientais e à saúde humana. São três os principais problemas ambientais dessa fonte de energia. O primeiro é a manipulação de material radioativo no processo de produção de combustível nuclear e nos reatores nucleares, com riscos de vazamentos e acidentes. O segundo problema está relacionado com a possibilidade de desvios clandestinos de material nuclear para utilização em armamentos, por exemplo, acentuando riscos de proliferação nuclear. Finalmente existe o grave problema de armazenamento dos rejeitos radioativos das usinas. Já houve substancial progresso no desenvolvimento de tecnologias que diminuem praticamente os riscos de contaminação radiativa por acidente com reatores nucleares, aumentando consideravelmente o nível de segurança desse tipo de usina, mas ainda não se apresentam soluções satisfatórias e aceitáveis para o problema do lixo atômico. Fontes alternativas
As chamadas fontes alternativas como solar, eólica e biomassa, não estão totalmente isentas de impactos ambientais, embora possam ser relativamente menores. A utilização em larga escala de painéis fotovoltaicos ou biomassa implica em alteração no uso do solo. A fabricação de componentes dessas tecnologias também produzem efeitos ambientais, como é o caso da extração do silício para painéis fotovoltaicos. Muitos desses sistemas dependem de baterias químicas para armazenagem da eletricidade, que ainda apresentam sérios problemas de contaminação por chumbo e outros metais tóxicos para o meio ambiente.
O que fazer?
Os desafios para se continuar a expandir as necessidades energéticas da sociedade com menores efeitos ambientais são enormes. É praticamente impossível eliminar os impactos ambientais de sistemas energéticos. O trabalho dos cientistas e analistas de energia é, na verdade, oferecer alternativas de escolhas para a sociedade e facilitar seu acesso a esse tipo de informação. No entanto, o problema energético não se reduz a uma escolha entre tecnologias para atender a crescente demanda de energia. Essa é uma matéria de grande complexidade, que envolve não só a discussão de aspectos técnicos, mas também de preferências, padrões de conforto desejados pela sociedade e custos de energia. Existe urgentemente a necessidade de questionar os principais condicionantes da crescente demanda de energia: nosso sistema de urbanização, as atividades econômicas e estilos de vida. Somente mudanças nessas áreas possibilitarão maior utilização de tecnologias mais limpas e eficientes, fontes renováveis e descentralizadas.
Existem avanços importantes como o aparecimento de tecnologia de células combustível que são capazes de gerar eletricidade a partir de elementos como hidrogênio e oxigênio, ou gasolina, etanol, gás natural, e outros. É um tipo de tecnologia que pode ter impactos bastante reduzidos quando comparada com as opções existentes de geração de eletricidade, mas ainda existem limitantes técnicos e econômicos para maior disseminação. O futuro parece promissor para as células combustíveis e alguns modelos de pequeno porte já aparecem comercialmente nos EUA e Japão.
O avanço em escala comercial de tecnologias avançadas que reduzam a utilização de energia e emissões ainda é muito tímida, especialmente no Brasil. Para que seja possível conceber um futuro mais sustentável do ponto de vista energético é necessário maior participação de fontes renováveis e maior eficiência para produção e uso de energia. É fundamental maior compromisso e esforço por parte do setor público e privado, seja em nível local ou internacional.
No caso do efeito estufa existem três possibilidades para reduzir a contribuição do setor energético: promover a substituição de combustíveis fósseis por renováveis, realizar a substituição de combustíveis fósseis por outros com menor conteúdo de carbono, como o gás natural, e finalmente acelerar a redução do uso de energia, através de tecnologias eficientes e sistemas menos intensivos em energia.
Essas são as direções que deverão guiar os esforços de inovação tecnológica para a área energética daqui em diante, para um futuro com menores impactos ambientais.
Gilberto de Martino Jannuzzi é professor da faculdade de Engenharia Mecânica da Unicamp e autor da coluna Energia, Meio Ambiente e Cidadania na Com Ciência.



MODELOS CIENTÍFICOS E SUAS RELAÇÕES COM A EPISTEMOLOGIA DA CIÊNCIA E A EDUCAÇÃO CIENTÍFICA
Irinéa de Lourdes Batista (irinea@uel.br)
Universidade Estadual de Londrina. Docente do Departamento de Física e Programa de Pós-graduação em Ensino de Ciências e Educação Matemática - PECEM/UEL. Londrina, PR.
Rosana Figueiredo Salvi (salvi@uel.br)
Universidade Estadual de Londrina. Docente do Departamento de Geociências e Programa de Pós-graduação em Ensino de Ciências e Educação Matemática - PECEM/UEL. Londrina, PR.
Lucken Bueno Lucas (luckenlucas@yahoo.com.br)
Ensino de Ciências e Educação Matemática, Programa de Pós-graduação em Ensino de Ciências e Educação Matemática - PECEM/UEL. Londrina, PR.
(...)
Modelos científicos – definições para o termo
De acordo com o Dicionário Oxford de Filosofia (BLACKBURN, 1997), o termo ‘modelo’ pode ser definido como uma “representação de um sistema por outro, usualmente mais familiar, cujo funcionamento se supõe ser análogo ao do primeiro”. Todavia, considerando a complexidade e a especificidade dos aspectos que envolvem uma definição terminológica, além da evolução de seus significados, evidencia-se a relevância de se considerar os riscos envolvidos na construção de uma generalização semântica, ainda que sistematizada, para nomenclaturas carregadas de teor polissêmico, como no caso dos modelos científicos.
Nesse sentido, argumenta-se que caracterizações elaboradas por pares de uma mesma área científica que apresentem elementos consensuais e concordantes, estabelecem pontos de partida suficientemente consistentes para uma discussão fidedigna nessa temática.
Assim, no que diz respeito ao exemplar conceitual escolhido para discussão neste trabalho (modelos científicos), observa-se que de um modo geral eles são utilizados para demonstrar a consistência de teorias científicas. Os modelos, segundo esse entendimento (MORGAN; MORRISON, 1999), caracterizam ideias fundamentais das teorias com o auxílio de conceitos com os quais os cientistas já estão familiarizados antes da elaboração das mesmas. Trata-se, portanto, de uma questão epistemológica, pois teorias científicas, compreendidas como criações humanas, pertencem à estrutura cognoscitiva própria da realidade humana, naturalmente limitada. Assim, o uso de ‘aproximações’ estabelece condições viáveis e facilitadoras para se chegar a determinadas explicações, de modo que diferentes aspectos do mundo possam ser estudados e compreendidos por meio dessas aproximações.
Desse ponto de vista, um modelo pode ser entendido como “uma criação cultural, [...] destinada a representar uma realidade, ou alguns de seus aspectos, a fim de torná-los descritíveis qualitativa e quantitativamente e, algumas vezes, observáveis” (SAYÃO, 2001, p. 83).
No que diz respeito a algumas definições atribuídas ao termo, tem-se a visão de Morgan e Morrison (1999), na qual modelos são considerados tecnologias capazes de fornecer instrumentos de investigação que possibilitam a compreensão de teorias e do mundo. Suas principais características envolvem autonomia, poder representacional e capacidade de promover relações entre teorias científicas e o mundo, podendo atuar, consequentemente, como poderosos agentes no processo de aprendizagem, sendo considerados meio e fonte de conhecimento. Para Batista,
[...] um modelo é uma entidade natural ou artificial, relacionada de alguma forma à entidade sob estudo ou a alguns de seus aspectos. Esse modelo é capaz de substituir o objeto (entidade) em estudo (isto é, de servir como uma “quasi-entidade” relativamente independente), e de produzir (sobre essa investigação) certos conhecimentos mediados concernentes à entidade sob estudo (BATISTA, 2004, p. 466).
Segundo Justi (2006, p. 175), “atualmente, o ponto de vista mais aceito é que um modelo é uma representação de uma ideia, objeto, acontecimento, processo ou sistema, criado com um objetivo específico”.
Assim, com base nessas autoras, é possível destacar uma faculdade comum e recorrentemente atribuída ao termo modelo: sua capacidade de representar. Tal representação, de acordo com as mesmas autoras, pode extrapolar os aspectos visuais ou puramente físicos do objeto/entidade modelado e configurarem-se como representações de natureza abstrata.
A seguir, são apresentadas duas diferentes abordagens científicas em que se pode discutir a questão dos modelos.
Diferentes abordagens para o entendimento do papel dos modelos
Há um aspecto importante no que diz respeito à formalização lógica das teorias científicas e suas relações com os modelos. Diz respeito à distinção entre o tipo de abordagem em que se está buscando visualizar o papel dos modelos e sua colaboração com o conhecimento científico. Assim, são enunciados, neste trabalho, dois tipos de abordagens para a compreensão da relação entre teorias e modelos científicos:
1ª Abordagem sintática ou axiomática: segundo essa abordagem, no processo de construção de teorias, os fatores de maior importância são as regras lógicas, ou seja, a forma lógica com que os componentes de uma teoria se relacionam para explicar determinadas observações e experimentações. Desse modo, as teorias são compreendidas como algoritmos axiomáticos para os quais são atribuídas interpretações segundo regras de correspondência. Essa abordagem considera, também, que uma teoria científica é composta por duas partes: um sistema formal no sentido lógico e matemático e certos mecanismos que relacionam este sistema com o mundo natural (regras de correspondência). O sistema formal contém os postulados, os conceitos primitivos e os conceitos derivados. O nível observacional corresponde à experiência direta e contém os conceitos empíricos que estão relacionados diretamente com a experiência. Esses dois níveis estão conectados pelas regras de correspondência que relacionam os conceitos primitivos ou derivados com os conceitos empíricos (PINO, 2003).
2ª Abordagem semântica: as teorias são entendidas como famílias ou coleções de modelos, uma vez que estes são utilizados na construção das teorias. Segundo essa abordagem, há uma relação direta e necessária entre os três componentes envolvidos no processo de teorização, a saber, a teoria, os modelos e os dados (mundo). Mediante o estudo dessa relação (teoria-modelo-mundo), questões mais específicas como construção, função, poder de representação e a relação dos modelos com o processo de aprendizagem são mais bem caracterizados do que na abordagem sintática (MORGAN; MORRISON, 1999; DUTRA, 2005).
Dentre as abordagens supracitadas, a semântica foi escolhida para uma discussão, a seguir, concernente à relação teoria-modelo.
Aspectos relacionais entre modelos e teorias científicas
A noção de modelo tem um caráter relativo mantendo estreita relação com as teorias científicas. Encontra-se referências a modelos e a teorias como se fossem sinônimos. Neste caso, Vera (1983, p.152), entende que “um modelo é o conjunto de sinais isomorfo a uma teoria, isto é, qualquer que seja a relação existente entre dois elementos do sistema ou teoria, deve existir uma relação correspondente entre os dois elementos respectivos do modelo”.
É possível deduzir que a confusão entre os conceitos de modelo e teoria provavelmente tem origem na consideração (ingênua) de que a teoria é, de fato, um modelo da realidade, isto é, que seus conceitos ou elementos correspondem-se biunivocamente com os objetos do mundo empírico.
Outro ponto de vista é aquele sob o qual os modelos são compreendidos ora como interpretações de uma teoria, ora como explicações da mesma. A interpretação se efetua no plano da linguagem e o modelo se realiza num nível ôntico, com relação a objetos ou entes. A bem da verdade, o modelo como interpretação e o modelo como explicação da teoria podem coexistir, favorecendo análises mais precisas e claras.
No âmbito da abordagem semântica teorias científicas são concebidas como coleções de modelos. Seu processo de construção envolve uma relação direta com os modelos que, por sua vez, são vistos como parte de seus elementos estruturantes.
As autoras Morgan e Morrison (1999) compreendem teorias como sistematizações explicativas que, por meio de princípios gerais, governam amplos grupos de fenômenos. Analisando, então, a relação modelo-teoria, pode-se perguntar: Quais seriam as diferenças destacadas entre tais elementos?
Com base nos textos de Morgan e Morrison (1999), Rosenberg (2005) e Batista (1999), tem-se que uma das principais diferenças entre teorias e modelos consiste no nível de abrangência. Enquanto teorias científicas são capazes de oferecer explicações de fenômenos, partindo de casos particulares, até chegar a generalizações, explicar regularidades e suas exceções, predizer resultados mais precisos que leis individuais e identificar propriedades inerentes à natureza de seu objeto de estudo, os modelos são estruturas mais circunscritas que podem aplicar os princípios gerais das teorias em diferentes casos.
Assim, com base nos estudos utilizados no arcabouço teórico deste trabalho, especificam-se, abaixo, algumas características, funções e classificações atribuídas aos modelos científicos.
Características dos modelos
Entende-se que os modelos apresentam algumas características específicas, entre as quais se destacam:
a) Representação – os modelos configuram-se como representações abstratas ou não com o objetivo de contribuir com o estudo do comportamento do objeto/entidade modelado, por meio de analogia entre aquilo que se sabe e aquilo que se quer entender/conhecer/simular/prever.
b) Autonomia – os modelos possuem uma relativa independência, uma vez que manifestam em sua essência teorias e dados. Todavia, os modelos possuem também outros elementos que lhe dão certa independência em relação às teorias e aos dados. De forma geral, os modelos são constituídos por elementos teóricos e evidências empíricas, mas também por elementos históricos e objetos que influenciam nas decisões da construção de modelos.
c) Conectividade – os modelos apresentam uma conexão entre a teoria e os dados. Há, portanto, o compromisso de configurar-se não como meio de intervenção, mas de representação suficientemente capaz de favorecer a comunicação/mediação/conexão entre as teorias e os dados.
d) Aproximação - os modelos promovem aproximações da teoria (ou de alguns de seus pontos específicos) com a realidade, estabelecendo condições para se chegar a determinadas explicações.
e) Heurística – os modelos são construções simplificadas (aproximações) da realidade ou entidade sob estudo, oferecendo explicações e informações acerca do objeto/entidade sob estudo.
f) Instrumentalização - os modelos possuem funções expressas pelo seu uso. Não sendo instrumentos passivos, constituem-se no contexto de uso, podendo ser considerados como uma tecnologia: primeiro, a construção do modelo envolve uma independência parcial das teorias e do mundo, mas, também, uma dependência parcial de ambas; segundo, os modelos podem funcionar autonomamente em uma variedade de tipos de explorações do mundo e de teorias; terceiro, os modelos representam alguns dos aspectos de teorias, ou aspectos do mundo, ou aspectos de ambos ao mesmo tempo (MORGAN; MORRISON, 1999).
Funções dos modelos
São várias as funções dos modelos que, por sua vez, expressam as características acima citadas. Em outras palavras, considera-se seu potencial representacional, autonomia, papel de conectividade e dimensão heurística, tanto em sua relação com a realidade, quanto em sua relação com a teoria. Dessa forma, a partir da revisão de pesquisas feitas por Morgan e Morrison (1999), apresentam-se, a seguir, algumas das funções dos modelos científicos.
Modelos como recursos epistêmicos
 Os modelos ajudam a entender e estudar o comportamento do objeto/entidade a ser modelado, sendo preciso, primeiro, entender o que se demonstra no modelo para depois discutir questões do seu papel na representação do real.
 Aprende-se a partir do estudo de um modelação da realidade que, quando se cria um modelo, cria-se um tipo de estrutura representativa, mas quando se manipulam ou calculam ideias em um modelo, o que está sob estudo são alguns aspectos da realidade.
 Ao estudar a estrutura pertencente ao modelo, tem-se um ponto de partida para a compreensão de um mundo possível. Ex. levantamentos de probabilidades (dados experimentais) em sistemas astrofísicos, em organizações moleculares, etc.
 Também se aprende a respeito do mundo a partir da construção de um modelo.
Como ferramentas no desenvolvimento, exploração e aplicação de teorias. Os modelos auxiliam na construção de teorias quando:
·   Trazem situações novas que ainda não possuem conceituação teórica (Ex. as fórmulas químicas na constituição da teoria da química orgânica– transformação orgânica);
·     Permitem explorar ou experimentar uma teoria que já existe, podendo com isso, possibilitar a correção da mesma (Ex. Modelo mecânico usado para corrigir as equações do eletromagnetismo de Maxwell);
·      Exploram certas características da História, tanto para compreensão de um fenômeno histórico, quanto para possibilitar previsões (Ex. Modelo a respeito da economia capitalista de Marx);
·    Investigam fenômenos que não possuem boas explicações em teorias já existentes (Ex. Modelo de confinamento de quark);
·       Analisam implicações de teorias em situações concretas (Ex. Modelos da teoria econômica aplicados a pessoas em situações reais);
·       Aplicam teorias de caráter acentuadamente abstrato – uma vez que os modelos delimitam o domínio de abstração dos conceitos por trabalharem com contextos específicos (Ex. Modelos que interpretam conceitos de Função de Força);
·      Representam e, ao mesmo tempo, experimentam situações (Ex. fórmulas químicas que representam e são utilizadas para prever o balanceamento correto de substâncias necessárias para uma reação química).

Classificação dos modelos
Estudos apresentam diferentes classificações para os modelos científicos. Diante da diversidade e da polissemia conceitual encontradas, optou-se por mostrar a classificação elaborada com base nas Ciências naturais (BATISTA, 1999).
Em meio ao contexto da abordagem semântica dispõe-se a classificação sugerida por Batista (1999, 2004), que discute o papel dos modelos no processo de formação e desenvolvimento de teorias, utilizando como exemplar conceitual inicial o estudo da teorização da Física das Partículas elementares, especificamente a concernente às interações nucleares fracas.
É importante ressaltar o fato de que a autora esclarece que, em seu estudo, o uso de modelos é uma das etapas na construção de uma teoria, a qual em seu estágio de claro estabelecimento deve ser uma elaboração que seja coerente com os aspectos empíricos (domínio empírico) com os quais ela se relaciona, com o maior grau de abrangência no sentido de explicar os dados experimentais já conhecidos e quaisquer outros novos que vierem a existir, e que seja coerente segundo uma lógica escolhida, seja ela clássica ou heterodoxa, na sua estrutura sintática (lógicomatemática ou linguística), no seu domínio de aplicabilidade e com um conjunto de regras que permitam conectar a teoria com a estrutura sintática e com o domínio empírico estabelecido, quando esse último existir (BATISTA, 1999).
Com tal enunciado, a autora procura estabelecer uma ponte entre a tradição sintática e a tradição semântica de modo a atuarem como funções complementares na obtenção de uma teoria científica bem estabelecida.
Nessa referência são enunciados tipos de modelos:
a) Mecanicistas ou pictóricos: diz respeito aos modelos construídos por analogia cuja função consiste em fazer raciocinar a respeito do objeto/entidade que se quer conhecer, mediante aquilo que já se conhece (relação analógica). Nesse tipo de modelo, preocupações com questões ontológicas são inexistentes. Esses modelos
[...] servem como uma ligação conectora entre novos fenômenos [...] e teorias [...] antigas. Um exemplo de modelo pictórico nesses termos seria o modelo planetário do átomo baseado na analogia entre o átomo e o sistema solar – plenamente de acordo com o espírito da Física do século XIX (BATISTA, 2004, p. 466).
b) Modelos por hipótese: quando um novo fato está estabelecido no conhecimento físico, primeiro uma tentativa é feita para interpretá-lo nas bases das ideias teóricas existentes por meio de uma ligeira modificação sem qualquer suposição radicalmente nova. Se não há sucesso, tem-se que recorrer a novas suposições. Aqui, o modelo de analogia é substituído por um modelo por hipótese.
c) Modelos heurísticos: consistem em etapa-síntese para determinadas explicações, mas são considerados incompletos e também como processos analógicos com algum conhecimento científico prévio. Eles são síntese de duas instâncias antecedentes no processo de construção de modelos:
Instância Fenomenológica: os modelos fenomenológicos incluem modelos classificatórios, modelos tipicamente de fundamentação empírica que percebem regularidades específicas nas relações das entidades estudadas, modelos pictóricos, modelos analógicos lineares, mas não são capazes de explicar suas essências (ontologia, estrutura lógica e sintática).
Instância Tipo-essência: fornece certas interpretações preliminares, formuladas por hipóteses analógicas, a partir de formulações ontológicas, causais e lógico-estruturais de um processo em estudo (Batista, 1999). Por fim, os modelos tipo-essência, para melhor caracterização, são subdivididos em:
Lógico-matemáticos
[...] são sistemas de elementos lógico-matemáticos, cuja estrutura é análoga à estrutura das entidades físicas; se eles possuem tal estrutura em um grau inferior, chamamo-los de modelo lógicomatemático fenomenológico e, se eles a possuem em um grau superior, chamamo-los de modelo lógico-matemático tipo-essência (BATISTA, 2004, p. 468).
Os elementos lógico-matemáticos podem ser traduzidos como lógico-sintáticos para uma possível aplicação em fenômenos que não sejam de natureza física, aqui entendida no seu amplo significado de fenômeno da natureza (physis).
Pode-se exemplificar com possíveis representações formais de toda sorte, matemática, linguística, algorítmica, cuja estruturação orienta e esclarece a conceituação em desenvolvimento. As regras da estrutura linguística se tornam as regras da conceituação científica: por exemplo, a conservação de propriedades algorítmicas representam e traduzem a conservação de propriedades naturais de um sistema orgânico, químico, geológico, etc. A manipulação algorítmica, ou seja, a ação em um equacionamento do sistema, significa a manipulação do próprio sistema.
Ontológicos [...] servem como suposições iniciais concernentes às peculiaridades essenciais (do que existe) de certos domínios da realidade física. O reconhecimento dessas peculiaridades de existência real permite obter resultados teóricos importantes (BATISTA, 2004, p. 468).
Considerações finais
A discussão concernente a modelos se inicia pela análise de sua função na constituição do conhecimento teórico das Ciências. A capacidade de produzir conhecimento teórico é uma característica da Ciência desenvolvida pelas sociedades modernas e a sistematização teórica do conhecimento torna-se medida de progresso, indo além do que o volume de dados empíricos acumulados pela capacidade de áreas científicas específicas apreenderem o real. Nesse contexto, explicitar as formas que fazem parte dessa relação entre teoria e realidade constitui um dos objetivos do presente trabalho e os modelos são introduzidos na medida em que dimensionam a relação entre teorias, dados empíricos e mundo.
Desse modo, procura-se não defender uma superposição entre o domínio ontológico e cognitivo ligados à produção de conhecimento pela Ciência, mas ambos podem correlacionar-se dependendo das posições assumidas a respeito do que seja a realidade a ser entendida, o conhecimento dela e das suas formas de apreensão e de representação.
Deve-se indagar a propósito da importância desses domínios e de sua relação com o ensino. Para essa última instância, caso se esteja convencido de que o conhecimento científico é fruto de construções convencionais, pode-se demonstrar seus fundamentos pela lógica da construção de modelos e pela exposição de seu uso.
Ao mesmo tempo, optar por uma epistemologia que valoriza em excesso a dimensão do conhecimento científico, pode trazer o risco de se perder de vista o papel dos processos cognitivos para a sua apreensão. Assim, é importante entender que no contexto da produção de conhecimento a respeito do mundo, a autonomia dos domínios ontológicos e cognitivos é relativa e subordinada a uma estrutura mais geral da qual ambas fazem parte.
Os modelos funcionariam como “dublês” da realidade. A proposição dos objetos-modelo com suas propriedades específicas circunscritas pelos modelos podem ajudar a mostrar como os cientistas são habilitados a abandonar provisoriamente a realidade e toda sua complexidade e aprofundar-se nas relações internas dos objetos/entidades que estudam. Nesse sentido, eles teriam valor ontológico também, pois seriam pontes de aproximação mesmo que provisoriamente, da realidade circunscrita local e temporalmente.
Salienta-se a importância da reflexão referente a modelos e teorias porque podem ser um meio de transformação dos conteúdos de ensino. A sala de aula pode conter atividades em que se passe de um real imediato (forjado pelo senso comum) a um real idealizado pela Ciência. Nessa concepção, os modelos construídos são intermediários entre a teorização contida nos domínios mais abstratos do conhecimento científico e o empírico e concreto presente na experiência sensível. A atividade de entendê-los (e quem sabe construí-los) possui elementos contributivos para assumir o papel de motor de compreensão da atividade científica em sala de aula, pois propicia fundir as instâncias empíricas, teóricas e cognitivas no processo de conhecimento humano.
Apresentamos como uma justificativa para a relevância da temática, que grande parte dos estudantes dos níveis de graduação e pós-graduação, atualmente, não consegue argumentar a respeito do que é uma teoria científica, a importância das teorias para os estudos científicos e poucos citam teorias fundamentais e seus respectivos desmembramentos nas suas áreas de conhecimento. [conforme levantamentos bibliográficos, em especial, ver TEIXEIRA et al.( 2009) e DER VALK et al. (2007)].
Referências
ADÚRIZ-BRAVO, A. e IZQUIERDO-AYMERICH, M. (2009). Un modelo de modelo científico para la enseñanza de las ciencias naturales. Revista Electrónica de Investigación en Educación en Ciencias, 4, número especial 1, 40-49.
BATISTA, I. L. A teoria universal de Fermi: da sua formulação inicial à reformulação V-A. São Paulo, 1999. Tese (Doutorado em Filosofia da Ciência). Departamento de Filosofia, Faculdade de Filosofia, Letras e Ciências Humanas, Universidade de São Paulo, São Paulo, 1999.
______. O ensino de teorias Físicas mediante uma estrutura histórico-filosófica. Ciência e Educação, v. 10, n. 3, p. 461-476, 2004.
BECKER, F. Epistemologia do professor: o cotidiano da escola. Petrópolis: Vozes, 1993.
BLACKBURN, S. Dicionário Oxford de Filosofia. Tradução de Deisdério Murcho, et al. Rio de Janeiro: Jorge Zahar, 1997.
DER VALK, T. V.; VAN DRIEL, J. H.; DE VOS, WOBBE. Common Characteristics of Models in Present-day Scientific Practice. Research in Science Education, v, 37, n, 4, p. 469-488, 2007.
DUTRA, L. H. de A. Os modelos e a pragmática da investigação. Scientiae Studia, v. 3, n. 2, p. 205-232, 2005.
JUSTI, R. La enseñanza de ciencias basada en la elaboración de modelos. Enseñanza de las Ciências, v. 24, n. 2, p. 173-184, 2006.
MAGALHÃES, J. C. M.; KRAUSE, D. Teorias e Modelos em Genética de Populações: Um exemplo do uso do Método Axiomático em Biologia. Episteme, v. 11, n. 24, p. 269-291, 2006. Disponível em:
<http://www.cfh.ufsc.br/~dkrause/pg/papers/LivroCharbel.pdf>. Acesso: 24 maio 2008.
MARTINS, G. A. Falando sobre Teorias e Modelos nas Ciências Contábeis. Brazilian Business Review, v. 2, n. 2, Vitória-ES, Brasil, p. 131-144, Jul / Dez 2005. Disponível em: <www.bbronline.com.br>. Acesso em: 07/05/2009.
MORGAN, M. S.; MORRISON, M. Model as Mediators: perspectives on natural and social science. Cambridge University Press, New York, 1999.
GERRERO PINO, G. Enfoque Semántico de las Teorías Estructuralismo y Espacio de Estados: Coincidencias y Divergencias. Madrid, 2003. Tese (Doutorado em Filosofia da Ciência) - Faculdade de Filosofia da Universidade Complutense de Madrid, Madrid. Disponível em: < http://eprints.ucm.es/4791/>. Acesso em: 15 setembro 2009.
ROSENBERG, A. Philosophy of science: a contemporary introduction. 2ª Ed. Routledge, 2005.
SAYÃO, L. F. Modelos teóricos em ciência da informação – abstração e método científico. Ciência da Informação, Brasília, v. 30, n. 1, p. 82-91, jan./ abr. 2001.
SENSEVY, G. et all. An Epistemological Approach to Modeling: Cases Studies and Implications for Science Teaching. Science Education, v. 92, i. 3, p. 424-446, 2008.
TEIXEIRA, E. S.; FREIRE JR., O.; EL-HANI, C. N. A influência de uma abordagem contextual sobre as concepções acerca da natureza da ciência de estudantes de física. Ciência & Educação, v. 15, n. 3, p. 529-556, 2009.
VERA, A. A. Metodologia da pesquisa científica. Porto Alegre: Globo, 1976.



O MÉTODO CIENTÍFICO
"O método científico é um conjunto de técnicas para investigar fenômenos e para a construção de novos conhecimentos, bem como para corrigir e integrar conhecimentos prévios em bases mais amplas. É fundamentado na acumulação de evidências observáveis, empíricas e mensuráveis subordinadas a um determinado princípio de reflexão: a problematização, a coleta de dados através da observação, a experimentação e a formulação e verificação das hipóteses.
Embora os procedimentos variem de uma área para outra, características significativas distinguem a investigação científica de outras metodologias do conhecimento. Os cientistas propõem hipóteses para explicar fenômenos, e projetam experimentos para testar a validade das hipóteses. As teorias relacionadas a domínios mais amplos da investigação devem articular muitas hipóteses em uma única e coerente estrutura, isto por sua vez leva à formação de novas hipóteses, bem como na inserção de grupos de hipóteses em um contexto mais amplo do entendimento.
Entre os aspectos compartilhados pelos vários campos de investigação é a convicção que o processo deve ser objetivo para reduzir interpretações pessoais dos resultados. Uma outra expectativa básica é com a documentação e o compartilhamento de todos os dados e da metodologia, possibilitando, assim, o exame cuidadoso por outros cientistas. Isto permite a outros pesquisadores a oportunidade de verificar os resultados tentando reproduzi-los. Esta prática, chamada “revelação completa” permite, também, avaliações estatísticas da confiabilidade desses dados..."
O conceito atual de ciência surge com as aplicações do método experimental aperfeiçoado por Galileu, caracterizando não apenas conhecimento mas, fundamentalmente, pesquisa. Nos principais ramos da ciência, o processo de pesquisa, investigação e de descobertas científicas é basicamente o mesmo: são aplicações do método científico:
I - Toda investigação parte de algum problema. A definição do problema deve permitir a formulação de perguntas específicas que sirvam de guia para sua solução.
II- Observação significa ir além da aparência penetrando, mesmo, na essência do fenômeno. Observar é aplicar atentamente os sentidos (instrumentos) a um objeto para dele extrair evidências reveladoras.
III- A hipótese é a suposição de uma causa destinada a explicar provisoriamente um fenômeno até que os fatos a venham contradizer ou confirmar. "
IV- "Com a experimentação, podemos testar a validade das hipóteses”. “
V- A Indução da Lei completa o processo de investigação. Leis científicas podem ser definidas como generalizações de ocorrências repetitivas e possuem valor preditivo, tais como, a lei da gravitação de Newton: Toda partícula do universo atrai cada uma das outras partículas com uma força diretamente proporcional ao produto das duas massas e inversamente proporcional ao quadrado da distância entre elas”. Milton Hunnex.
VI- A Teoria insere o assunto tratado num contexto mais amplo. As teorias científicas reúnem um determinado número de leis particulares sob a forma de uma lei superior e mais geral.


TEORIA ATÔMICO MOLECULAR
Marcos Rocha
A ideia de uma concepção atomística da matéria remonta às especulações dos filósofos gregos da Antiguidade, mas sua formulação em bases científicas é atribuída ao químico e físico inglês John Dalton.
Durante a Idade Média e o Renascimento, a verdade correntemente aceita era a de Aristóteles e dos filósofos estoicos, que sustentavam ser a matéria contínua.
Com o desenvolvimento da química, na Segunda metade do séc. XVIII, acumularam-se fatos que, para serem explicados, necessitavam de uma teoria sobre a constituição da matéria.
Por volta de 1785, Antoine Laurent de Lavoisier demonstrou que não há variação da massa numa reação química:
A massa dos produtos é igual à soma das massas das substâncias reagentes.
Lavoisier foi também quem introduziu a noção de substância elementar, "o último ponto que a análise química atinge".
Em 1799, Joseph Louis Proust descobre a lei das proporções definidas, a qual afirma que:
Uma dada substância contém seus elementos constituintes na mesma proporção.
Por exemplo, em qualquer amostra de água, o hidrogênio e o oxigênio estão presentes na mesma proporção, em massa, de 1 para 8: 1 g de hidrogênio e 8 g de oxigênio combinam-se para formar 9 g de água. A presença em excesso de um dos elementos não altera a quantidade de composto formado: 2 g de hidrogênio e 8 g de oxigênio formarão 9 g de água, restando 1 g de hidrogênio sem reagir.
A lei das proporções definidas indica que as substâncias que participam de uma reação o fazem em quantidades precisas ou corpusculares.
A TEORIA DE DALTON
A teoria de Dalton baseava-se nos seguintes postulados:
·       os elementos químicos consistem em partículas de matéria, ou átomos, que não se subdividem e que preservam sua individualidade nas transformações químicas;
·       todos os átomos de um mesmo elemento são idênticos e, em particular, têm a mesma massa, caracterizando-se cada elemento pela massa de seu átomo;
·       os compostos químicos são formados pela união de átomos de diferentes elementos em proporções numéricas simples e determinadas, por exemplo, 1:1, 1:2, 2:3.
Desse modo Dalton procurou explicar as leis de Lavoisier e de Proust:
·       Como os átomos não sofrem mudanças durante uma reação, a massa de um composto é a soma das massas, de seus elementos;
·       Um composto é formado pela união de átomos em proporções determinadas;
·       Consequentemente, a proporção, em peso, dos dois elementos é sempre a mesma em qualquer amostra do composto.

LEI DE DALTON
De sua hipótese Dalton concluiu que, se dois elementos, A e B, podem formar mais de um composto, então as massas de B que combinam com a mesma massa de A nos diferentes compostos estão entre si na mesma proporção que pequenos números inteiros. Por exemplo, oxigênio e carbono podem formar dois compostos: em um deles, monóxido de carbono, a proporção dos dois elementos é de 4:3 (massa), respectivamente, e no outro, dióxido de carbono, é de 8:3. As massas de oxigênio que reagem com a mesma massa de carbono nos dois compostos estão entre si como 4:8 ou 1:2. Essa lei, conhecida como lei das proporções múltiplas, ou lei de Dalton, foi derivada da teoria e posteriormente confirmada pela experiência, constituindo a primeira predição e o primeiro triunfo da teoria atômica da matéria.
Apesar do seu sucesso para explicar e predizer as leis da combinação química, a teoria de Dalton era incompleta, pois não podia determinar os pesos relativos dos átomos.
Dalton fez então, arbitrariamente, a suposição mais simples: quando apenas um composto de dois elementos fosse conhecido, estipulava-se AB para sua fórmula estrutural. A água era considerada como formada por um átomo de hidrogênio e um de oxigênio. Embora simples, a hipótese era incorreta e gerou algumas incongruências e dificuldades.
Também o estudo das propriedades da combinação de elementos gasosos levantou problemas que desafiaram a teoria atômica. Joseph Louis Gay-Lussac descobriu em 1805 que, numa reação de elementos no estado gasoso, os volumes dos reagentes e dos produtos, nas mesmas condições de pressão e temperatura, estão entre si como pequenos números inteiros.
Por exemplo, um volume de oxigênio combina-se com dois volumes de hidrogênio dando dois volumes de vapor de água, nas mesmas condições de pressão e temperatura; um volume de nitrogênio reage com três volumes de hidrogênio para dar dois volumes de amônia.
Se volumes de todos os elementos gasosos, bem como seus átomos, se combinam em proporções de pequenos números inteiros, deve haver uma relação simples entre o número de átomos em volumes iguais de todos os gases. Dalton admitiu que volumes iguais de todos os gases, submetidos à mesma pressão e temperatura, contêm o mesmo número de átomos. Mas então, quando um volume de oxigênio reage com dois volumes de hidrogênio para formar dois volumes de vapor de água, cada átomo de oxigênio deveria dividir-se, o que contraria o postulado da indivisibilidade do átomo em processos químicos.
A HIPÓTESE DE AVOGADRO
O físico italiano Amedeo Avogadro mostrou, em 1811, que a dificuldade poderia ser superada distinguindo-se os átomos das menores partículas de um gás, sendo estas últimas agregados de átomos que ele chamou moléculas. Avogadro postulou então que iguais volumes de todos os gases, nas mesmas condições físicas, contêm o mesmo número de moléculas. Nesse caso, 2 moléculas de hidrogênio reagirão com 1 molécula de oxigênio, dando 2 moléculas de água.
Admitindo que tanto a molécula de hidrogênio quanto a de oxigênio consistia em dois átomos, Avogadro solucionou, à luz da teoria atômica, o conflito colocado pelas experiências de Gay-Lussac, obteve a composição correta da água, H2O, e de várias outras substâncias, permitindo o cálculo dos pesos atômicos. A análise detalhada de muitas reações revelou que as moléculas dos elementos gasosos hidrogênio, oxigênio, cloro e nitrogênio contêm dois átomos, ao passo que nos gases inertes (hélio, neônio, argônio, criptônio xenônio e radônio) a molécula é monoatômica.
A hipótese de Avogadro não foi aceita de imediato pois seus contemporâneos, que não podiam conceber a combinação de átomos de um mesmo tipo. Quase cinquenta anos mais tarde, com o trabalho de outro químico italiano, Stanislao Cannizzaro, ficou demonstrado que ela fornecia uma base racional para a determinação de pesos atômicos relativos. Na conferência internacional sobre pesos atômicos, realizada em Karlsruhe em 1860, as ideias de Avogadro e Cannizzaro foram reconhecidas. Essa data simboliza o estabelecimento definitivo da teoria atômica da matéria.
A segunda grande contribuição da química à teoria atômica foi a construção de uma tabela de elementos dispostos em ordem de periodicidade de propriedades, enunciada por Dmitri Ivanovitch Mendeleev em 1869. Dispondo os elementos conhecidos em ordem crescente de peso atômico, Mendeleev verificou que elementos quimicamente semelhantes ocorriam em intervalos regulares. Ele foi capaz de prever a existência de seis novos elementos, desconhecidos então, correspondentes a lugares não ocupados em sua tabela. Tal fato é uma importante indicação da regularidade da estrutura intra-atômica e só foi completamente explicado com o advento da teoria quântica. A estrutura do átomo e seus constituintes básicos não poderia ser revelada pela química convencional e teve de esperar por novas descobertas e novos métodos, que ocorreram no campo da física em fins do séc. XIX e princípio do séc. XX.



TRANSFORMAÇÕES QUÍMICAS E FÍSICAS DOS MATERIAIS
CONCEITO
Constantemente a matéria que nos cerca sofre transformações. Em algumas transformações somente o estado ou a agregação do material são alterados, caracterizando uma transformação física da matéria. Em outros casos essas transformações resultam na produção de um novo material, com características diferentes do inicial.
As transformações químicas ocorrem quando há alteração na constituição do material, formando assim novas substâncias.
Ao aproximarmos um fósforo aceso de um recipiente com álcool, este começa a queimar. Essa queima é uma transformação química, pois há alteração na constituição do álcool, que ao entrar em contato com o ar oxigênio, se converte em gás carbônico e água, liberando energia.
Chamamos de sistema o conjunto de materiais isolados para estudo. Uma maneira de comprovar a existência de uma transformação química é através da comparação do estado inicial e final do sistema. Algumas evidências podem ser observadas, permitindo verificar a ocorrência dessas transformações, como modificação na cor, cheiro, estado físico e temperatura. Confira a tabela com a descrição do sistema antes e depois da transformação:

Processo
Estado Inicial
Estado Final
Queima da Gasolina
Gasolina: Líquido amarelado, com cheiro característico
Oxigênio: Gás incolor
Gases Incolores
Enferrujamento de um prego
Prego: sólido rígido, com coloração cinza
Oxigênio: gás incolor
Água: líquido incolor
Pó vermelho castanho

 Em alguns casos, somente pela observação visual, não é possível identificar se houve uma transformação. Por exemplo, quando misturamos soluções de ácido clorídrico e hidróxido de sódio, ambas incolores. Após a mistura, o líquido resultante ainda é incolor, sem aparentar a formação de um novo material. No entanto uma reação química acontece quando essas substâncias são misturadas. Portanto é importante identificar e reconhecer os diferentes materiais que participam de uma transformação.
Toda transformação química constitui uma reação química. As substâncias presentes no início da reação recebe o nome de reagentes, e as que se formam recebem o nome de produto.
Exemplo: HCl+NaOHNaCl+H2O
HCl, o ácido clorídrico, e NaOH, o hidróxido de sódio, são as substâncias que reagem, ou seja os reagentes. NaCl, o cloreto de sódio, e H2O, a água, são as substâncias que se formam, ou seja, os produtos.

TRANSFORMAÇÕES
As transformações podem ocorrer das seguintes maneiras:
-Por ação do calor
Muitas substâncias são transformadas quando submetidas a uma fonte de calor. O cozimento de alimentos é um exemplo.
Quando há decomposição de um material devido ao calor, chamamos o processo de termólise. Ex: Termólise do magnésio
Magnésio + oxigênio → óxido de magnésio
-Por ação de uma corrente elétrica
Algumas substâncias necessitam de energia elétrica para que possam se transformar. A esse processo damos o nome de eletrólise.
Para a decomposição da água, em hidrogênio e oxigênio, por exemplo, utilizamos uma corrente elétrica para esta transformação.
-Por ação da luz
A fotossíntese é um exemplo de reação química que ocorre na presença da luz, onde a água e o dióxido de carbono do ar são transformados em oxigênio e glicose.
dióxido de carbono + água → oxigênio + matéria orgânica
A transformação do oxigênio em ozônio acontece através da luz ultravioleta. Essa reação por ação da luz também é de extrema importância, pois assim é formada a camada de ozônio que protege a Terra dos raios ultravioletas.
-Por ação mecânica
Uma ação mecânica (atrito ou choque) é capaz de desencadear transformações em certas substâncias.
Um exemplo é o palito de fósforo, que quando entra em atrito com a caixinha que o contém, produz uma faísca, que faz as substâncias inflamáveis do palito entrarem em combustão.
A explosão da dinamite e o acender de um isqueiro também são exemplos de transformações por ação mecânica.
-Pela junção de substâncias
Através da junção de duas substâncias podem ocorrer reações químicas. Isso frequentemente ocorre em laboratórios de química.
A adição do sódio metálico em água é um exemplo:
sódio + água → hidróxido de sódio + hidrogênio


TEORIA DA EVOLUÇÃO

Marcus Valério XR
   Desde os tempos mais remotos indagamos sobre a origem dos seres vivos, incluindo nós mesmos, e durante todo esse tempo sempre tivemos nossas "respostas" na forma de fantasias, estórias fantásticas e recheadas de alegorias que foram transmitidas de geração após geração.
   Por mais de 99% de seus quase 250 mil anos na Terra, o Ser Humano foi dominado pelo pensamento mitológico e suas lendas. Depois, há cerca de 2500 anos atrás surgiu a Filosofia, e a Razão tentou buscar essa resposta abrindo caminho para algo além dos mitos e crenças.
   Mas essa Era de lucidez racional seria por 1000 anos obscurecida pelas sombras da Idade Média e seus dogmas de fé baseados na antiga mitologia judaico-cristã. No Oriente Médio, boa parte desta cultura racional sobreviveu disputando lugar com a crença na similar mitologia islâmica, e no Extremo Oriente, também desde há 25 séculos atrás, outro tipo de filosofia, mais mística, se espalhava, baseada no Hinduísmo, Taoísmo e Budismo.
   E só há pouco mais de 250 anos, outra área do potencial humano amadureceu e se consolidou, a Ciência.
   A Ciência é a fusão da Razão com a Experimentação. Do Pensamento com o Empirismo, e é tão eficiente que seus resultados práticos e materiais em menos de meio século foram muito mais marcantes do que as dezenas de milhares de anos de misticismo e magia.
Ela pode não ter as respostas para nossas indagações interiores, e com certeza não tem a chave da felicidade, mas ninguém pode negar que ela é muito eficaz em entender, explicar e controlar a natureza.
   A Ciência também nos deu sua resposta para a grande pergunta sobre a origem da vida, e esta veio sob a forma da TEORIA DA EVOLUÇÃO.
   Não é de se admirar que essa explicação só tenha surgido há tão pouco tempo. Primeiro por que não se muda rapidamente centenas de milhares de anos de pensamento mitológico só com 2500 de Filosofia ou 250 de Ciência, e depois porque essa questão realmente não é fácil de ser respondida.
   É uma pergunta sobre algo que há muito aconteceu e que ninguém presenciou, sobre eventos e processos que se deram muito antes de qualquer tentativa de resposta mesmo mitológica. Algo que acontece na verdade há muitos milhões de anos.
   Com nosso quadro histórico, podemos considerar normal que por volta de 1600 dC, após o surgimento da imprensa, a Ciência tenha tido dificuldades para se estabelecer enfrentando toda uma estrutura de repressão religiosa que até ainda hoje não foi totalmente vencida.
   Foi nesse quadro de resistência, que um processo de elaboração de pensamento foi tomando corpo, o EVOLUCIONISMO, que tinha uma resposta diferente daquela referência que dominou toda a Idade Média, a Bíblia.
   A ideia de que a Terra era o centro físico do Universo já fora derrubada, mas o impacto sobre a religião não fora tão grande pois a doutrina cristã não se apoia no Geocentrismo, ainda que ele esteja presente na Bíblia.
Mas enfrentar o Mito da Criação? Algo do qual depende boa parte de toda a Teologia Cristã e suas diretrizes de comportamento? Foi algo muito mais complicado.
Não obstante o trabalho árduo de vários pesquisadores, cientistas e filósofos levou a uma mudança de pensamento, e o hoje a TEORIA DA EVOLUÇÃO é mais do que estabelecida como a mais precisa explicação para a origem da vida.
   Mas afinal, o que é a Teoria da Evolução e o Evolucionismo?

   EVOLUÇÃO ESPONTÂNEA
   Apesar do que muitos pensam, o Evolucionismo não é produto de uma só pessoa, não é ideia de um ou dois cientistas. Ele é simplesmente o resultado inevitável de um processo de evolução científica.
   A Ciência lida com fatos explicáveis e controláveis, previsíveis e reproduzíveis. Só pode aceitar explicações que se baseiem em fenômenos comprovados e observáveis na natureza.
   NÃO EXISTE CRIAÇÃO!
   Nunca ninguém jamais viu algo surgir do nada, ou uma transformação tão radical quanto um organismo complexo como o humano surgir do barro. Isso não existe na natureza. Portanto a explicação religiosa criacionista é inaceitável no pensamento científico.
   Tudo o que vemos na natureza é resultado de processos progressivos, estruturas muito simples podem parecer "surgir" rapidamente, mas estruturas complexas só surgem aos poucos, construídas passo a passo por processos lentos.
   Lenta e progressivamente os seres vivos nascem e crescem, uma semente se torna uma imensa árvore e um aglomerado de células menores que a cabeça de um alfinete se tornam grandes animais.
   Deve-se entender o termo EVOLUÇÃO antes de tudo como transformação, mudança progressiva, lenta e gradual. E sendo assim a Evolução está em TUDO que existe. Desde o mundo físico até os processos sociais. Nada acontece sem ser resultado de estágios progressivos. Nem mesmo ideias surgem do nada.
   A noção de Evolução começou a tomar corpo no pensamento humano a partir do momento que se passou a observar com mais cuidado os seres vivos. O surgimento das ciências Biológicas é o próprio surgimento do Evolucionismo.
   NÃO EXISTE BIOLOGIA SEM EVOLUCIONISMO!
   A Biologia, assim como a Geologia, Antropologia Física, Paleontologia e outras, só são possíveis como ciências numa estrutura evolucionista, sem a Teoria da Evolução todas elas perdem completamente sua base.
    Mas antes de prosseguirmos, vale retroceder um pouco e observar como a observação da natureza foi feita ao longo da história humana.
    Vamos seguir um raciocínio em etapas.
    Se uma coisa existe, podemos pensar a princípio em duas possibilidades:
    1 - ELA SEMPRE EXISTIU 2 - ELA PASSOU A EXISTIR
    Durante muito tempo acreditou-se que o mundo e o Universo sempre haviam existido. Muitas religiões Panteístas não possuem cosmogêneses embora a natureza esteja em constante movimento. Também no Budismo o Universo existe sempre, e no Bhramanismo apesar de existir o surgimento e fim do Universo, o ciclo é infinito.
    Alguns filósofos gregos também eram adeptos da existência ETERNA do mundo. Aristóteles foi um deles.
    O Sábio Grego Aristóteles foi um dos homens mais brilhantes de todos os tempos. Ele fundamentou a Lógica, as Ciências Naturais, a Dialética e a Retórica. Muitos dos feitos de Aristóteles são sentidos até hoje, 2.300 anos depois. Ele também foi o primeiro pensador a se ocupar sistematicamente com os seres vivos.
    Mas Aristóteles não era divino, ela nada tinha em que se basear, por isso muitas de suas conclusões não são mais válidas. Mesmo assim foi sem dúvida o primeiro Biólogo, examinou organismos, dissecou animais e observou o comportamento de vários tipos de seres vivos. Ela declarava que havia algo de maravilhoso em todas as formas vivas, das quais não devíamos ter um nojo infantil.
    Mas por que hoje não aceitamos mais que as coisas sempre tenham existido?
    Em parte pela religião. Os mitos Politeístas e Monoteístas sempre possuem uma origem das coisas, do Universo e dos seres vivos. São os Deuses ou um Deus que criam o mundo e o Ser Humano. Com o domínio dessas crenças e em especial do Cristianismo, a ideia de uma existência eterna foi abandonada, pois havia um relato de criação.
    Mas a existência Eterna também não satisfaz a observação cuidadosa da realidade. Se prestarmos atenção, principalmente com os métodos que dispomos agora, veremos que tudo está em constante transformação. Nem montanhas são eternas, algumas coisas novas surgem, outras deixam de existir.
ETERNO é o que está fora do tempo! Que sempre existiu e sempre existirá, que não tem fim nem teve começo. Apesar de nossa experiência comum e diária nem sempre poder invalidar isso, a mente humana não consegue lidar bem com a ideia da Eternidade. Isso vai contra nossa vivência e intuição.
Nesse sentido as Cosmogêneses foram um avanço no pensamento humano, pois substituíram o Mito da Eternidade pela ideia da Existência Temporal.
    Então se admitimos que uma coisa passou a existir, podemos pensar em dois pares de possibilidades:
    1 - ELA SURGIU DO NADA 2 - ELA SURGIU DE ALGUMA OUTRA COISA
    1 - ELA SURGIU REPENTINAMENTE 2 - ELA SURGIU PROGRESSIVAMENTE
   Em qualquer época a experiência humana pode constatar que "nada surge do NADA". Não se veem coisas se materializando no Ar, o que mesmo assim não significaria que estariam vindo do Nada. Estamos acostumados a ver coisas surgindo de outras.
   Mas então temos uma problemática questão. Se Tudo vem de alguma coisa, de onde veio a Coisa Primeira?
   Se sabemos que uma Girafa nasce sempre de outra Girafa, de onde veio a Primeira Girafa?
   Durante muito tempo acreditou-se na Geração Espontânea, suposta também por Aristóteles. Sabia-se que os animais se reproduziam, mas como explicar os primeiros destes animais? Simples, eles viriam de outras coisas.
   Então pensava-se que num corpo em apodrecimento, surgiam moscas, nas areias de um pântano surgiam sapos e mesmo que em pelos de animais surgiam cobras. Isso explicava então como surgiram os primeiros exemplares de cada animal.
   Nesse sentido a Teologia Cristã já era mais avançada, pois no primeiro Capítulo da Gênese Bíblica declara-se que cada espécie "reproduz-se conforme sua espécie". Mas sendo assim, como teriam surgido as primeiras espécies? Do NADA!
   Porém essa surgimento do NADA só teria ocorrido num determinado momento do passado, na CRIAÇÃO, mediante o indiscutível poder de DEUS. E nunca mais. Então resolvia-se a questão das origens sem a necessidade de Geração Espontânea, ainda que esta não tenha sido esquecida.
   A Teologia Bíblica é incompatível com a Geração Espontânea e a Igreja só não perseguiu os adeptos desta ideia com mais rigor por que ela não era muito preocupante apesar de estar arraigada no imaginário popular. Porém a Igreja apoiou todas as experiências que visavam desacreditar a Geração Espontânea.
   Por isso inclusive o Criacionismo foi tão satisfatório durante mais de mil anos, ele explicava o mundo apelando para um mistério que pelo menos na época não tinha motivos para ser contestado.
   Porém há um problema nessa ideia que a princípio passa desapercebido.
   Se cada espécie reproduz-se segundo a sua espécie, por que elas não são exatamente iguais? Por que as vezes nascem animais diferentes de seus pais? Por que de um boi e de uma vaca malhados, as vezes nascem bezerros escuros ou mesmo brancos e listrados?
   Na Bíblia, no Capítulo 30 da Gênese nos versículos de 32-43, fica clara a ideia de que tais características podem ser determinadas pela influência direta do ambiente, como colocar um rebanho perante um cenário listrado e sua prole nascer listrada.
   Esse é só um exemplo de como a Bíblia e a Teologia Cristã normalmente não tem uma resposta para explicar por que em geral os descendentes não são idênticos aos genitores.
   Mas esse não é o único problema, há também a questão do mito do Dilúvio Universal, que inviabiliza qualquer possibilidade de explicação razoável para o fato de haver tantas espécies diferentes espalhadas por todo o mundo. Esse problema pode ser visto neste texto.
   Somando-se isso ao crescente descrédito da Teologia Cristã e da Bíblia sobre assuntos científicos e históricos, cada vez mais evidenciados pelos avanços da ciência, pouco a pouco os cientistas ficavam menos satisfeitos com as explicações tradicionais.
   Num ponto de vista que só aceita como válido fenômenos comuns na natureza, só resta considerar que:
   UMA COISA SÓ SURGE DE ALGUMA OUTRA COISA, E PROGRESSIVAMENTE
   Então, se sabemos que toda girafa nasce de outra girafa, mas que girafas não existiram sempre, de onde surgiu a primeira girafa?
   De uma outra coisa, mas não radicalmente diferente, e sim muito parecida com uma girafa, ou seja, um outro animal parecido com a atual girafa, assim como antes deste tipo de animal havia um outro, e outro, o que mostra uma gradação progressiva.
   Mas como isso poderia ter ocorrido? São muito raros os casos onde um ser vivo nasce significativamente diferente de sua própria espécie. De onde tiveram a idéia de que isso fosse possível?
   Em parte através de raciocínios simples como esse, mas essa iminente desconfiança Evolucionista se deu principalmente após a ideia de se catalogar os seres vivos e categorizá-los em classes.
   TAXONOMIA
   Toda Ciência necessita de organização e método, e portanto deve classificar bem seus objetos de estudo.    O próprio Aristóteles já fizera isso há 2.300 anos, embora em um campo de amostras muito limitado, se resumindo às espécies disponíveis nas proximidades da antiga Grécia. Já no século XIX, o mundo tinha sido quase totalmente explorado, todos os continentes eram conhecidos. A humanidade já tinha contato com as exóticas faunas e floras das Américas, África e Oceania, bastante diferentes das do velho mundo.
  Os primeiros naturalistas passaram então a catalogar os seres vivos, num processo de classificação organizada que chamamos de TAXONOMIA.
   Sabemos que classificar as coisas pode ser trabalhoso, podemos organizar uma livraria separando os livros por assunto, por ordem alfabética, por autor e etc. Um livro sobre Maomé pode ser colocado em História, Religião, Oriente Médio ou Grandes Personalidades. Se formos classificar os veículos, podemos agrupá-los em terrestres, aquáticos e aéreos. Então subagrupar os terrestres pelo número de rodas, pelo tamanho, pela aplicação, data de fabricação e etc.
   Enfim há várias formas distintas de se organizar as coisas, e é difícil saber, quando não impossível, qual a forma mais apropriada.
   Ao classificar os seres vivos, os naturalistas não demoraram a perceber algo curioso, todas as formas de classificação pareciam convergir para uma mesma tendência, que permitia agrupar as espécies numa árvore de seções e subseções que obedecia uma progressão notável.
   Vejamos um exemplo simples, tentemos classificar apenas 9 animais: Aranha, Barata, Cobra, Gorila, Minhoca, Morcego, Peixe, Pombo, e Tigre.
   Alguém poderia colocar a Cobra junto com a Minhoca, mas se observarmos de perto ela tem muito mais em comum com o Peixe, devido a um esqueleto, olhos, dentes, escamas e etc. Por isso os naturalistas agrupam seres com o maior número de características em comum.
   Se dividíssemos nossos 9 animais em 3 grupos, parece ser óbvio que Aranha e Barata estariam no mesmo grupo, assim como Tigre e Gorila. Morcego e Pombo poderiam estar em outro grupo enquanto Peixe e Cobra em outro. A minhoca poderia ser colocada junto com a Aranha e a Barata, ou o Peixe e a Cobra.
   Mas é claro que existem milhares de espécies, que nos permitem agrupamentos muito mais refinados, de modo que encontraremos um lugar bem mais apropriado para a Minhoca. Com isso acabamos por chegar a atual classificação de seres vivos que devemos admitir, e difícil de ser alterada.
   Um Morcego tem muito em comum com o Pombo, por voar e ter sangue quente por exemplo, mas tem ainda mais em comum com o Rato: Pêlos, dentes, não põem ovos, tem membros bem mais parecidos e etc.    Uma Minhoca tem mais em comum com uma Lagarta do que uma Cobra, que por sua vez tem mais em comum com uma Tartaruga.
   São cuidados como esse que fazem com que a Aranha não esteja no grupo dos Polvos mas no dos Artrópodes, junto com a Barata, por ter exoesqueleto, e sub grupo dos Aracnídeos, junto com o Ácaro, por ter 8 pernas e uma cabeça/tórax, diferente das 6 pernas do subgrupo dos Insetos, que possuem cabeça separada do tórax, além de antenas, inexistentes nos Aracnídeos. Os Polvos por sua vez, mesmo tendo 8 membros como as Aranhas, são classificados como Moluscos, por não terem qualquer tipo de esqueleto, sobrevivendo apenas em meios densos como a água, tal qual a Lula e o Calamar.
   A ÁRVORE DA VIDA
   Por fim, o que os naturalistas perceberam é que os seres vivos, diferentes de instrumentos musicais, livros ou máquinas, possuem um modo de ser classificados que é muito mais claro e adequado que outros modos, eles obedecem a uma seção de agrupamentos muito evidente, que os separa em diversos grupos razoavelmente isolados, porém sutilmente interligados por alguns animais que parecem fazer uma conexão entre os grupos.
   Logo organizaram as formas de vida num esquema ÁRVORE, muito usado para outras coisas a serem classificadas, mas que sempre sugere ramos e troncos comuns, tal como invenções derivadas de outras, ou estilos musicais que se desmembram de outros, porém com uma Peculiaridade ÚNICA!
   Os ramos da Árvore dos seres vivos simplesmente não se cruzam! Diferente de estilos musicais e idiomas que se misturam, ou máquinas que mesmo após várias gerações de aperfeiçoamentos podem ser fundidas numa só, como um telefone com visor, ou um carro anfíbio.
   Mas os Seres Vivos uma vez separados em ramos taxonômicos, esses ramos não mais se interceptam, e por isso só a Mitologia pode imaginar Cavalos com Asas de Pássaros, Homens com Corpo de Cavalos ou Mulheres com Cauda de Peixe, assim como só a intervenção humana, por meio da engenharia genética, poderia produzir um Rato com uma Orelha Humana.
   Uma vez na árvore, ficou difícil não perceber uma progressão, ficava evidente uma série de troncos comuns que surgiam de um tronco único, o que sugeria ancestrais em comum que iam dando origem a descendentes, tal como uma árvore genealógica humana.
   Porém se traçarmos nossa árvore genealógica, veremos que ela se cruza com outras árvores, se misturando, o que não acontece com as espécies animais. Aliás a definição de espécie é justamente essa, de uma forma simplificada: "Um grupo de seres vivos que pode cruzar entre si". Por isso uma Onça Preta e uma Onça Pintada são espécies distintas, apesar de serem bem mais parecidas entre si do que um Puddle e um Dogue Alemão, que são raças diferentes de uma mesma espécie.
   Apesar de tudo isso havia alguns problemas com essa ideia de seres vivos surgindo progressivamente de ancestrais comuns. Primeiro a ausência de algumas espécies que deveriam ser intermediárias entre outras, que foram chamadas de Elos Perdidos, segundo, a falta de conhecimento de um mecanismo convincente para explicar como ocorreria essa transformação.
    Jean-Baptiste Lamarck
  A primeira explicação razoável que foi proposta para explicar essa Evolução é conhecida como   LAMARCKISMO
    Lamarck foi um dos primeiros biólogos contemporâneos, além de ter sido seminarista e militar. A partir de 1801 ele passou a publicar vários livros na qual combatia o FIXISMO, doutrina na qual as espécies de seres vivos são imutáveis, e o CATASTROFISMO, que afirmava que grandes e sucessivas catástrofes, o que incluía o dilúvio de Noé, eram responsáveis por várias das características ambientais assim como do desaparecimento de diversas espécies.
   Sendo o primeiro grande Evolucionista da história, ele teve a árdua tarefa de promover uma explicação para como ocorrem as mudanças de espécies, desafiando a crença tradicional.
   Naquela época a Geração Espontânea não era mais aceita por qualquer letrado, o italiano Francesco Redi, e o francês Loius Pasteur ajudaram a derrubar por completo a crença nessa hipótese. Muitos já esboçavam pensamentos evolucionistas misturados com hipóteses catastrofistas e mesmo criações divinas sucessivas pequenas e locais, ao quais Lamarck rejeitava, propondo basicamente duas afirmações:
   1 - A influência do Ambiente produz mudanças físicas no indivíduo de uma espécie.
   2 - Esse indivíduo transmite as modificações para seus descendentes, que nascem adaptados.
   Voltando ao exemplo da Girafa, segundo Lamarck, um grupo de animais teria se instalado num ambiente onde as melhores opções de alimento estavam no alto das árvores. O hábito fazia com que os animais cada vez mais esticassem o pescoço para alcançar as folhas mais altas. Com o tempo, o pescoço tenderia a se alongar ainda que imperceptivelmente, e os descendentes desses animais já nasceriam com pescoços ligeiramente mais longos, e assim por diante, geração após geração, até que houvesse uma estabilidade, resultando no animal que conhecemos como Girafa.
   Para Lamarck, o uso repetido do órgão causaria um desenvolvimento, e seu desuso naturalmente uma atrofia, o que explicava o desaparecimento dos órgãos que não mais tinham utilidade para a nova espécie.
Essa teoria logo se popularizou, despertando severas reações de uma sociedade Criacionista. Em especial de um naturalista protestante fortemente adepto do fixismo catastrofista e apologista bíblico, Georges Leopold Cuvier, autor respeitado de um denso e valioso trabalho que inclui principalmente anatomia.
   A firmeza de Lamarck perante a ira dos conservadores resultaria futuramente em seu obscurecimento, e acabaria morrendo na miséria, em 1829. Mas sua teoria só viria a ser parcialmente derrubada décadas mais tarde em especial pelos experimentos de August Weismann, que cortando caudas de várias gerações de ratos de laboratório, concluiu que nem por isso os descendentes nasciam sem caudas.
   A teoria de Lamarck era perfeitamente racional, mas para a Ciência a Razão não basta, pois como já vimos ela caminha com as pernas do Racionalismo e do Empirismo, é preciso o apoio dos fatos empíricos os quais nunca confirmaram a segunda proposição da teoria Lamarckista.
   Porém o primeiro postulado de Lamarck, de que o ambiente influencia as espécies, se manteve, servindo de apoio à nova teoria que viria a surgir.
   É curioso que hoje em dia, após mais de um século e meio de descobertas, a teoria de Lamarck ainda esteja fortemente viva na memória popular, pois a maioria das pessoas que pensam saber algo sobre Evolução ainda raciocina em termos Lamarckistas!
    DARWIN
  CHARLES ROBERT DARWIN não só não foi o primeiro evolucionista como muitos pensam, como sequer foi o primeiro Darwin evolucionista. Seu avô ERASMUS DARWIN, médico e filósofo, já havia publicado em 1795 uma obra onde apresentava ideias evolucionistas precursoras de Lamarck. "Mal de família", diriam os Criacionistas.
   Charles Darwin nasceu em 1809 e desde cedo se interessou por história natural. Cursou sem concluir teologia e medicina, mas preferiu se ocupar de botânica, zoologia e geologia. Recebeu várias influências, entre elas do botânico John Stevens Henslow e do geólogo Adam Sedgwick.
   Naquela época a Geologia também já estava em pleno desenvolvimento, através de obras como a de Charles Lyell que apesar de ainda acreditar na imutabilidade das espécies, já propunha uma Terra em graduais e lentas mudanças muito mais antiga do que o mundo de pouco mais de 6000 anos, baseado na simples contagem de gerações de lendários personagens bíblicos, que ficava cada vez mais insustentável.
   Após se formar em Humanidades, em 1831, Darwin partiu a bordo do Beagle, ao lado de outros personagens incluindo o lendário cientista e aventureiro Richard Francis Burton, na condição de naturalista, para uma viagem de 5 anos que tinha como missão o reconhecimento de diversas partes do mundo, incluindo as famosas ilhas Galápagos, o Brasil, Cabo Verde e Oceania. Coletando inúmeras informações e examinando diretamente vastas condições ambientais e espécies diferenciadas, Darwin começou a perceber que a Estabilidade das Espécies, o paradigma predominante da época, não explicava bem uma série de fatos que constatou.
   Após tomar contato com as ideias de Lamarck e posteriormente as de Thomas Malthus, sobre a dinâmica de crescimento populacional, Darwin finalmente concebeu o mecanismo evolutivo que seria a essência de toda a sua teoria. A Seleção Natural.
   Mas darwin também não foi o único a propor tal mecanismo, na verdade esta ideia tem como coautor Alfred Russel Wallace, que poderia hoje ser o alvo do ódio dos criacionistas caso Darwin não tivesse entrado em cena. Wallace também fizera uma viagem ao redor do mundo, tendo estado inclusive na Amazônia, e lera os mesmos livros que Darwin. Ambos foram reconhecidos como autores da Teoria, porém o livro de Darwin, A Origem das Espécies, foi muito mais impactante, e ele acabou levando a maior parte da fama, assim como sofrendo a maior parte da repressão do pensamento criacionista dominante.
   Wallace e vários outros estudiosos, incluindo Lyell, o botânico Joseph Hooker, o entomologista Henry Walter Bates, o naturalista Fritz Müller e o morfologista Thomas Henry Huxley, se tornaram grandes admiradores e contribuidores de Darwin e se uniram na disseminação de suas idéias. Este último inclusive ficou conhecido como o "buldogue de Darwin", por defender ardorosamente as ideias de seu amigo em debates aos quais, Darwin, de temperamento tímido e discreto, não era muito dado.
   Portanto, a Teoria da Evolução pela Seleção Natural, apesar de ser chamada de Darwinismo, é o resultado de um processo lento de evolução científica através de vários autores, e mesmo que Darwin nunca tivesse existido, cedo ou tarde ela surgiria no meio científico, mesmo porque a simples estruturação da Biologia torna inevitável a constatação do fenômeno evolutivo, que requer uma explicação.
   A LEI DA SELVA
   A ORIGEM DAS ESPÉCIES por meio da Seleção Natural ou A Luta pela Existência na Natureza
   A mais famosa obra de Darwin é até hoje considerada como a publicação mais revolucionária de todos os tempos. Seu impacto na sociedade foi avassalador e até hoje inúmeros religiosos não se conformam com o fato da interpretação literal da Gênese Bíblica ter sido aniquilada. Muito apologistas bíblicos a consideram como: "O mais duro golpe contra a Palavra de Deus".
   Darwin concordava com os princípios elaborados por Lamarck, mas percebeu serem eles insuficientes para explicar a variedade de espécies existentes e suas condições de vida.
   Voltemos ao exemplo da Girafa. Segundo Darwin, não foi a ação prolongada em esticar o pescoço para colher as folhas mais altas, que fez com que certos animais se tornassem girafas. Imaginemos que alguns tipos de animais foram habitar determinada região onde as melhores opções de alimentos eram as folhas altas. Destes animais, alguns tinham pescoço um pouco maior, e colhiam as folhas com mais facilidade, e outros um pescoço um pouco menor, tendo mais dificuldade em se alimentar. Assim, com o tempo, os animais de pescoço comprido foram favorecidos pelo ambiente, isto é, foram selecionados naturalmente, e os animais de pescoço menor acabaram por ser extintos, ou se mudaram para outro local com condições que lhes fossem mais favoráveis.
   A isso damos o nome de SELEÇÃO NATURAL. Um Lei que determina que só os mais adaptados ao ambiente poderão sobreviver, se reproduzir e assim transmitir suas características adaptativas ao seus descendentes. Portanto, os descendentes não tem o pescoço maior apenas porque o pescoço de seus pais se desenvolveu, mas sim por que seus pescoços já eram avantajados, e por isso eles sobreviveram e se reproduziram.
   Já havia então variações no comprimento do pescoço daqueles animais "pré-girafas", que ocorrem normalmente em qualquer espécie, pois os indivíduos nunca são iguais, mas sim possuem pequenas diferenças entre si. Após um período muito grande de tempo, dezenas ou centenas de gerações, a Seleção Natural, baseada nas exigências do ambiente, vai direcionando as variações num certo sentido.
   Outra forma de imaginar isso é pensarmos sobre a crença comum de que adolescentes que pratiquem     Basquete ou Vôlei fiquem mais altos que a média, o que é uma ilusão. Ao notar que jovens jogadores de um destes esportes são altos, muitos pensam que foi a prática que os tornou maiores, mas na verdade o tamanho, ainda que seja influenciado pela alimentação e outros fatores, é muito mais determinado geneticamente.
    Dessa forma não foi a atividade que tornou os jovens mais altos, mas sim o fato de que aqueles que não cresceram o suficiente não continuarem a praticar o esporte, se retiraram ou foram cortados pelos treinadores, num processo semelhante à Seleção Natural.
   É diferente por exemplo dos que pratiquem musculação, que de fato ficam mais fortes, porém esse desenvolvimento muscular não é transmitido para os descendentes, ao passo que a altura avantajada sim.
  Já no mundo selvagem a Seleção Natural é ainda mais determinante, pois trata-se da luta pela sobrevivência, os mais adaptados, os mais fortes, prosperam. É a Lei da Selva. O número de descendentes gerados é sempre maior que o número dos que conseguem chegar a idade adulta e se reproduzir, por isso apenas os portadores de certas qualidades, que lhes deem vantagem no ambiente em que vivem, transmitem as mesmas, que nas gerações seguintes já apresentarão outros tipos de variações e que serão novamente selecionadas.
   É evidente que para que esse processo produza espécies muito diferentes será necessário um período de tempo muito extenso, por isso Darwin só se convenceu plenamente de sua própria Teoria quando finalmente novas pesquisas geológicas forneceram uma idade de bilhões de anos para a Terra.
Apesar de sua teoria conseguir explicar com muita eficiência uma série de fenômenos populacionais, Darwin ainda acreditava na transmissão dos caracteres adquiridos ao longo da vida para as próximas gerações, e também não conhecia ainda o trabalho de outro ilustre pesquisador que viria posteriormente a acrescentar um dos últimos ingredientes para que a Teoria da Evolução se tornasse definitivamente irrebatível.
   VARIABILIDADE GENÉTICA
   Uma vez que percebemos claramente que os indivíduos de uma mesma espécie não são idênticos entre si, podemos distinguir duas diferenciações principais. As Adquiridas e as Herdadas.
   As que são adquiridas ao longo da vida são evidentes, porém as Herdadas nem sempre obedecem às nossas expectativas, e só passaram a ser melhor compreendidas graças ao trabalho pioneiro de um monge austríaco chamado Gregor Mendel.
  Mendel nasceu em 1822 e faleceu em 1884, 16 anos antes de suas pesquisas serem reconhecidas. Formado em Ciências Naturais, realizando nos jardins de um convento durante 10 anos, cruzamentos com exemplares amarelos e verdes de ervilhas por várias gerações, ele descobriu as Leis da Hereditariedade, também conhecidas como Leis de Mendel, que explicavam porque uma característica pode aparecer em um indivíduo mesmo que seus "pais" não a apresentem, embora tenham sido apresentada em gerações anteriores.
   Com a confirmação de suas experiências, reproduzidas e publicadas em 1900 por Erich Tschermak e Hugo de Vries o mundo descobriu as regras da antes inexplicável descontinuidade de características herdadas através de gerações, combinando os caracteres Dominantes e Recessivos, hoje chamados de Genes.
   Foi De Vries que por sua vez propôs também o fenômeno da MUTAÇÃO, que é uma característica não adquirida, mas também não herdada, constituindo uma anomalia ocorrida no processo de reprodução. Darwin também considerava hipótese semelhante, mas não lhe dava muita atenção por saber que a Seleção Natural eliminaria qualquer Mutação que na grande maioria das vezes traz desvantagens ao indivíduo, dificultando sua sobrevivência e perpetuação.
   Com isso, ficava clara a origem das variações nas características de indivíduos de uma mesma espécie, a Variação Genética fornece a Matéria Prima sobre a qual trabalha a Seleção Natural, e ao contrário do que muitos pensam, essa Variação comum, também chamada de Deriva Genética domina a quase totalidade da diversificação de características que irão determinar as vantagens no ambiente, e não as Mutações, que geralmente não são aproveitáveis, sendo eliminadas pela Seleção Natural, embora teoricamente possam também, em raros casos, trazer vantagens.
    O NEODARWINISMO
  Pouco após a morte de Darwin, diversos outros cientistas trabalharam para aperfeiçoar sua teoria, incorporando as descobertas sobre a Variabilidade Genética e eliminando definitivamente o segundo postulado de Lamarck, que pregava a transmissão das características adquiridas, devido a absoluta falta de evidências que a suportassem.
   Apenas o material genético é transmitido, com todas as suas variações e ocasionais mutações, fornecendo toda a diversificação necessária para a ação da Seleção Natural. Surgiu então a Teoria de Evolução que permanece praticamente inalterada por mais de um século, que chamamos de NEODARWINISMO, ou mais simplificadamente apenas Darwinismo, ainda que diferente da Teoria proposta por Charles Darwin.
   Incorporando as leis da genética de Mendell e a ideia das mutações, a teoria evolutiva contemporânea estabelece que a Variabilidade Genética é causada pela Recombinação Gênica, que é a variação natural ocorrida com o cruzamento das informações genéticas dos genitores do indivíduo, 50% do pai e 50% da mãe, e que nunca ocorrem da mesma forma em descendentes diferentes, e em menor grau também devido as Mutações.
   Na maioria das vezes as mutações são insignificantes, quando dizemos que um indivíduo é mutante, é porque sua mutação é suficientemente grande para resultar em alguma diferença. Como a maioria das espécies já está adaptada ao seu ambiente, a maioria das mutações significativas acabam por ser desvantajosas, e são eliminadas pela Seleção Natural.
   Porém muitas mutações costumam ter caráter recessivo, permanecendo ocultas dado aos cruzamentos comuns ocorrerem de modo a acobertá-las. Entretanto se há alguma mudança drástica no ambiente, a Seleção Natural irá priorizar outros tipos de características nos indivíduos, e nesse momento muitas mutações recessivas podem terminar por se manifestar, assim como a ocorrência das mesmas pode aumentar, ampliando ainda mais o leque de variações sobre o qual a Seleção Natural pode trabalhar.
   A EVIDÊNCIA FÓSSIL
  Já desde antes de Darwin registros fósseis vinham sendo descobertos, e na verdade, devem ter sido achados em longo de toda a história, porém a falta de um viés científico em geral levava a serem desprezados. Na China Antiga, por exemplo, muitos achavam que fósseis de dinossauros eram evidentemente esqueletos de dragões, que são animais sagrados para os chineses.
   Mais uma vez foi o desenvolvimento do naturalismo que resultou numa maior atenção aos registros fósseis, e os primeiros evolucionistas não logo perceberam estes como mais indícios da evolução.
Assim que a Teoria da Evolução darwiniana se popularizou, foi gerada uma grande expectativa com a futura descoberta de "novos" fósseis, que não demorou a ser satisfeita. Em cerca de um século e meio, foram achados e catalogados tantos fósseis que se tornou impossível negar a existência dos dinossauros e outras forma de animais extintos.
   Para evidenciar a evolução porém, os fósseis tiveram que ser analisados e encaixados numa provável linha evolutiva histórica. A datação da idade dos fósseis, realizada por diversos parâmetros, ajudou a classificá-los de acordo com sua época, e pouco a pouco a história natural das espécies foi sendo desvendada, confirmando e esclarecendo cada vez mais o processo evolutivo.
   A Paleontologia é o ramo da ciência encarregado de pesquisar os fósseis, e hoje em dia acumulou um conhecimento sobre a história natural dos seres vivos que os primeiros evolucionistas jamais sonharam.
   A evidência fóssil então se tornou uma das maiores evidências em favor da evolução.
   A DESCOBERTA DO DNA
   Na década de 50 do século XX, diversos cientistas estavam em busca de esclarecer o meio sobre o qual o material genético se transmitia. Conhecia-se o conceito, mas não exatamente qual era o mecanismo. O Neodarwinismo já previa que tal estrutura de replicação deveria ser achada, e trabalhando sobre essa premissa, os famosos cientistas James D. Watson e Francis H.C. Crick formularam o modelo molecular do ADN (Ácido Desoxirribonucleico), ou DNA em Inglês, que permanece até hoje.
   Não foi um trabalho isolado. Caso Watson e Crick não tivessem sido bem sucedidos, inevitavelmente outros cientistas teriam. Desde então nossos conhecimentos sobre os meios de transmissão de caracteres genéticos aumentaram imensamente, surgindo as terapias genéticas, a identificação por DNA que inclui os testes de paternidade, a prevenção de doenças hereditárias e a comparação genético das espécies.
    Todos os seres vivos contém um código genético baseado na estrutura do DNA, que é fundamentalmente a mesma desde as bactérias até o Ser Humano, constituindo forte evidência de parentesco evolutivo, que não seria necessária caso os seres vivos tivessem sido criados isoladamente.
   Com a leitura do DNA, pode-se constatar e media a distância evolutiva que separa as diferentes classes de seres vivos. Pôde-se confirmar que os animais mais distantes geograficamente tem estruturas genéticas mais diferentes. O rastreamento genético viria a confirmar e reforçar a explicação evolucionista para a distribuição das espécies no mundo.
   Com a leitura de DNA residual, que já permite a identificação até mesmo em materiais "mortos", é possível analisar os elos de parentesco entre as espécies vivas e as atuais, técnica que vem sendo refinada a cada dia. E no futuro, como um dos resultados do Projeto GENOMA que mapeou totalmente o código genético humano, será possível afirmar com precisão onde e quando se encaixam cada evidência fóssil na linha evolutiva.
    O EQUILÍBRIO PONTUADO
  As variações ambientais podem ser causadas por vários fatores, terremotos, mudanças climáticas, surgimento de vulcões, espécies que se reproduzem demais e eliminam outras, ou espécies que se extinguem e prejudicam a cadeia alimentar. Ao longo da história geológica da Terra muitas mudanças drásticas ocorreram, como impactos devastadores de meteoros e glaciações.
   É exatamente nestas condições que as grandes transformações ocorrem nas espécies, pois a Seleção Natural muda as regras e se torna mais rigorosa, e qualquer pequena particularidade pode fazer toda a diferença. Nestas situações também as mutações ocorrem com maior frequência.
   O processo evolutivo portanto não é linear, mas sim irregular, com períodos de maior ou menor desenvolvimento. O dimensão da diferença entre estes períodos porém está em ampla discussão no meio científico atual.
   Os Gradualistas, apesar de admitirem a irregularidade do processo evolutivo, preferem entender a evolução como um processo mais estável, ao passo que os Pontuacionistas, baseados na hipótese do Equilíbrio Pontuado do grande cientista evolucionista Stephen J. Gould, enfatizam uma maior instabilidade na história evolutiva, com grandes períodos de estagnação e breves períodos de aceleração evolutiva.
   Equilíbrio Pontuado propõe que as espécies permanecem estáveis por vastos períodos de tempo até que repentinamente as condições ambientais mudem. Neste momento, a Seleção Natural passa a beneficiar outros fatores que antes seriam inócuos ou desvantajosos, forçando a evolução. Como esses períodos de mudança são breves, logo a espécie se estabiliza novamente, para um novo período de nova estagnação.
   Essa hipótese porém não é exatamente uma novidade, mas apenas um ênfase em aspectos já previstos desde Darwin, uma vez que é óbvio que uma espécie bem adaptada ao seu ambiente dificilmente evolui, pois qualquer mudança significativa num indivíduo dificilmente resultaria em vantagens, e seria eliminada pela Seleção Natural.
   Um crítico dessa hipótese Richard Dawkins, que costuma ver o Pontuacionismo como uma mera "nota de rodapé" ao Neodarwinismo. Dawkins, um dos maiores defensores contemporâneos do Evolucionismo, também contribuiu para a ciência mediante a ênfase da Seleção Natural a nível Genético, sugerindo que a Evolução seria como se, de um certo modo, ocorresse uma luta dos próprio Genes para se perpetuar, utilizando os organismo como veículos. Dawkins é também o formulador da hipótese da Memética, que numa analogia à sua proposta da Evolução com ênfase genética, sugere que as informações na forma de estruturas fundamentais chamadas Memes, também se comportariam de forma similar aos genes, lutando para se perpetuar da melhor forma possível, o que abre a possibilidade de estender a Teoria da Evolução até mesmo para a dinâmica cultural e teorias da informação.
http://www.xr.pro.br/teoria_evolucao.html

A HIPÓTESE E A EXPERIÊNCIA CIENTÍFICA EM
EDUCAÇÃO EM CIÊNCIA: CONTRIBUTOS PARA
UMA REORIENTAÇÃO EPISTEMOLÓGICA
João Praia 1
António Cachapuz 2
Daniel Gil-Pérez 3
Resumo: O presente artigo desenvolve-se em torno do estatuto epistemológico da hipótese e da experimentação, numa perspectiva de transposição para o campo da Educação em Ciência. Não se trata de olhar aquela vertente pela estrita óptica dos epistemólogos, mas centrar a nossa atenção na busca e apropriação crítica de elementos fundamentadores de uma teorização para a Educação em Ciência, por sua vez também necessária para orientar práticas educacionais.
Introdução
Este trabalho situa-se no quadro de um conjunto de três artigos articulados entre si,
a serem publicados na revista Educação & Ciência, e têm em vista discutir problemáticas ligadas
à epistemologia do trabalho científico. O primeiro "Por uma imagem não deformada do
trabalho científico", foi já editado e desenvolveu-se em torno de uma crítica fundamentada
às concepções, mais habituais, dos professores sobre tal trabalho, apresentando uma extensa
bibliografia capaz de ajudar a melhorar e organizar a sua formação. O segundo encontra-se no
prelo e refere-se à observação e à teoria científicas, bem como à sua complexa relação, sendo
aí focadas incidências para uma adequada atuação do professor em nível das estratégias de
ensino. O presente artigo, o terceiro, é uma tentativa de resposta às questões e às dificuldades
encontradas nas práticas letivas, devido a posições epistemológica marcadamente positivistas,
no que diz respeito ao estatuto da hipótese e da experimentação.
Na unidade enunciada nos três artigos, o que se procura é contribuir para uma viragem
na Educação em Ciência mais congruente com posições epistemológicas contemporâneas.
A hipótese em ciência
Numa perspectiva de pendor empirista a hipótese tem um papel apagado e inserese
num processo de verificação em que o exame exaustivo dos fatos é determinante para a sua
elaboração. No entanto, na perspectiva racionalista contemporânea, que aqui interessa salientar,
a hipótese intervem ativamente, desempenhando um importante papel na construção do
conhecimento científico.
Ainda que nos interesse aqui discutir mais o contexto da prova e menos o da descoberta,
ou o modo como são geradas, o que se pode aventar é que se trata de um processo complexo
que pode ter origem na imaginação fértil, inspiradora, porventura em idéias especulativas,
às qual subjaz um fundo reflexivo.
A Enciclopédia Einaudi (1992) diz-nos que "aquilo que hoje em dia, no discurso
científico classificamos de hipótese, apenas pode ser considerado como uma paragem provisória
do pensamento, seja por conjecturar um facto descrito de modo a ser susceptível de ser estabelecido
ou refutado no quadro dos termos que o definem, seja por propor um conceito que
justifique provisoriamente a sua coerência e eficácia no raciocínio explicativo dos fenômenos
observados ou provocados".
Entretanto, para nós, o que está em causa é, neste momento, a questão da prática
científica e de que forma é que ela nos ajuda e dá ensinamentos para o ensino das ciências.
Assim, a prática científica pode ser vista como um processo composto de três fases: a criação,
validação e incorporação de conhecimentos, que correspondem à geração de hipóteses, aos testes a que a hipótese(s) é sujeita e ao processo social de aceitação e registro do conhecimento científico (Hodson 1988). Contudo, parece importante fazer a distinção clara entre estas fases no trabalho científico em educação em ciência, pois pode ajudar os alunos a clarificar o propósito e o sentido da própria atividade reflexiva que estão a levar a cabo. Torna-se desejável que haja clarificação entre as duas situações – a criação da hipótese científica e a sua validação – para que possam compreender a complexidade daquela atividade, saber os caminhos que ela envolve e, neste caso, compreender a questão da validade dos testes de confirmação negativa ou de confirmação positiva a que a(s) hipótese(s) está (estão) sujeita(s).
A hipótese tem um papel de articulação e de diálogo entre as teorias, as observações
e as experimentações, servindo de guia à própria investigação. Condiciona fortemente
os dados a obter num percurso descontínuo, ainda que balizado por um fundo teórico
que lhe dá plausibilidade, intervindo ativamente nas explicações posteriores dos resultados.
Uma vez formulada a hipótese torna-se necessário, em seguida, a sua confirmação.
Duas vias são possíveis. A confirmação positiva e a negativa. No entanto, há que ter presente
que o processo de confirmação positiva nada nos diz sobre a verdade da hipótese, já que esta
pode ser falsa mas confirmada. Porém, uma sistemática e persistente confirmação positiva
pode ajudar a tornar o trabalho científico mais apoiado e fazer progredir o programa de investigação a ele associado.
Numa perspectiva do tipo popperiana, como nos refere Maskill & Wallis (1982) tenta-se, através do método hipotético-dedutivo, "aproximar" a ciência dos cientistas da ciência praticada na sala de aula. Assim:
a) o problema é percebido e compreendido como uma descontinuidade em relação
a uma teoria explicativa;
b) propõe-se, então, uma outra possível solução que é uma hipótese;
c) e deduzem-se proposições testáveis a partir da hipótese enunciada;
d) que, através de experiências e observações, cuidadosamente seguidas, conduzem
a tentativas de falsificação;
e) cuja escolha criteriosa se faz a partir da sua relação, em diálogo, com as teorias.
Trata-se de uma perspectiva que exige dos alunos grande capacidade criativa, assim
como um bom fundo teórico e espírito crítico. Se é certo que o professor tem que providenciar
essa excelente formação teórica, incitar a diferença e o pensamento divergente, para levar
a descobrir o que não é esperado, não é menos certo que a exigência conceptual a par de processos científicos de elevada complexidade tornam as situações de aula algo difícil. Para se
mobilizar tais competências, capacidades e atitudes com eficiência, torna-se necessário conhecer
bem o contexto em que se opera e, neste sentido, o domínio dos conteúdos científicos é
um requisito fulcral para que tal possa acontecer. As pessoas pensam e lidam de forma mais
eficiente nos e com os problemas cujo contexto e conteúdo conhecem melhor, lhes são particularmente familiares.
O conhecimento científico é um constante jogo de hipóteses e expectativas lógicas,
um constante vaivém entre o que pode ser e o que "é", uma permanente discussão e argumentação/ contrargumentação entre a teoria e as observações e as experimentações realizadas.
No âmbito desta perspectiva Bady (1979) realizou um estudo sobre a compreensão dos alunos
acerca da "lógica da testagem de hipóteses", em diversas escolas com alunos de diferentes
anos de escolaridade. O autor verificou que poucos alunos pareceram entender a lógica
dos testes da hipótese e que menos da metade dos alunos de escolas superiores conseguiram
entender que as hipóteses podem ser testadas por tentativas de falsificação. Uma conclusão
do estudo, talvez a mais importante, aponta para que "os alunos que acreditam que as hipóteses
podem ser testadas e provadas por verificação, parecem ter uma visão simplista e ingenuamente
absoluta da natureza das hipóteses científicas e da teoria. De fato, uma pessoa que
não perceba que as hipóteses científicas não podem ser logicamente provadas, mas apenas
desaprovadas, não percebe verdadeiramente a natureza da ciência". A irrefutabilidade deixa
de ser um sinal, como tantas vezes é percebido pelos professores, de superioridade e, segundo
esta perspectiva, reside aqui o carácter dinâmico, a possibilidade do conhecimento científico
se desenvolver.
Outro elemento que será necessário introduzir na discussão será o da luta "contra
a desconfiança progressiva na capacidade intelectual do aluno. A assunção de que a educabilidade da inteligência é possível abre amplas perspectivas à elaboração, intencional e sistemática, de estratégias metodológicas dirigidas ao desenvolvimento de competências do pensar" (Santos & Praia 1992). Outra ideia que importa refere-se à necessidade de reagir contra
a tendência para considerar o erro como evidente. Contudo, é necessário, neste contexto, considerá-lo como inevitável, discuti-lo, questionar as suas razões para que nós possamos aproximarda verdade possível, de momento. Este processo tem de ser partilhado pelos pares, não
ignorando o papel do trabalho cooperativo e da "comunidade científica de alunos" que, em
conjunto, procuram soluções para os problemas colocados e, mesmo, por eles equacionados.
Está em causa, pois, uma mudança no papel do aluno; este passa de receptor sobretudo
de conteúdos científicos, a sujeito ativo na construção do seu próprio saber – de conhecimento,
quer conteudal quer processual. Isto exige-lhe um esforço do ponto de vista conceptual,
metodológico e atitudinal (Gil Perez 1993) mais consentâneo com a preconizada metodologia
científica atual, que só é superável num ambiente escolar em que o professor caminha,
intencionalmente, a par das dificuldades do aluno. Porém, não tem de seguir uma estratégia
idêntica relativa ao pensar sobre as respostas a dar aos problemas. Ele deve procurar, sim,
incentivar os alunos a consciencializarem as suas dificuldades, a pensar sobre o porquê delas,
estando atento aos obstáculos que se colocam à aprendizagem, ou seja, deve ajudá-los e darlhes
confiança para que se possam exprimir num clima de liberdade, sem perda do rigor intelectual.
A experiência científica
Na prática científica moderna, é freqüentemente suposto que os fenômenos naturais
são regidos por leis universais. Porém, no mundo natural esses fenômenos justapõem-se
de maneira complexa. Ora, isto é incompatível com a elucidação das leis como regularidades
empíricas e, também, indica porque é que as descrições dos dados observáveis são, em geral,
bastante inapropriadas para construir conhecimentos básicos, a partir dos quais se elabora o
conhecimento científico. Assim, a ciência requer a obtenção de dados com significado, sendo
a intervenção experimental necessária como meio capaz de fazer ressaltar e trazer ao de cima,
a informação epistemológica relevante e necessária ( Chalmers 1989).
De uma forma geral, os empiristas e os indutivistas, para quem todo o conhecimento
vem da experiência, tentam reduzir a experimentação a uma manipulação de variáveis. O
investigador faz, antes de tudo, um inventário empírico de parâmetros susceptíveis de ter
influência no fenômeno estudado para, em seguida, os fazer variar e, eventualmente, depois
dos resultados obtidos, estabelecer uma lei que lhes dê sentido e coerência.
Porém, se o investigador supõe, para alguns parâmetros, uma importância particular,
é porque possui uma hipótese articulada com o fenômeno em estudo. O investigador
nunca experimenta ao acaso, mas sempre guiado por uma hipótese "lógica" que submete à experimentação.
"A experimentação, como prova física, tende a ser conduzida para o mundo real ou
para "mundos possíveis", consoante a perspectiva é empirista ou racionalista .... Bachelard
acentua, ironicamente, que enquanto o empirismo deduz leis de experiências, o racionalismo
deduz experiências de leis" (Santos & Praia 1992).
Para Popper, a experimentação científica não deve funcionar no sentido da confirmação
positiva das hipóteses, mas no sentido da retificação dos erros contidos nessas hipóteses. Em
todo o caso, nesta perspectiva, a experimentação exige uma grande e cuidada preparação teórica e técnica, precedida e integrada num projeto que a orienta. Da reflexão dos resultados a que ela conduz pode, por sua vez, advir um outro saber a problematizar. "Já está ultrapassada a idéia da experiência como serva da teoria, sendo o seu propósito testar hipóteses... A experiência não é uma atividade monolítica, mas uma atividade que envolve muitas idéias, muitos tipos de
compreensão, bem como muitas capacidades, tem vida própria" (Haching 1992).
Passamos a rever, com algum pormenor, as posições epistemológicas empirista e
racionalista, para em seguida olhar melhor as suas implicações no trabalho escolar.
Numa perspectiva empirista, a experiência científica surge-nos, quase sempre, como
simples manipulação de variáveis, deduzindo leis (teorias) a partir dela própria ou da sua sistemática reprodução. Ela é determinante na obtenção de um conjunto de dados, que depois
de interpretados levam a generalização (indução), também a evidência factual, produzida pela
experiência, é o primeiro meio de estabelecer a credibilidade de uma teoria. A experiência
científica fundamenta, pois, todo o conhecimento e só no final da(s) experiência(s) se faz questão,se toma em conta a(s) teoria(s). Ela como que está separada da própria teoria, para paradoxalmente a confirmar. A experiência científica valoriza, quase só a confirmação positiva do
já previsto e obtido a partir dos dados observacionais, dados estes dotados de exterioridade.
Os resultados da experiência surgem como esperados e mesmo óbvios.
É a experiência que põe à prova a teoria e não o inverso. Muitas vezes a constatação
dos resultados experimentais levam a ignorar-se a hipótese que funciona como suposição transitória de valor epistemológico duvidoso, ou seja, a experiência é tida como algo separado da
hipótese e não influencia os resultados daquela.
O que mais importa numa perspectiva empirista, olhada pelo lado didático, são os
resultados finais independentemente dos processos da sua obtenção, ou seja, a experiência
surge-nos não problemática, não relevando os aspectos mais complexos e difíceis da pesquisa,
nem as condições teóricas e técnicas da sua produção. Também, muitas vezes, não se analisa e
reflete no significado da experiência e tão só no que é previsível que aconteça.
Numa perspectiva racionalista, enquanto programa de investigação progressivo, a
experiência científica deve ser guiada por uma hipótese, que procura funcionar, sobretudo,
como tentativa da sua retificação e questionamento – ela interroga, problematiza – , conduzindo,
muitas vezes, a outras hipóteses. Trata-se de um diálogo entre hipóteses/teorias e a própria
experimentação, diálogo nem sempre simples, já que, também aqui, o confronto entre o
teórico (o idealizado) e a prática (o realizado) se interligam. Reside aqui, pensamos, uma das
riquezas heurísticas da experimentação. Se a hipótese intervém ativamente nas explicações que
os resultados da experiência sugerem, a teoria tem um papel primordial na avaliação dos resultados obtidos.
A experiência científica é orientada e mesmo valorizada pelo enquadramento teórico
do sujeito, que em diálogo com ela, a questiona, a submete a um interrogatório, de respostas
não definitivas. A experiência enquadra-se num método pouco estruturado, que comporta
uma diversidade de caminhos, ajustando-se ao contexto e à própria situação investigativa.
Os seus resultados são lidos como elementos (possíveis) de construção de modelos interpretativos do mundo e não cópias (e muito menos fiéis) do real.
Como poderíamos afirmar que a experimentação científica encerra múltiplos fatores
não apenas tecnológicos, mas histórico-culturais, ético-morais, políticos, religiosos ... que
condicionam e, em muitos casos na atualidade, (re)orientam e (re)centram a atividade de pesquisa, como construção e produção social do conhecimento científico, como empreendimento
humano que toma opções e tomadas de posição não neutrais, mas carregadas de valores.. A
comunidade científica tem, também, um papel primordial que importa não esquecer. A experiência
enquadra-se num processo não de saber-fazer, mas de reflexão sistemático, de criatividade
e mesmo de invenção.
A transposição didática, realizada com cautela para não cairmos em simplismos
fáceis, deve traduzir-se em sugestões de propostas de atividades de ensino-aprendizagem, que
valorizem o papel do aluno no sentido primeiro de o confrontar com as suas situações de erro
para posteriormente as vir a retificar. Do ponto de vista didático, ao sujeitarmos a experiência
científica a uma tentativa de questionamento estamos convidando os alunos a desenvolveremse
cognitivamente, num confronto de idéias com os seus pares, em que o resultado não só não
está de antemão conseguido, como tem que ser sempre olhado à luz dos seus quadros interpretativos4.
No sentido de assinalarmos incidências da reflexão epistemológica da ciência no trabalho
experimental escolar, Cachapuz (1992) diz-nos que "uma sala de aula não é um laboratório
de investigação, pelo que as estratégias a adotar têm que ter legitimidade quer filosófica
quer pedagógica. Há pois que harmonizar estas duas dimensões".
Por outro lado, Hodson (1990) considera que o trabalho experimental tal como é
conduzido em muitas escolas é de concepção pobre, confuso e não produtivo. Para ele, muitos
professores acreditam que o trabalho experimental ensina os estudantes sobre o que é a
Apesar da perspectiva epistemológica subjacente à questão da experimentação ser algo marcado por uma visão popperiana,entendemos que numa situação de testagem, em ambiente escolar, ela afigura-se-nos como uma alternativa útil aosprofessores. Tal não significa que os autores do artigo partilhem, de todo, a perspectiva popperiana – ver, nomeadamente,Gil Pérez et al., 2001.
ciência e a sua metodologia. Têm sido uns entusiastas ao acreditar que o caminho para aprender
ciência, os seus métodos e processos é "descobrir aprendendo" ou "aprender fazendo".
Para aquele investigador em Educação em Ciência os professores usam o trabalho experimental
sem uma adequada reflexão, ou seja, mantêm o mito de que ele é a solução para os problemas
de aprendizagem em ambiente laboratorial. Esta visão distorcida baseia-se em pressupostos
epistemológicos, psicológicos e didácticos que têm vindo a ser, progressivamente, postos
em causa, ou seja, é uma visão que corresponde a um programa em regressão epistemológica.
Muitos dos objetivos que se estabelecem para o trabalho experimental escolar e que
os professores quase sempre enunciam referem-se, entre outros, ao seu forte sentido motivador,
bem como ao desenvolvimento de atitudes científicas tais como a objetividade, a ausência
de juízos de valor, a abertura de espírito. O trabalho experimental é, pois, orientado para
fomentar a aprendizagem de conceitos e métodos da ciência, que Hodson (1990) não só questiona, como volta a perguntar qual o significado do trabalho experimental, sobretudo no que
diz respeito ao aprender ciências na sala de aula de acordo com as perspectivas epistemológicas
atuais. O autor vai ao ponto de referir que "muito do que se faz está mal concebido e não
apresenta qualquer valor educacional, urge redefinir e reorientar a noção que os professores
têm sobre o trabalho prático.
Numa perspectiva inadequada da experiência científica realizada na sala de aula, não
se analisa e reflete nos resultados, à luz do quadro teórico e das hipóteses enunciadas, mas apenas se constata o que era mais do que previsível que acontecesse – a experiência realizou-se
para dar determinado resultado já esperado e conhecido de antemão. Na perspectiva que
vimos falando, de forte pendor empirista, a experiência surge, quase sempre, como algo episódico, ligada a uma visão heróica do cientista; ignora, pois, os contextos sociais, tecnológicos e culturais da construção e produção científica, que o professor tem de conhecer e não se pode alhear, deixando à margem das suas aulas. Caso contrário, a experiência científica escolar toma o sentido do fazer, sem saber por que e para quê. Estamos, neste caso, a considerar a ciência numa lógica que está fora da própria história do pensamento as idéias, desvalorizando o sentido da própria luta por idéias mais verdadeiras, isto é, mais explicativas para os fenômenos naturais.
Entretanto, Tamir (1977) distingue dois tipos de trabalho experimental: os de verificação
e os de investigação. No primeiro caso é o professor que identifica o problema, que
relaciona o trabalho com outros anteriores, que conduz as demonstrações (fora de um contexto
de problematização) e dá instruções diretas – tipo receita.
Quanto ao segundo tipo de trabalho experimental, tipo investigativo, deixam-se
algumas notas sobre o sentido com que a experimentação deve ser encarada na sala de aula:
i) deve ser um meio para explorar as idéias dos alunos e desenvolver a sua compreensão
conceptual;
ii) deve ser sustentado por uma base teórica prévia informadora e orientadora da
análise dos resultados;
iii) deve ser delineada pelos alunos para possibilitar um maior controle sobre a
sua própria aprendizagem, sobre as suas dificuldades e de refletir sobre o porquê
delas, para as ultrapassar.
No seguimento desta orientação o trabalho experimental deve ser redefinido, tendo
em atenção novos objetivos do ensino das ciências. Neste sentido, Hodson (1992, 1993,1994)
descreveu como objetivos centrais:
1. Aprendizagem das ciências: como a aquisição e o desenvolvimento de conhecimentos
teóricos (conteúdos das ciências).
2. Aprendizagem sobre a natureza das ciências: o desenvolvimento da natureza e
dos métodos da ciência, tomando consciência das interações complexas entre
ciência e sociedade.
3. A prática da ciência: desenvolvimento dos conhecimentos técnicos, éticos,
entre outros, sobre a investigação científica e a resolução de problemas.
Numa outra linha de pensamento, interessa sublinhar que em muitas situações de
ensino o estudo de casos históricos, incluindo a eventual exploração de "experiências cruciais",
quando está em jogo o conceito de testagem, pode ser útil didaticamente. A experimentação,
neste sentido, de forte pendor racionalista crítico de raiz popperiana, pode ser usada para uma
possível escolha de teorias em competição. O desenvolvimento intergrupal e intragrupal,
pode, no quadro de uma sempre prudente analogia com a comunidade científica, ajudar a
simular aspectos sociológicos, particularmente interessantes. A crítica, a argumentação e o
consenso dos pares constituem elementos de racionalidade científica que importa desenvolver
conjuntamente – alunos e professores – partilhando e vivendo dificuldades inerentes à própria
prática científica. Desta maneira, tal exercício escolar permite uma aprendizagem efetiva, significativa e com sentido de cidadania.
Importa sublinhar que uma ou duas experiências não dão resposta definitiva ao problema, nem abalam uma teoria que está a ser discutida. O confronto é mais vasto, tem incidências não só em nível lógico como também em nível sociológico. O que pode estar em causa é, sobretudo, a questão da hipótese que a experiência põe à prova: a confirmação positiva ou negativa. 
Em síntese: a relação entre a experimentação e a teoria é bem mais complexa do que muitos professores pensam e é, de certo, também por isso, que raramente ela é equacionada e pensada, desta forma, na sala de aula. Há que considerar outras possíveis
alternativas mais enriquecedoras como sejam contra-exemplos, experiências intencionalmente
orientadas para levar a resultados não esperados e referência a resultados que vêm da literatura.
Por outro lado, o problema da indução está presente em muitas das abordagens que
os professores fazem, levando a generalizações fáceis e demasiado simplistas. No V epistemológico de Gowin, instrumento didático de grande utilidade, é quase sempre considerado apenas o lado esquerdo (conceptual), não estando presentes as suas relações com o lado direito
(metodológico). Entretanto, fazem-se apressadas generalizações a partir de uma ou duas experiências, das comumente chamadas "experiências para ver". Por outro lado, a repetibilidade
não é, como muitos professores pensam, uma propriedade do conhecimento científico. Esta
abordagem já não é hoje aceita, mesmo à luz de pressupostos epistemológicos de natureza e de
sentido inequivocamente positivista.
O que nos parece de sublinhar é, pois, a necessária mudança de atitude dos professores,
no sentido de ultrapassarem a aceitação fácil de um empirismo clássico e ingênuo, concebendo
a ciência como uma simples descoberta, quer pela observação neutral, quer pela confirmação
experimental escolar positiva. Importa que os professores compreendam e se consciencializem
da importância do elemento cognitivo, da discussão argumentativa, que atribuam ao estudo e à reflexão um espaço indispensável para compreender as dificuldades e a complexidade
que se reveste um tal processo de construção da ciência. Não se pode, entretanto, ignorar
o papel do sujeito na construção do conhecimento, nomeadamente através do confronto
com os conceitos e teorias aceitas em ciência.
Conforme referem Gil Pérez (1993) e Beviá (1994), torna-se necessário planificar a
aprendizagem a partir do tratamento de situações problemáticas abertas, susceptíveis de interessar os alunos a desenvolver um plano experimental coerente, que não seja indicado pelo
professor, mas proposto por um grupo de alunos. Essas atividades, como refere Beviá (1994),
podem ser guiadas pelo docente, possibilitando aos alunos a percepção da variedade de processos implicados na atividade científica. Deste modo estará criado nos grupos de trabalho um
clima propício para fazer emergir, entre outras, as interrogações, as dúvidas, as incoerências, as
deficiências, a consciência das limitações teóricas,.... gerando as vivências que permitem aos
alunos refletir, conjuntamente, sobre as características do trabalho científico.
Maria de Sousa (1992), investigadora em ciência, ao falar-nos das características do
trabalho científico, em particular da experiência científica refere que ele se situa em "uma
esfera muito alargada e dinâmica, mantida em movimento pela interação contínua entre conjectura e refutação". No seu artigo intitulado Procedimentos experimentais: sobre cozinheiros-chefes e cientistas, distingue três elementos principais: o consenso dos pares, o desafio dos dogmas e a combinação única entre a arrogância e a humildade. Trata-se, assim, também de valores e atitudes inerentes ao processo científico escolar, a uma aprendizagem capaz de mudar as próprias representações de ciência.
A concluir
Muito do que acabamos de referir traduz-se em dificuldades e fatores, susceptíveis
de determinar uma atuação cuidadosa do professor, exigindo-lhe uma aprofundada formação
científica que não passa unicamente, longe disso, por possuir uns tantos conhecimentos
adquiridos na formação inicial. A transposição didática, feita de reflexão e consubstanciada na
própia ação didática, exige uma formação contínua que segue um percurso de desenvolvimento
pessoal e profissional exigentes.
Uma chamada de atenção para tornar claro que o professor tem de ter cuidados
muito particulares com o processo de aprendizagem e, em particular, com as atividades que
promove. Estas devem desenvolver-se na "zona de desenvolvimento próximo", o mesmo é
dizer que tais tarefas devem ser um desafio, porém, com um grau de dificuldade susceptível
de se constituírem em incentivo e não de fonte de desânimo, desmotivação e de impossibilidade
de resolução.
Referir ainda que a simplicidade com que os problemas e os fenômenos são apresentados
(atente-se ao nível etário) obrigam o professor a retomá-los mais adiante e, sempre
que possível, a ligá-los a outros para os articular de forma a que o currículo em espiral seja possível.
A conceptualização, a que não é alheio o ritmo e o tempo de aprendizagem, é mais bem
conseguida e a compreensão das idéias estruturantes torna-se o fio condutor das propostas de
ação didática do professor. As experiências de aprendizagem que o professor promove são
meios que devem ser considerados como instrumentos para melhorar a explicação que se dá
para os fenômenos e não podem ser consideradas como fins em si mesmas. Servem pelas interrogações que suscitam e pela busca de explicações mais verdadeiras, porque argumentativamente mais apoiadas.
Por fim, chama-se a atenção para a tentação de uma excessiva motivação para experimentar
e que o professor, bem intencionadamente, introduz na aula de laboratório. A espetacularidade
dos fenômenos, aliada à sua apresentação, nomeadamente, quer através de registros,
vídeo, quer outros, ainda que sejam fatores positivos, podem não ajudar a potenciar a aprendizagem desejada. Pode mesmo invertê-la e torná-la sociologicamente perversa, ou seja, pode desvalorizar razões epistemológicas e didáticas que deviam ser orientadoras e determinantes da ação, em favor de razões de pedagogia geral, em particular motivacionais que fazem perder o sentido das primeiras.
Está, em causa, uma formação de professores que se quer "completa", isto é, que
articule epistemologia e didática e que releve conjuntamente teoria e prática, como uma unidade
intrínseca. Só assim seremos capazes de gerar, tentativamente, materiais didáticos,
enquanto recursos fundamentais para o exercício de práticas de sala de aula mais consentâneas
com o que se preconiza numa perspectiva de ensino por pesquisa (Cachapuz, Praia & Jorge,
2001).
Trata-se, coerentemente, de usar a formação como um processo de pesquisa efetuando
investigação com os professores, com vista a que tal produção de saberes seja reinvestida na
inovação para que esta, persistentemente, se venha a transformar em mudança.
Referências bibliográficas
BEVIÁ, J. L. Los trabalos prácticos de Ciencias Naturales como actividad reflexiva, crítica y
creativa. In: Alambique. Didáctica de las Ciencias Experimentales, 2, 47-56, 1994.
CACHAPUZ, A. F., Filosofia da Ciência e Ensino da Química: repensar o papel do trabalho
experimental. Congresso Las Didácticas Específicas en la Formación del Profesorado,
Actas... Eds. Montero Mesa e Vaz Jeremias, Tomo II, v. 1, 357-363, Santiago de
Compostela, 1992.
CACHAPUZ, A. F., O Ensino das Ciências para a excelência da aprendizagem. In: Novas
Metodologias em Educação, Ed. A. Dias de Carvalho (Org.). p. 349-385. Porto: Porto
Editora, 1995.
CACHAPUZ, A., PRAIA, J. & JORGE, M. Perspectivas de Ensino. In: Formação de
Professores de Ciências, nº1, A. Cachapuz (Org.), Centro de Estudos de Educação em
Ciência. Porto, 2001.
CHALMERS, A. F. Qué es esa cosa llamada ciencia? (E. P. Sedeño y P. L. Mañez, trads.).
Madrid: Siglo Veintiuno de España, 1989.
ENCICLOPÉDIA EINAUDI, Método-Teoria, v. 21. Lisboa: Imprensa Nacional, Casa da
Moeda, 1992.
GIL PÉREZ, D., Contribución de la historia y de la filosofía de las ciencias al desarrollo de
un modelo de enseñanza/aprendizaje como investigación. Enseñanza de las Ciencias, v. 11,
n. 2, p. 197-212, 1993.
GIL PÉREZ; D., MONTORO, I. F., ALÍS; J. C., CACHAPUZ, A. & PRAIA; J. Por uma
imagem não deformada do trabalho científico. Ciência & Educação, v. 7, n. 2, p. 125-153,
2001.
HACKING; I. Refazer o mundo. In: A Ciência como Cultura, 103-118. Lisboa: Imprensa
Nacional Casa da Moeda, 1992.
HODSON, D.. Filosofia de da Ciência y Educación Científica. In: Constructivismo y
Enseñanza de las Ciencias, R. Porlán, J. E. Garcia & P. Cañal (Compil.), 5-21. Sevilha:
Diada Editoras, 1988.
HODSON, D. A critical look at pratical work in school Science. School Science Review, v.
70, n. 256. p. 33-40, 1990.
HODSON, D.Redefining and reorienting pratical work in school science. School Science
Review, v. 73, n. 264: 65-78, 1992.
HODSON, D., Re-thinking old ways: towards a more critical approach to pratical work in
School Science. Studies in Science Education, v. 22, n. 85, p. 142, 1993.
HODSON, D. Hacia un enfoque más crítico del trabajo de laboratorio. Enseñanza de las
Ciencias, v. 12, n. 3, p. 299-313, 1994.
MASKILL, R. & WALLIS, K. G. Scientific thinking in the classroom. School Science
Review, v. 63, n. 224, p. 551-554, 1982.
SANTOS, M. E. & PRAIA, J. F. Percurso de mudança na Didáctica das Ciências. Sua fundamentação
epistemológica. In: Ensino das Ciências e Formação de Professores. 7-34. Projecto
MUTARE / Universidade de Aveiro, 1992.
SOUSA, M. Procedimentos experimentais: sobre cozinheiros-chefes e cientistas. In:
Ciência como Cultura, F. Gil (Org.). A. 91-102. Lisboa: Imprensa Nacional - Casa da
Moeda., 1992. (Estudos Gerais, Série Universitária).
TAMIR, P. How are the laboratories used ? Journal of Research in Science Teaching, v. 14,
n. 4, p. 311-316, 1977.
1 Professor Associado, Faculdade de Ciências, Universidade do Porto, Portugal (e-mail: jfpraia@fc.up.pt)
2 Professor Catedrático, Departamento de Didáctica e Tecnologia Educativa, Universidade de Aveiro, Portugal (e-mail:
cachapuz@dte.ua.pt)
3 Professor Catedrático, Departamento de Didáctica de lãs Ciências Experimenales, Universidade de Valencia, Espanha.
(e-mail: Daniel.gil@uv.es)

Nenhum comentário:

Postar um comentário