O que é filosofia?

Trecho de um ensaio de Adonai Sant’Anna, doutor em filosofia pela Universidade de São Paulo (USP), publicado originalmente por Produções Eclipse. Apesar da utilidade, considero essa tentativa de definição de filosofia muito prolixa pro meu gosto. Se quiser uma definição que vá direto ao ponto, leia meu post intitulado Breve definição de filosofia.


Em um primeiro momento pode-se afirmar que filosofia é a atividade intelectual caracterizada pela busca sistemática e crítica da verdade. O problema desta definição reside principalmente na qualificação sobre o que, afinal, é verdade; sendo que o próprio conceito de verdade é tema de debate interminável entre filósofos há milênios. Ou seja, se aceitarmos esta primeira definição de filosofia, é seguro dizer que nem mesmo filósofos conseguem qualificar o que é filosofia, de maneira a estabelecer um consenso entre eles.

Do ponto de vista histórico, filosofia pode ser percebida como a origem dos estudos sistemáticos que visam responder a questões fundamentais levantadas por seres humanos a respeito do mundo físico, da metafísica, da vida, da moral, das artes e da própria natureza humana. Neste sentido, com o passar do tempo a filosofia foi diluída em múltiplas disciplinas, como física, matemática, biologia, química, economia, sociologia, psicologia, linguística, ciência política, entre outras. Consequentemente, existe uma tendência natural entre pessoas de julgar que filosofia é um ramo do conhecimento distinto de outros, como as ciências exatas e as ciências biológicas.

Já do ponto de vista social, este modo de percepção fica mais acentuado diante da realidade do mercado de trabalho, no qual muitos filósofos trabalham simplesmente como professores, pesquisadores ou escritores. Mesmo que um filósofo trabalhe como um consultor jurídico, um conselheiro político, um diretor de relações públicas, um publicitário, um jornalista ou um administrador de empresas, pessoas em geral tendem a percebê-lo como um consultor jurídico, um conselheiro, um diretor, um publicitário, um jornalista ou um administrador, mas não como um filósofo. Menos ainda como um profissional da filosofia aplicada. Esta percepção reside principalmente no fato de que discussões claramente identificadas como filosóficas, nos dias de hoje, têm um caráter altamente especulativo ou, pelo menos, sem consenso algum. Com efeito, até hoje os filósofos não chegaram a um acordo sobre o que é, afinal, a verdade.

Logo, a ironia da filosofia é que ela foi o ponto de partida para estudos metodológicos sobre o mundo e o ser humano, sendo que esses mesmos estudos promoveram um distanciamento da própria filosofia, no atual sentido acadêmico do termo. Quando um físico teoriza sobre a origem do universo, ou um biólogo teoriza sobre a origem da vida, essas ideias são essencialmente filosóficas, mesmo que os próprios pesquisadores não percebam desta forma. A separação entre filosofia e ciência, apesar de suas origens históricas, sociais, institucionais e pragmáticas, não é algo trivialmente perceptível no que diz respeito às finalidades últimas tanto da filosofia quanto da ciência.

A obra mais conhecida de Isaac Newton, por exemplo, é o livro Princípios Matemáticos de Filosofia Natural. A ideia de estabelecer princípios matemáticos fundamentais que regem dinâmicas de objetos materiais sob a ação de forças é algo de caráter essencialmente filosófico. O problema de entender a dinâmica de corpos físicos foi qualificado e respondido por Isaac Newton. Hoje esta obra é percebida como uma das grandes conquistas da física, sendo que na época foi compreendida como um inspirador passo dado pela filosofia natural. Tanto é verdade que o próprio conceito de força, na mecânica de Newton, chegou a ser percebido como um conceito metafísico por pensadores importantes, como Heinrich Hertz e Hermann von Helmholtz.

Em um encontro da British Association for the Advancement of Science, realizado em junho de 1833, o filósofo William Whewell argumentou o seguinte: “Assim como os praticantes de artes são chamados de artistas, os praticantes de ciências deveriam ser chamados de cientistas”. Foi então que nasceu o termo “cientista”. E rapidamente Isaac Newton passou a ser menos conhecido como simplesmente um filósofo, para então ser reconhecido como um dos mais importantes cientistas de todos os tempos.

O distanciamento entre ciência e filosofia deu um importante passo, neste momento, graças a um filósofo. Mas que ninguém jogue a culpa sobre Whewell! Isso porque um filósofo jamais deve deixar de expressar o que pensa, mesmo que seu pensamento seja de alguma forma prejudicial à própria filosofia, enquanto prática cultural. Este é tão somente um exemplo irônico de como o pensamento pode minar o próprio pensamento. Apesar do inegável impacto filosófico da obra de Newton, não é usual entre estudantes de filosofia de hoje o estudo de cálculo diferencial e integral. Cientistas são aqueles que resolvem problemas importantes, enquanto filósofos são aqueles que discutem sobre especulações que estão fora do alcance das ciências, como o sentido da vida, a utopia política, o conceito de belo, o livre arbítrio, a existência de Deus, a imortalidade da alma, a vida após a morte, a natureza metafísica do universo, etc.

Enquanto um cientista é aquele que sabe (ou pelo menos julga que sabe), um filósofo é aquele que incessantemente busca saber. A própria origem etimológica das palavras sustenta pelo menos parcialmente esta visão. “Filosofia” deriva do grego φιλοσοφία, ou seja, “amor à sabedoria”, enquanto “ciência” deriva do latim scire, que se traduz simplesmente como “saber”. O amor à sabedoria é uma postura de questionamento crítico, enquanto o saber é algo que permite efetivamente resolver problemas.

O sucesso da obra de Newton para derivar matematicamente as leis de Kepler passou a ser percebido por muitos como um saber, um conhecimento, uma crença verdadeira: as órbitas planetárias seguem as leis de Kepler por consequência das leis físicas enunciadas por Newton. O filósofo, por sua vez, é aquele que reconhece que existem outras possíveis formulações matemáticas que igualmente permitem descrever as órbitas planetárias, em acordo com os princípios percebidos por Kepler. A teoria da relatividade geral de Einstein é um exemplo bem conhecido de teoria que permite descrever órbitas planetárias semelhantes, sem apelar de forma alguma a qualquer conceito de força. Portanto, forças existem no mundo real ou não? Onde está a verdade no conceito de força?

Os estudos alquímicos de Newton costumam ser ignorados por cientistas em geral, como uma espécie de embaraçoso erro intelectual daquele que deu início à ciência moderna. Quase setenta anos após a morte de Newton, em 1796, o historiador James Pettit Andrew se referiu à alquimia como uma “fantástica pseudociência”. E foi assim que nasceu a necessidade de se promover uma distinção entre ciência e pseudociência. Mas filósofos também não conseguem entrar em um acordo sobre qual seria exatamente a diferença entre ciência e pseudociência. Por enquanto não quero estender esta discussão sobre o papel da filosofia ao longo da história, uma vez que este ramo do conhecimento atinge não apenas a física, mas também as artes, a política, a psicologia, entre outras áreas.

Por que afirmei no início deste texto que “filosofia é a atividade intelectual caracterizada pela busca sistemática e crítica da verdade”? A resposta é simples. O ponto de partida de qualquer investigação filosófica é invariavelmente uma pergunta. E perguntas são comumente formuladas na esperança de se obter respostas. Essas respostas surgem à medida que investigações são feitas, de maneira sistemática e crítica.

O que define um bom cientista?

Artigo do professor Marco Mello no blog Sobrevivendo na Ciência.

Essa pergunta, no fundo, não é tão difícil de responder: um bom cientista é aquele que produz conhecimento novo, seja investigando novas hipóteses ou destruindo hipóteses antigas que estavam incorretas. E um ótimo cientista é aquele que produz conhecimento tão original, que acaba por mudar substancialmente nossa forma de pensar sobre algum tema, ou que até mesmo inventa um tema inteiramente novo. Contudo, num mundo saturado de cientistas profissionais, tornou-se necessário responder essa pergunta de forma mais fina, criando-se um gradiente de qualidade a ser esmiuçado. Neste artigo conto um pouco sobre as formas de se avaliar cientistas e comento sobre as armadilhas envolvidas na cienciometria individual comparada.

Uma grande precisão cienciométrica nem sempre foi necessária. Até bem pouco tempo atrás, considerando que a ciência é uma cultura milenar, ninguém se preocupava muito em separar com exatidão o joio do trigo, porque o número de pesquisadores não era assim tão grande. Injustiças à parte, quem produzia má ciência era inicialmente ignorado por seus pares, e quem fazia descobertas relevantes era louvado. Isso porque, até meados do século 19, a pesquisa era uma atividade paralela para a maioria, que vivia de outros trabalhos. Poucos eram os profissionais, ou seja, aqueles que se sustentavam através da pesquisa. Dentre esses poucos profissionais, alguns contavam com fortunas de família (era o caso do Darwin, por exemplo) ou recebiam verbas de patrocinadores particulares, como os mecenas das artes. Raros eram os cientistas que contavam com verbas públicas. Contudo, no século 20, o quadro mudou radicalmente. Atualmente, no século 21, a grande maioria dos cientistas básicos se mantém com auxílios governamentais, e quase todos os cientistas aplicados contam com o apoio da indústria e das empresas. Isso fez o número de profissionais crescer exponencialmente nos países desenvolvidos (como a Alemanha) ou em desenvolvimento (como o Brasil), levando à uma produção maciça de conhecimento, mas também à uma saturação do mercado. Com isso criou-se um grande dilema: quem deve ser financiado com o dinheiro que vem dos impostos, ou seja, do meu e do seu bolso?

Essa grande pergunta tem várias facetas; mas ser financiado, na prática, significa duas coisas: (1) receber um salário ou bolsa para se dedicar integralmente à ciência e (2) receber verbas para cobrir os gastos das pesquisas. No caso das pesquisas em si, a situação é relativamente mais simples, mas ainda assim depende de quão caros são o material e a mão de obra necessários. Já em se tratando da subsistência do cientista, a situação fica mais complicada, especialmente para aqueles que fazem pesquisa básica, sem aplicação imediata para o desenvolvimento de tecnologia ou produtos, e portanto raramente financiada pela iniciativa privada. No caso de países em que a maioria dos cientistas básicos vive de salários e bolsas dados pelos governos, hoje em dia a briga por empregos é brutal em universidades e institutos de pesquisa.

Para resolver essa briga e decidir quem ganha qual cargo ou qual auxílio, várias abordagens já foram usadas. Antigamente, quando a competição não era tão forte, muitas vezes as decisões se baseavam em  conhecimento pessoal ou mesmo “herança”: geralmente quem era contratado eram os pupilos ou colaboradores próximos dos colegas já empregados. Os governos simplesmente confiavam no julgamento da comunidade científica e, infelizmente, muitas injustiças eram cometidas. Dos anos 1980 para cá, os órgãos de fomento à ciência começaram a procurar mecanismos de avaliação mais imparciais, mirando-se na ideia da revisão por pares, já usada nas revistas científicas há séculos. Quer dizer, cada candidatura a um cargo ou pedido de verba passou a ser avaliado por colegas, de preferência externos à instituição contratante, que se mantinham no anonimato. Pareceres eram emitidos pelos pares e então analisados por quem tinha o poder de decisão. Isso tornou o sistema mais imparcial, apesar de erros e injustiças continuarem a ser cometidos, mesmo que em menor escala.

Contudo, quando o número de profissionais e aspirantes atingiu um valor gigantesco no fim dos anos 1990, a revisão por pares tornou-se insuficiente em muitos casos. Foi preciso começar a buscar mecanismos baseados em indicadores, que pudessem ser avaliados por técnicos sem conhecimento científico ou até mesmo de forma automatizada. Resumidamente, num primeiro momento, definiu-se que mais era melhor: o melhor cientista era aquele que tinha mais publicações ou mais alunos orientados. Não importavam a qualidade dos artigos e nem dos alunos, apenas sua quantidade. Essa mentalidade ainda perdura até hoje, especialmente nos países em desenvolvimento. Porém, felizmente, isso já começou a mudar em alguns países e a qualidade passou a entrar na equação. O problema é que a única forma de se avaliar decentemente a qualidade de um cientista é conhecer bem sua área de pesquisa, ler seus artigos e saber o quanto eles influenciaram o conhecimento na área. Só assim é possível estimar com mais segurança a chance de que novos projetos de um pesquisador avaliado gerem resultados interessantes. Mas fazer isso para cada proponente é inviável num sistema com milhares competindo por verbas. Por isso, foram criados diferentes índices de qualidade, no caso das publicações; infelizmente os lados orientador e professor do cientista continuam negligenciados.

A Thomson Scientific (antigamente conhecida como Institute for Scientific Information), uma empresa americana, criou uma solução usada mundialmente: ela passou a monitorar a produção de uma amostra das principais revistas científicas mundiais, a fim de registrar quantos artigos elas produzem, quais desses artigos são citados por outras revistas e com que frequência. Daí nasceram a base de dados Web of Science (WoS) e o famigerado “fator de impacto” (IF, na sigla em inglês): um índice que mede a relevância de cada revista com base na frequência com que seus artigos são citados. Quanto maior o IF, melhor teoricamente é a revista. Esse índice dá uma medida relativamente boa de qualidade, porém que não é 100% precisa, já que não leva em conta fatores qualitativos, como o prestígio da revista, sua contribuição histórica, seu rigor na seleção de artigos e sua abertura para novidades que se desviem dos paradigmas vigentes (é muito mais fácil ser citado por concordar do que por discordar). Além disso, o IF só é comparável dentro de uma mesma área específica, já que o perfil de citações difere muito de uma ciência para a outra, ou mesmo entre especialidades de uma mesma ciência. Apesar dessas limitações, tornou-se possível assim avaliar a produção de um cientista tanto pelo número dos seus artigos, quanto pelo IF das revistas onde eles foram publicados.

Só que avaliar um cientista pelo IF médio das revistas onde ele publica tem um problema sério: o IF é uma propriedade da revista, não do cientista. Um artigo ter saído numa revista de alto impacto não significa necessariamente que ele mesmo teve um alto impacto. Ele pode até mesmo nunca ter sido citado. Por causa dessa limitação, começou-se a tentar medir o impacto individual de cada cientista. Assim, o próximo passo lógico nessa evolução foi contar quantas citações ao todo cada cientista já recebeu pelo total de suas publicações. Por essa lógica, quanto mais citado é um cientista, melhor ele deve ser. Porém, esse índice também não é completamente satisfatório, porque não leva em conta a distribuição das citações. Pode ser que 90% das citações de um cientista venham de um único artigo que ele publicou, sendo que seus outros artigos todos quase não tiveram impacto algum. Pode ser também que esse cientista hipotético tenha mais citações do que um outro, apesar de esse outro ter um número maior de artigos bem citados. A saída foi pensar num índice que contemplasse também essa heterogeneidade. Então chegou-se ao índice H. Ele é medido ranqueando-se todos os artigos de um cientista em ordem decrescente de acordo com seu número de citações. Estando todos ranqueados, o H é igual ao número em que o ranking do artigo é igual ao seu número de citações. Por exemplo, um cientista com H = 5 tem cinco publicações que receberam 5 ou mais citações. Agora sim, parecia que tínhamos chegado a uma medida mais precisa e fácil de se usar.

Mas nem tudo são flores… A primeira pegadinha na história do índice H é que ele só pode ser medido dentro de uma mesma base de dados, para que os valores sejam comparáveis entre cientistas. Até poucos anos, só tínhamos a base de dados WoS para fazer esse tipo de avaliação cienciométrica. E ela contém só uma amostra das revistas científicas existentes no mundo. Logo, as citações feitas em revistas não monitoradas são simplesmente ignoradas. Como a Thomson Scientific é uma empresa privada, ela define seus próprios critérios de inclusão de revistas e cobra um preço bem alto pelo acesso aos dados. Daí surgem diversos problemas políticos e práticos. Atualmente há concorrentes, tanto privados como públicos, como o Scopus e o Scielo. Mas o WoS continua sendo a principal base de dados usada por cientistas do mundo todo. Independente da acurácia do H no que diz respeito à citabilidade do cientista, a avaliação da qualidade ainda peca por não ser capaz de considerar aspectos qualitativos. Por exemplo, mesmo que 90% das citações se concentrem em um único trabalho do cientista, quem falaria alguma coisa contra ele, caso esse trabalho fosse a Origem das Espécies ou a Teoria Geral da Relatividade, por exemplo? Porém, como já dito, avaliar decentemente a qualidade fica cada vez mais difícil num sistema saturado.

Há ainda outro problema. A citabilidade, mesmo que medida acuradamente, também tem seu lado mau: trabalhos que realmente inovam, indo radicalmente contra a maré, dificilmente são aceitos para publicação nas melhores revistas e, muito menos, são citados nos primeiros anos. É bom lembrar que esses índices cienciométricos costumam ser medidos apenas para os últimos 3 ou 5 anos. Sujeitos como o Darwin, o Mendel e o Hennig mudaram a Biologia, porém nunca se sairiam bem nas avaliações cienciométricas modernas (não eram cientistas com H maiúsculo, de acordo com esse índice). No caso de muitos países em desenvolvimento, como o Brasil, a arte da cienciometria comparada tem ainda outro problema mais grave. A grande maioria dos cientistas básicos trabalha como professor universitário nesses países. E suas atribuições, obviamente, não envolvem só pesquisa, mas também formação de novos cientistas (orientação), ensino (graduação e pós), administração (cargos de chefia e coordenação de projetos) e extensão (divulgação científica, treinamento e consultoria educacional). Isso, desde o início da carreira. Desta maneira, como podemos ranquear os professores universitários por sua qualidade, tomando como critério apenas índices relacionados ao seu lado cientista, como IF médio, H ou similares?

Na minha opinião, isso é injusto, pois deveríamos considerar, ao menos, duas ou mais de suas facetas profissionais. É comum observarmos que alguns professores fazem ótimas pesquisas, mas dão péssimas aulas. Ou vice-versa. Outros são ótimos para captar recursos para o departamento, mas não produzem boa ciência, nem dão boas aulas. E há aqueles que são bons cientistas e bons professores, mas que não se comunicam bem com o público leigo, contribuindo para o estereótipo da “torre de marfim”. Cada profissional tem essas habilidades combinadas em diferentes medidas. Creio que, para sermos justos e darmos a cada um o que ele realmente merece, poderíamos seguir duas alternativas: (1) criar índices específicos para cada faceta ou (2) criar cargos específicos para cada uma. Eu prefiro a segunda, pois acho que seria ótimo acabarmos com a figura do professor faz-tudo, criando cargos distintos dentro da universidade para professores, pesquisadores, divulgadores e administradores realmente competentes no seu ramo. E, especialmente, cargos intermediários e não-vitalícios, para estágios iniciais da carreira após o doutoramento (tenure track, etc.). Isso é comum nos EUA e na Europa, por exemplo, onde os resultados são ótimos. Nesses países, há apenas um ou dois professores faz-tudo (catedráticos) por departamento, que só chegam ao cargo após terem muita experiência profissional.

Para terminar este artigo curto que acabou ficando longo, gostaria de enfatizar mais uma coisa importante: o respeito aos mais velhos. Por causa da atual atmosfera de competição acirrada e da pressão social dela resultante, tem aumentado também a tensão entre jovens e velhos cientistas. Vejo muitos colegas da minha geração ou mais novos criticando acaloradamente os colegas mais velhos e já estabelecidos. Criticam-se principalmente sua maneira de fazer ciência e sua velocidade de produção, ignorando-se o todo de sua contribuição e a bases que ela criou. Besteira. Cada geração tem seus valores e seu modus operandi. E cada uma contribui para a ciência à sua maneira. Quem hoje chama os mais velhos de cientistas antiquados, deve se lembrar de que provavelmente também será chamado assim daqui a uma ou duas gerações, pois a principal característica da ciência é a constante mudança, inclusive nos costumes.

A ciência de provar qualquer coisa

Ovo frito faz bem? Ovo frito faz mal? Entenda por que é tão fácil confirmar cientificamente teorias opostas – e por que a maioria dos resultados tem mais chance de ser falsa do que de ser verdadeira. É o que mostra a reportagem a seguir, da Superinteressante.


Em 2003, um grupo de cientistas italianos (de onde mais?) constatou que comer pizza poderia prevenir alguns tipos de câncer do sistema digestivo. Para chegar a essa conclusão, examinaram 3315 pessoas com a doença e as contrastaram com outros 5 mil indivíduos que não tinham câncer. Entre os saudáveis havia muito mais pessoas que comiam pizza do que no grupo dos doentes. De posse de dados tão conclusivos, publicaram os resultados no International Journal of Cancer.

Quatro anos depois, um novo estudo, feito por cientistas chineses, constatou que uma dieta rica em proteína animal (que inclui a boa e velha mussarela das pizzas) aumenta em até 50% o risco de câncer no sistema digestivo. Para chegar a essa conclusão, pegaram 1204 mulheres com o tumor e as compararam com 1212 outras saudáveis. As saudáveis comiam menos proteína animal (ou seja, queijo) do que as doentes. Adivinhe o que fizeram então os chineses? De posse de dados tão conclusivos, publicaram os resultados no International Journal of Cancer. Mas e aí, a pizza evita ou estimula o câncer? O que esses estudos nos dizem sobre comer pizza?

Na realidade, os estudos não nos ensinam nada sobre pizza – mas muito sobre ciência. Quem acompanha com frequência o noticiário já percebeu que nem sempre dá para botar fé nos resultados científicos que pululam na mídia. Um dia, comer ovo protege o coração; no dia seguinte, aumenta o risco de enfarte. Aspirina uma hora ajuda a mitigar o mal de Alzheimer; na outra, não faz efeito. A ciência parece ter a inexplicável característica de conseguir provar qualquer coisa. Mas como isso pode acontecer?

Apesar de tantos resultados contraditórios, é difícil calcular uma proporção de erros para pesquisas científicas. Uma das únicas tentativas feitas até hoje é um estudo da Universidade Tufts, em Boston (EUA), que afirma que mais de 50% dos resultados que nos são apresentados diariamente pelos cientistas estão errados. Para o autor do trabalho, John Ioannidis, até mesmo praticando a “boa ciência” (baseada em premissas razoáveis e confiáveis), é possível obter um resultado que seja cientificamente defensável, mas absolutamente falso. E ele tem fortes motivos para acreditar nisso.

Fazer ciência significa elaborar uma hipótese e executar um experimento para sustentá-la. É aí que está o primeiro gancho: tudo que um cientista imaginar pode ser estudado. Para cada trabalho que comprova que comer ameixa ajuda no funcionamento do intestino, pode haver dezenas de outros provando que ameixas previnem resfriados ou curam dores nas costas, por exemplo. “O problema básico é que há muito mais hipóteses falsas no mundo do que verdadeiras. Assim, se você testar todas as hipóteses que surgirem na sua cabeça, a maioria das que parecerem verdadeiras será na verdade falsa”, diz Alex Tabarrok, economista da Universidade George Mason, no Canadá.

Para testar esses milhões de hipóteses possíveis, os cientistas então se munem de amostras enormes para extrair resultados relevantes. “Amostras maiores são melhores. Mas nem sempre resolvem o problema”, afirma Tabarrok. É o caso dos estudos das pizzas. Cada um analisou milhares de pessoas – e ainda assim resultaram em conclusões opostas. Ocorre que, por melhores que sejam as amostras, às vezes elas tendem a confirmar hipóteses falsas. Segundo análises estatísticas, erros assim ocorrem em mais ou menos 5% dos casos. É algo parecido com o que acontece com as pesquisas de intenção de voto. Costumam acertar – mas nem sempre.

Não é difícil entender os perigos armados por correlações estatísticas. O método é arriscado para chegar a conclusões definitivas. Afinal, a correlação estatística pode ser explicada por alguma outra coisa que o estudo não considerou. Isso aconteceu em 2007, quando uma pesquisa da Universidade Harvard, nos EUA, relacionou o consumo de soja com infertilidade masculina. O dado deixou milhares de homens com medo de tofu, mas poucos prestaram atenção num detalhe. Os voluntários do estudo (que, aliás, eram somente 99) foram angariados numa clínica de reprodução. Ou seja, provavelmente já tinham problemas de fertilidade – independentemente do consumo de soja.

A coisa só piora quando os cientistas precisam justificar o financiamento às suas linhas de pesquisa. O que acontece, então, é que eles se concentram sempre nos mesmos tópicos quentes. É o caso do estudo das células-tronco ou de análises de risco de doenças com base na genética: são assuntos que estão na moda – e precisam lutar entre si por um espaço ao sol. É aí que entra o fantasma do hype, o gosto de revistas por publicar resultados bombásticos, mesmo que não sejam os mais precisos (ou você já viu uma pesquisa anunciando que algo não causa alguma doença?).

Ultimamente, a situação ficou tão crítica que a Nature, revista científica mais prestigiada do mundo, estabeleceu um canal para pesquisadores apontarem se há algo hype nos artigos que andam publicando. Tanta preocupação se justifica. O estudo de Ioannidis acompanhou 49 trabalhos que foram publicados nas mais importantes revistas científicas do mundo – e mostrou que um terço deles foi desmentido em poucos anos. Isso significa que tem gente publicando resultados bombásticos demais – o que é bom para os negócios, mas péssimo para a ciência.

O que também determina a publicação de uma pesquisa é o sistema de revisão por pares, em que um trabalho só recebe a chancela de uma revista científica depois que outros cientistas julgam se tratar de boa ciência. Quem conhece bem esse sistema é o físico português João Magueijo, do Imperial College, de Londres. Ele tentou propor uma teoria em que a velocidade da luz não fosse constante – uma ideia que contrasta com a Teoria da Relatividade de Einstein. Resultado: todos seus artigos foram recusados.

“Qualquer ideia muito nova tem um problema já no início”, diz Magueijo. Para ele, os grandes papas da ciência, que julgam os novos artigos, costumam rejeitar propostas diferentes do status quo porque passaram a vida se dedicando a noções consagradas. “Sim, existem problemas no peer-review“, diz Henry Gee, editor da Nature. “Mas, num todo, ainda funciona. Afinal, quem dá o parecer também é autor, e espera que seu próximo estudo seja tratado com justiça. Por isso, tenderá a ser justo”. Ainda assim, se não houvesse falhas, como explicar grandes fraudes, como a do sul-coreano Woo-suk Hwang, que em 2004 disse ter clonado humanos?

Eis que a ciência não é aquele conjunto de verdades que gostaríamos que fosse. No fim das contas, avanços são inegáveis. Mas, quando os cientistas estão ainda testando hipóteses, o processo é muito mais tortuoso do que se imagina. Só não podemos desprezar o valor da pesquisa. Até mesmo trabalhos pouco conclusivos são importantes. “Alguns resultados de baixa credibilidade podem levar a novos modos de pensar. Gostaria que não tivéssemos vergonha de dizer ‘que encontramos algo muito interessante, mas que tem pouquíssima probabilidade de ser verdadeiro’”, diz Ioannidis.

Universidade faz mal para a fé?

Artigo de Marcio Campos no blog Tubo de Ensaio.

universidade-religiao-exatas-e-biologicasNum dos capítulos finais de O mundo assombrado pelos demônios, Carl Sagan mostra como nossa sociedade desestimula a curiosidade das crianças, impedindo que no futuro elas se interessem pela carreira científica. Bom, eu ainda não tenho filhos, mas quando tiver, certamente ficaria muito orgulhoso caso eles resolvessem se tornar cientistas. Mas não sei até que ponto pais religiosos ficam receosos quando os filhos entram na universidade.

Josemaría Escrivá falava das pessoas que, ao entrar no ensino superior, largavam sua religiosidade “como quem deixa o chapéu à porta”. Mas afinal, a universidade faz mal à fé dos estudantes? Ateus militantes dizem que, quanto mais conhecimento científico, menos superstição (a palavra preferida deles para designar a religião). Será verdade?

Quatro pesquisadores da Universidade de Michigan resolveram verificar qual o impacto do ensino superior sobre a religiosidade dos estudantes. Eles publicaram seu estudo na internet e chegaram a conclusões interessantes. Vale a pena mencionar que os pesquisadores escolheram a universidade porque, para muitos jovens, é a primeira ocasião em que eles se separam dos pais (e de sua influência), tendo contato com novas ideias e grupos. Entre essas ideias estão o cientificismo, o pós-modernismo e o desenvolvimentismo, que têm impacto sobre as crenças religiosas e serão descritas detalhadamente pelos autores antes da apresentação dos resultados.

Aliás, falando em resultados, parece que o autor do PDF teria feito melhor se colocasse as tabelas e gráficos no lugar certo, em vez de deixar tudo no fim do artigo. De qualquer modo, me parece que os dados mais significativos estejam na Tabela 2. Lá, a pesquisa revela que optar pela formação em ciências Biológicas ou Exatas tem pouco efeito sobre a religiosidade dos universitários, tanto do ponto de vista da importância que cada um atribui à religião em suas vidas quanto em relação à frequência aos cultos religiosos. Uma possível exceção seria o impacto dos estudos na área de Matemática e Física diminuindo a importância da religião para os estudantes, mas não a participação nas cerimônias.

universidade-religiao-humanas-e-sociaisPor outro lado, quem realmente faz estrago na cabeça dos universitários são as ciências Humanas e Sociais. Já quem escolhe os cursos ligados à área de Educação acaba tendo sua religiosidade reforçada. O que isso indica? Que, daquelas três ideias acima, o pós-modernismo é mais daninho à religiosidade que o cientificismo; e posso ver o motivo – até porque na faculdade tentaram enfiar esse negócio na minha cabeça, mas não deu certo. O cerne da pós-modernidade é o relativismo, a noção de que as verdades absolutas não existem (curiosamente ninguém comenta que a “inexistência de verdades absolutas” é ironicamente propagandeada como… verdade absoluta). Como a maioria das religiões alega justamente o contrário, deixar-se convencer pelos teóricos pós-modernos leva ao enfraquecimento da fé.

Os pesquisadores também verificaram como a religiosidade influi na escolha da carreira a seguir, embora esta parte do estudo leve em consideração apenas universitários que fizeram uma nova opção de curso após desistir do anterior (os autores consideraram que a primeira escolha pode ter sido influenciada pela família, enquanto a segunda é mais certamente uma opção pessoal). Curiosamente, quanto maior a religiosidade dos estudantes, maior a chance de eles acabarem escolhendo um curso de Humanas ou Sociais – justamente aquelas que mais danificam o senso religioso dos universitários.

A ciência pode explicar tudo?

O vídeo abaixo é um trecho de um dos melhores debates sobre a existência de Deus já realizados. Frente a frente, estão o filósofo e teólogo cristão William Lane Craig e o químico e cientista ateu Peter Atkins. Num determinado momento, começa-se a debater filosofia da ciência. Em menos de 3 minutos, Craig dá uma aula de deixar qualquer um boquiaberto! Caso queira, você pode assistir ao debate completo no YouTube, com legendas em português e qualidade de imagem bem melhor. Clique AQUI e confira se o resto dos argumentos do ateu fizeram alguma diferença.

Related Posts Plugin for WordPress, Blogger...
Pág. 1 de 11
%d blogueiros gostam disto: