sábado, 7 de novembro de 2015

Erros de perceção

 Resultado de imagem para jn

Azul ou Branco? Cor de vestido lança a confusão na InternetE.S.

 | Hoje às 12:53
Todos os dias há um assunto novo a discutir e parodiar na Internet. Desta feita, a razão da discórdia dos internautas foi... a cor de um vestido. Será branco ou azul? Veja a imagem e decida.
Azul ou Branco? Cor de vestido lança a confusão na Internet
O nosso cérebro é, normalmente, uma "máquina" bem oleada mas, por vezes, prega-nos partidas. Foi esse o caso com uma fotografia de um vestido, que tem dividido a Internet: será o vestido branco e dourado ou azul e preto?
A discórdia começou de forma casual, com uma fotografia colocada na Internet por alguém muito confuso: a mãe de uma noiva decidiu fotografar o vestido que ia levar à cerimónia e quem o recebeu não conseguia discernir a cor. Dependendo de quem o vê, o vestido aparenta ser azul ou branco e há até quem veja, alternadamente, as duas cores sempre que olha para a foto.
A imagem, partilhada originalmente no Tumblr, depressa correu o Mundo e a dúvida permaneceu. O planeta dividiu-se, assim, em duas "equipas": o grupo das pessoas que acham que o vestido é azul e não percebem qual é a dúvida e a equipa dos que só conseguem ver branco e dourado e acreditam que a outra metade está a mentir.
A dúvida chegou, claro está, ao universo do Twitter, onde diversas celebridades não se coibiram de mostrar de que "lado" estavam. A cantora norte-americana Taylor Swift, por exemplo, diz que não entende "o debate" e que acha que "tudo não passa de uma partida". "Estou confusa e assustada. E, já agora, o vestido é claramente azul e preto!", diz, via Twitter. Kim Kardashian jura que o vestido é branco e dourado, mas admite que o marido, Kanye West, tem outra opinião.
Mas, ao contrário do que acreditava Taylor Swift, não, isto não é uma brincadeira de Net. O que acontece, explicam os neurocientistas, é que o nosso sistema ocular tenta anular a influência da luz do dia: a cor que nos aparece como predominante é determinada consoante o nível de luz que os nossos olhos decidem absorver e "esquecer". Os olhos de cada pessoa absorvem a luz de forma diferente e a maneira como a luz incide no vestido, na fotografia, leva os nossos olhos a fazer uma escolha cromática difícil. Daí que alguns vejam um vestido azul e outros um vestido branco... enquanto outros vêem algo intermédio, como branco "sujo" ou azul bebé.
E quem tinha razão, afinal? Qual é a cor original e como é possível sabê-lo com todas as certezas? Pois bem... A marca responsável pelo vestido em causa já veio ao auxílio da multidão confusa e não tem dúvidas nenhumas: o vestido é... azul! "Podemos confirmar que o vestido é azul e preto! E sabemos bem do que estamos a falar", garantiram, via Twitter.

Anozero: Bienal de Arte Contemporânea de Coimbra // Pedro Cabrita Reis

quinta-feira, 23 de julho de 2015

O problema epistemológico do desenvolvimento da ciência: o caso da física

Entrevista

Álvaro de Rújula: “Sou o único físico teórico a ter medido uma constante fundamental da natureza”


Em que andam a pensar os teóricos da física para descrever os ingredientes subatómicos do Universo em que vivemos? O físico teórico espanhol inventou uma Deusa para nos fazer perceber a confusão que reina nesta área.



Durante a sua carreira profissional, Álvaro de Rújula foi físico teórico do Laboratório Europeu de Física de Partículas (CERN) – a casa do LHC, o maior acelerador de partículas do mundo, perto de Genebra, onde foi descoberto o bosão de Higgs. Nesse sentido, sempre pertenceu a uma espécie rara: hoje, há mais de 2300 engenheiros e técnicos e uma centena de físicos experimentais no quadro do CERN – mas só seis físicos teóricos.
Aos 71 anos, Álvaro de Rújula está reformado (“faço parte da mobília”, declara), mas continua a trabalhar no CERN e no Departamento de Física Teórica da Universidade Autónoma de Madrid.
Em inícios deste mês, deu uma palestra no Pavilhão do Conhecimento, em Lisboa, no âmbito da conferência internacional Light, from the earth to the stars (A luz, da Terra às Estrelas), organizada pela agência Ciência Viva e pela Academia Europaea - Barcelona Knowledge Hub por ocasião do Ano Internacional da Luz. A seguir, quando falamos lá fora, sentados num banco da Expo-98 à sombra de uma árvore, Álvaro de Rújula brindou-nos com respostas ao mesmo tempo humorísticas e sérias, um registo que parece a sua forma predilecta de comunicar.
Já teve ideias “malucas” no seu trabalho como físico?
Nem por isso. O que faço é tentar saber como funcionam as coisas ao nível fundamental. Trabalhei muito no chamado Modelo-Padrão, que nos explica quase tudo o que hoje percebemos (mas não tudo) – e naquela altura, os meus contributos não eram coisas malucas. Até porque estavam certas. Também não eram nada do outro mundo, mas dei o meu contributo. Também trabalhei em muitas outras coisas, aspectos da cosmologia, física das partículas, fiz um pouco de astrofísica. O meu espectro de interesses é amplo.
Foi experimentalista ou só fez trabalho teórico?
Fui. A primeira coisa que fiz, o meu primeiro trabalho, foi experimental e fi-lo enquanto estudante de Verão do CERN quando tinha 19 anos. Naquela altura, as experiências duravam dois ou três meses e no meu grupo, considerado grande, éramos quatro. Mas éramos capazes de fazer experiências interessantes. Isso acabou.
O que pensam os físicos teóricos sobre a descoberta do bosão de Higgs?
O valor da massa do Higgs surpreendeu alguns teóricos, mas o mais surpreendente é que esta partícula parece ser exactamente o que estava previsto pelo Modelo-Padrão. Por um lado isso é bom, mas os físicos não gostam de acertar em cheio. Quando não acertamos em cheio, isso dá-nos pistas para ir mais longe. Por enquanto, o bosão de Higgs não nos tem dado nenhuma pista sobre como ir mais além.
Esse carácter tão “normal” do Higgs não põe em causa teorias como a supersimetria?
Não, antes pelo contrário. O facto de o Higgs existir e de ter a massa que tem satisfaz os defensores da supersimetria. Contudo, isso não significa que haja uma pista concreta, que permita garantir que vamos descobrir a supersimetria já este Verão.
Para quem quer uma teoria que unifique a física, o Modelo-Padrão não chega. Mas se não há pistas sobre o caminho a seguir, o que fazer?
Temos pistas, temos. Porque existe uma teoria, a das supercordas, segundo a qual a gravidade forma parte de um conjunto onde também se incluem as outras forças.
Mas essa teoria não convence toda a gente.
O problema com essa teoria é que funciona de forma limpa e clara somente em dez dimensões espaciais e não em três. E como a realidade não é assim, ainda nos falta um passo: perceber como é possível, se a teoria das cordas estiver certa – se for a maneira certa de introduzir a gravidade como parte de um todo – que nós vivamos num espaço que tem apenas três dimensões espaciais.
Há maneiras de dar esse passo, operando aquilo a que chamamos compactificações, que fazem com que muitas dessas dimensões [adicionais] se transformem em bolinhas praticamente invisíveis. Mas existem muitíssimas maneiras de fazer essas compactificações e não é claro que uma delas seja melhor do que as outras, mais realista, para descrever este Universo preciso em que nos encontramos.
Há maneiras de resolver o problema?
Acontece que [nos aceleradores de partículas] só atingimos um certo nível de energia e que isso limita o tamanho das hipotéticas bolinhas que conseguimos detectar. Se elas existirem, mas se forem mais pequenas do que esse tamanho limite, não as conseguiremos encontrar. É como ter um microscópio que não é suficientemente potente.
O facto de conhecer a escala dessas dimensões adicionais permitiria saber qual é a compactificação mais realista?
Forneceria uma pista muito importante.
O LHC pode ajudar nisso?
Sim, pode. Agora que a energia do LHC duplicou, temos duas vezes mais hipóteses.
Mas o dobro de muito pouco é muito pouco…
Sim, mas é o dobro à mesma, é como explorar o Universo até duas vezes mais longe – ou a Terra até duas vezes mais além dos Açores. Começamos a chegar a lugares interessantes.
Mas mesmo que, depois de anos de funcionamento, o LHC não encontrasse nada de realmente revolucionário, isso representaria um grande avanço. O facto de descobrir que para além dos Açores, não há mais nada entre aqui e a América já é uma descoberta, não é? [ri-se]
Mais vale descobrir a América, mas descobrir que não há mais nada no meio do oceano do que umas quantas ilhas também permite ampliar o conhecimento.
Há contudo um problema – tanto para Colombo como para nós – no facto de voltar de mãos vazias. Como explicar então aos políticos que o facto de não termos descoberto nada é um grande avanço – e que, por isso, precisamos de ir mais longe? É mais fácil convencê-los quando temos uma descoberta. Mas a investigação científica funciona assim, é agradável encontrar coisas, mas consiste sobretudo em procurar.
Tem alguma esperança de que se venham a descobrir coisas revolucionárias com o LHC?
Tenho. Mas o que não posso fazer é apostar nisso, porque não tenho a certeza de que vou ganhar [ri-se]. Quando apostei na existência do Higgs, sabia que ia ganhar – e de facto, ganhei várias apostas com isso e com muitas outras coisas ainda. Mas acerca da próxima descoberta do LHC, não faria qualquer aposta porque não estaria a jogar pelo seguro [ri-se].
A teoria das cordas tem defensores e detractores. É a favor ou contra?
Eu acho que a teoria das cordas é muito bela – e que todas as teorias importantes da natureza foram sempre, por alguma razão, muito simples e muito belas. Por isso, a teoria das cordas é o melhor que temos, embora ainda seja francamente pouco realista. Não temos outra alternativa tão elegante.
A supersimetria é menos elegante?
A supersimetria é uma teoria muito elegante, mas prevê que as partículas supersimétricas, que não foram descobertas até agora, são “irmãs” das partículas que foram descobertas, e que possuem a mesma massa que elas. Ora, isso é falso, porque nós já sabemos que não existe um electrão supersimétrico com a mesma massa do electrão.
Como é que sabem isso?
Porque se existisse e tivesse a massa do electrão, essa partícula poderia ser gerada em casa por qualquer pessoa, num tubo catódico. Como o electrão supersimétrico nunca foi descoberto, isso diz-nos que a supersimetria é na realidade uma simetria “quebrada”. Por alguma razão, não é exacta.
Ora, todas as maneiras [teóricas] que conhecemos para quebrar a supersimetria [de forma a dar conta do facto de que nem todas as partículas têm uma “irmã” supersimétrica] são – na minha opinião – pouco convincentes. Nenhuma é assim tão bela para dizermos que tem de ser verdade.
Com as teorias fundamentais da física – por exemplo, a da relatividade – em geral basta olhar para as equações para dizer que remédio, tem de ser verdade porque é bela demais para não o ser. Mas por enquanto, isto não acontece com as teorias que permitem quebrar a supersimetria. Não nos conseguimos logo apaixonar por nenhuma delas.
E o Modelo-Padrão, não parece ser belo de mais para ser verdade?
Não, pelo contrário. É belo de mais para não ser verdade.
Já agora, eu tenho uma explicação para o facto de as teorias da natureza serem assim tão elegantes e simples. Segundo um colega meu, isso deve-se a que Deusa (porque se existir, é obviamente fêmea) é uma pessoa preguiçosa que claramente fez o Universo em cima do joelho. Se assim não fosse, não haveria crianças a morrer de fome e coisas assim. Saiu-se muito mal. Mas ela tem tido contudo o bom gosto de, aos domingos, quando oficialmente deveria estar a descansar, ler todos os artigos de física. E quando encontra um artigo irresistivelmente belo, como é todo-poderosa, decide que [o que o artigo diz] vai passar a ser verdade, não apenas no futuro, mas também no passado (ela também tem poderes sobre o passado) e faz com que a natureza concorde com essa teoria. Por exemplo, a teoria da relatividade geral de Einstein é tão elegante que quando ela a leu, em 1915, decidiu que tinha de ser verdade.
E com a supersimetria aconteceu-lhe a mesma coisa: as primeiras teorias da supersimetria, que datam dos anos 1970, eram tão elegantes que ela decidiu que tinham de ser verdade. Mas a seguir, muitos cientistas comportaram-se com a supersimetria como se se tratasse de uma religião – de algo em que tinham de acreditar porque sim. Por uma questão de fé e não de observação.
Isso aconteceu com a supersimetria?
Sim. E então ela achou – como a religião é o que mais a incomoda, por razoes óbvias [ri-se] – que aquilo já não era verdade, porque era demasiado religioso. E por isso, decidiu que por enquanto, a supersimetria não seria verdade. Talvez, quando alguém encontrar uma forma de quebrar a supersimetria que seja irresistivelmente bela, e ela ler o artigo num domingo, ela torne a mudar de opinião e a supersimetria torne a ser verdade. Mas por enquanto, estamos num período em que ela decidiu que a supersimetria não é verdade.
E foi um colega seu que lhe deu essa explicação…
Bom, isso é o que eu costumo dizer. [ri-se]
Qual é a diferença entre supersimetria e teoria das cordas, enquanto interpretação da natureza?
A teoria das supercordas [também] é supersimétrica. Mas tem muito mais “miolo”, mais estrutura do que a supersimetria. A supersimetria é uma ideia geral, é um princípio e nada mais sobre como as coisas deveriam ser. A teoria das supercordas é muitíssimo mais concreta – embora não o suficiente, por enquanto, para conseguirmos demonstrar que é verdade. Possui muito mais estrutura do que a teoria da supersimetria, que é apenas um ingrediente da teoria das supercordas.
Mas há quem diga que a teoria das cordas é que se transformou numa religião.
Enquanto as coisas não estão demonstradas, têm um aspecto religioso. Isso significa que é preciso acreditar nelas apesar de não estarem demonstradas.
E você acredita?
Eu não; eu apenas acredito naquilo que está demonstrado. Reservo a minha opinião, para não me enganar [ri-se], até as coisas ficarem esclarecidas.
Portanto, apenas acredita no Modelo-Padrão e pouco mais.
No Modelo-Padrão e pouco mais. Também acredito na relatividade de Einstein.
Duas teorias que ainda não foi possível unificar.
Ainda não, mas elas estão ali.
Qual é que acha que foi o seu maior contributo para a física teórica ao longo da sua carreira?
Por exemplo, na teoria das interacções fortes – a chamada cromodinâmica quântica –, há uma coisa parecida com a carga do electrão, a que se designa de “carga de cor” dos quarks, os constituintes dos protões e dos neutrões. Ora, um ingrediente importante dessa teoria, a “liberdade assimptótica”, é que a carga de cor diminui quando a resolução [a energia] utilizada para observar as partículas aumenta.
O facto que algo tão fundamental como uma carga mude conforme a resolução com a que fazemos as observações dá origem a uma nova constante da natureza, que é a escala [de energia] na qual as coisas mudam: a constante cromodinâmica [de acoplamento].
A primeira pessoa que mediu a constante cromodinâmica – embora não sendo experimentalista –, o primeiro a extrair essa constante fundamental da natureza a partir dos dados fui eu. Nesse sentido, sou o único físico teórico a ter medido [experimentalmente] uma constante fundamental da natureza [ri-se]. Não é algo que os meus colegas valorizem muito, porque a posteriori, toda a gente diz “bah, isso é óbvio”. Mas no fundo, só se torna óbvio quando alguém o faz…

terça-feira, 26 de maio de 2015

O processo de desenvolvimento da ciência

Há artigos científicos que são belas adormecidas e um dia acordam

Público

Ninguém lhes deu importância quando foram publicados, mas muitos anos depois ficaram famosos de repente. Feito o primeiro grande estudo sobre as “belas adormecidas” da publicação científica.


Albert Einstein publicou em 1935 um artigo que ficou esquecido durante 59 anos AFP



São como belas adormecidas, mas não se está a falar de nenhuma princesa que entra num sono profundo, devido ao feitiço de uma bruxa, e é acordada cem anos depois pelo beijo de um príncipe. Estas belas adormecidas são artigos científicos, trabalhos que foram praticamente ignorados depois da sua publicação e só começam a ser citados intensamente passadas muitas décadas, como se acordassem de um longo torpor digno de um conto de fadas.
Este conceito das belas adormecidas da publicação científica foi introduzido pela primeira vez em 2004, num trabalho onde se defendia que essas belas adormecidas eram casos raros. Mas Alessandro Flammini, investigador da Universidade do Indiana, Estados Unidos, e colegas fizeram uma análise intensa de milhões de artigos e descobriram que estes artigos “não são um fenómeno excepcional”, lê-se no trabalho publicado na segunda-feira na revista Proceedings of the National Academy of Sciences.
“Este estudo dá provas empíricas de que um artigo pode estar verdadeiramente ‘à frente do seu tempo’”, considera Alessandro Flammini, citado num comunicado da universidade. “Um tópico ‘prematuro’ pode não conseguir atrair atenção mesmo quando é introduzido por cientistas que já têm uma boa reputação.”
Um dos casos paradigmáticos é o artigo publicado na Physical Review, em 1935, pelos físicos Boris Podolsky, Nathan Rosen e o famoso Albert Einstein. O estudo, sobre o entrelaçamento quântico, só começou a ser muito citado passados 59 anos, em 1994.
Para o novo trabalho, a equipa analisou mais de 22 milhões de artigos da base de dados “Web of Science”, que reúne estudos tanto das ciências exactas e naturais como das ciências sociais, e examinaram ainda cerca de 384.000 artigos da base de dados da Sociedade Americana de Física, dedicada só a esta área do saber. Os artigos foram sendo publicados ao longo de mais de um século.
A análise permitiu contar o número de citações que um dado artigo teve ao longo dos anos, após a sua publicação. Essas citações, em artigos de outras equipas de cientistas, revelam a importância e o impacto que um artigo teve na comunidade científica, sendo usado para continuar a construir o edifício da ciência. A partir das citações dos 22 milhões de artigos – uma análise sem precedentes –, os cientistas mediram o que designaram por “coeficiente da bela adormecida” para cada trabalho. Este cálculo teve em conta como é que um artigo foi sendo citado ao longo dos anos, compara esse historial com um determinado valor de referência de citações, e considera ainda o ano em que foi mais citado.
De acordo com esta fórmula, o artigo que ficou em primeiro lugar deste coeficiente é da área da química: publicado em 1906 e dedicado à adsorção em soluções, só começou a ser verdadeiramente citado em 2002, atingindo cerca de 300 citações. Ou seja, esteve adormecido durante quase 100 anos e, de repente, teve uma alta taxa de citação.
Apesar de a comunidade científica poder estar mais atenta aos artigos bem-sucedidos, que são muito citados nos primeiros anos após a publicação, a realidade, segundo esta equipa, é mais complexa. “Descobrimos que os artigos cujo historial de citações é caracterizado por um longo período de dormência seguido por um crescimento muito rápido não são fenómenos excepcionais [isolados], mas apenas casos extremos de uma distribuição heterogénea mas contínua”, concluem os autores.
Quatro artigos do top 15 das “belas adormecidas” foram publicados há mais de cem anos. “A aplicação de alguns estudos é simplesmente imprevisível na altura”, explica Alessandro Flammini. “O segundo artigo mais cotado no nosso estudo, publicado em 1958, é sobre a preparação de óxido de grafite, que muito mais tarde se tornou num composto usado para produzir grafeno [descoberto em 2004], um material centenas de vezes mais resistente do que o aço, muito interessante para a indústria.”
Além da questão da imprevisibilidade, há outros dados importantes no estudo. Muitos destes artigos são ignorados durante mais de 50 anos. As disciplinas com mais “belas adormecidas” são a física, a química, os artigos que caem na chamada “categoria multidisciplinar” e a matemática. Mas os cientistas encontraram este fenómeno em áreas tão diversas como a medicina, a cirurgia, a estatística ou as ciências sociais. Um dos fenómenos mais interessantes, revela ainda este trabalho, é que muitos artigos acabam por ser descobertos (e citados) por áreas diferentes daquela a que o artigo original pertence, fazendo com que uma descoberta antiga dê frutos noutra área do saber.
O que falta agora, segundo Alessandro Flammini, é compreender os “mecanismos que provocam o acordar destas belas adormecidas”.

quinta-feira, 21 de maio de 2015

Kuhn e a noção de paradigma


Kuhn põe em causa a objectividade científica e a continuidade histórica do desenvolvimento científico.

Kuhn concebe o cientista, enquanto sujeito de conhecimento, integrado numa comunidade científica. Esta comunidade científica partilha um paradigma, paradigma este que condiciona a forma de pensar e de trababalhar do cientista como.
Popper focalizando a sua atenção para a delimitação entre o que é do que não é ciência e no método científico, atribui grande importância ao génio e à individualidade do cientista na colocação de problemas e na criação de conjecturas explicativas dos fenómenos e solucionadoras dos problemas. O papel da comunidade científica surge a posteriori como corroboração das conjecturas. Pelo contrário em Kuhn atribui à comunidade científica uma importância a montante, pois é ela que partilha um paradigma e que desenvolve uma determinada cultura científica que enforma e condiciona o pensamento individual. Assim, a noção de paradigma é central na investigação científica e no seu desenvolvimento histórico (descontínuo).
O que é um paradigma?
É o conjunto de descobertas científicas, teorias, leis, dispositivos experimentais, metodologias, reconhecidas pela comunidade científica e que se instituem como tradições de investigação e guias da investigação científica fornecendo os problemas-tipo e as soluções a uma comunidade científica.
O paradigma existe como um conjunto de teorias e práticas que convencem uma comunidade científica e estabelece-se como uma forma de pensar, de abordar os assuntos, de colocar os problemas e de os resolver. O paradigma condiciona os procedimentos de investigação no período de ciência normal, orientando o cientista na forma de “olhar” o mundo e de colocar os problemas, limitando-o por isso.
Quando um paradigma científico se institui criam-se as condições para que se estabeleça o período de ciência normal. O período de ciência normal é condicionado pelo paradigma vigente.
O que é o período de Ciência Normal?
É o período em que o paradigma é unanimemente aceite. E é neste período que o paradigma se desenvolve e consolida, se completa. É no período de ciência normal que se desenvolve o paradigma, tornando-o mais pormenorizado e completo, fazendo alargar o âmbito dos factos explicáveis pelo paradigma. Contudo o período de ciência normal não tem como objectivo o de descobri novos factos, ou inventar novas teorias. Pelo contrário a prática científica é sobretudo uma “actividade de resolução de enigmas”.
Por enigma entende Kuhn um problema que tem solução no interior do paradigma e de acordo com regras desses mesmo paradigma.
Neste período o trabalho do cientista dirige-se para a resolução de problemas e eliminação de incongruências segundo os esquemas conceptuais e metodológicos aceites como paradigma.
O paradigma dirige a investigação científica, mas antes disso dirige a própria colocação de problemas e a estrutura da sua resolução. “Em condições normais, o cientista investigador não é um inovador mas um solucionador de puzzles, e os puzzles em que ele se concentra são precisamente aqueles que acredita poderem ser formulados e resolvidos pela tradição científica”.
Todos os problemas possíveis são aqueles que o próprio paradigma promove e enquadra – segundo as suas regras – e a sua solução encontra-se no interior do paradigma.
Os problemas científicos são puzzles (enigmas) que o cientista vai procurar solucionar (quebra-cabeças).
Os problemas são na sua grande parte resolvidos no interior do paradigma, o que dá força ao próprio paradigma, e por isso o s cientistas resistem à mudança.
“A Ciência Normal tem como função inventar novas teorias nem descobrir novos factos: a sua tarefa central é a resolução de enigmas.”
Mas, novos e inesperados fenómenos surgem e novas teorias são propostas.
Estes novos e inesperados fenómenos surgem (descobertas) e não se coadunam com as teorias vigentes: são as anomalias.
Face às anomalias das duas uma: ou há reajustamento nas teorias do paradigma vigente e este continua a dominar ou não são explicados e entra-se num período de crise.
A Crise dá-se pela incapacidade da ciência responder/solucionar, no interior do paradigma, os novos problemas. Isto conduz ao enfraquecimento do paradigma e consequente “relaxamento das regras”.
A Crise que se instala no interior da comunidade científica promove (induz) o Período de Ciência Extraordinária. O Período de Ciência Extraordinária (ou Revolucionária) consiste na busca de novas soluções para novos problemas. A busca de novas soluções, assim, como a possibilidade de novos problemas implicam a mudança de perspectiva – “de olhar”, novas formas de abordar os fenómenos, novas metodologias novas visões do real, que promovem o nascimento de um novo Paradigma – um novo modo de olhar, pensar e interpretar o mundo.
O progresso científico
A crise é um factor de progresso científico, pois é a crise que produz o relaxamento do cumprimento das regras do paradigma e o enfraquecimento do paradigma. A crise é essencial para a evolução descontínua do conhecimento científico e para que novas interpretações dos fenómenos surjam – mais amplas e simples.
A crise está para a teoria epistemológica de Kuhn como o erro está para a teoria de Popper.
 

O falsificacionismo


3.       A superação dos problemas do indutivismo e do verificacionismo: o falsificacionismo

Os métodos científicos tradicionais baseavam-se, segundo Popper, na ideia de que seria possível: a) atingir a verdade; b) provar a verdade de uma hipótese.

Por esta razão estes métodos eram percorridos pela ideia de verificação (pela observação ou pela experimentação). A verificação é um elemento de confirmação da verdade (pressuposta como alcançável e configurável).

Pelo contrário, Popper afirma que uma teoria nunca é verdadeira, (e mesmo que o seja não há forma de o saber) mas sempre provisória. É provisória enquanto outra melhor a não substituir.

As teorias não são verdadeiras, mas mais ou menos próximas da verdade e tendem a ser progressivamente mais próximas da verdade (verosímeis). As conjecturas são progressivamente mais próximas da verdade na medida em que resistem aos testes de falsificação a que as anteriores não resistiram.

Então, a falsificação deve ser a principal tarefa do cientista e da comunidade científica, pois só os testes de refutação permitem detectar erros e evoluir para conjecturas com maior verosimilitude (ou verosimilhança).

O facto das conjecturas se aproximarem progressivamente da verdade e não a alcançarem e o facto da evolução do conhecimento se realizar pela detecção e ultrapassagem do erro, permite a Popper avançar com a teoria da falsificabilidade, que é uma teoria explicativa:

  1. da evolução do conhecimento científico
  2. do próprio processo interno e metodológico da ciência. 
    ...e que estende ao conhecimento adaptativo em geral (amiba e Einstein )
    Outro problema do verificacionismo é o de que o cientista, ao procurar comprovar a hipótese, cria instrumentos, técnicas e experiências que derivam da hipótese e são orientadas por esta para a sua própria confirmação. É como se houvesse um círculo vicioso, a hipótese dirige o “olhar” para o que se quer ver, a sua própria confirmação.

4.        método das conjeturas e refutações


Face a estes problemas que se levantaram podemos mais facilmente compreender a teoria popperiana do trabalho científico, resumida no seguinte esquema:

Problema-------- Hipótese ------Eliminação de erros------- Problema

O cientista parte sempre de problemas – que por sua vez resultam de discrepâncias prévias, por exemplo discrepâncias entre observações e teorias – e sobre os quais formula teorias explicativas, as conjecturas. Até aqui não traz grande novidade. A novidade está sobretudo no papel da testagem.

A testagem ou momento de validação das hipóteses não visa a confirmação da conjectura, mas a sua refutação. Ou seja é como se o cientista em vez de querer bem à sua hipótese lhe quisesse mal. Esta linguagem não é rigorosa, mas tem o intuito de colocar a tónica na intenção, no propósito do cientista. E o seu propósito é destruir a sua própria teoria.

Críticas formuladas ao método indutivo


Críticas formuladas ao método indutivo


A indução tem alguns problemas, mas enquanto método científico tem mais pelo rigor intelectual e objectividade que o trabalho científico requer.


1. O primeiro grande problema que se coloca ao método indutivo diz respeito à observação: o facto de partir da observação.

Popper é um grande crítico desta ideia, afirma que a observação é sempre efectuada a partir de teorias ou de um conjunto de conhecimentos prévios, que guiam e orientam a observação. São essas teorias prévias que permitem ao cientista fazer a focagem em determinado assunto e de determinada maneira. Pois se não houvesse teorias prévias como se saberia o que observar? Não só o cientista não saberia o que observar como não saberia como observar. Ou seja, cairia numa observação ingénua, de senso comum, que olharia descontraída e naturalmente para as coisas, como o fazemos no dia a dia. Ora a ciência não é uma actividade ‘natural’ do homem, é uma actividade artificial e como tal implica um acto de vontade, uma vontade e uma actividade crítica que procura não se deixar iludir pelo olhar natural e muito menos por meras associações mentais espontâneas que fazemos ao olhar para as coisas.

Assim percebemos que o olhar do cientista é um olhar dirigido, um olhar focado, um olhar intencional, a partir do Popper chama “horizonte de expectativas”. É neste sentido que se transcreve a seguinte afirmação de Popper: “uma observação (científica) é uma percepção planificada e preparada. Não temos uma observação (ainda que possamos ter uma experiência sensível), mas ‘fazemos’ uma observação. As observações vão sempre precedidas por um interesse particular, uma pergunta ou um problema – numa palavra por algo teórico. (...) Por isso as observações são sempre selectivas e pressupõem algo como um princípio de selecção.”[1]


2. O segundo problema colocado ao método indutivo recai sobre a própria indução. É o facto de não haver legitimidade lógica para realizar a generalização.

            2.1. Não há necessidade lógica na conclusão do raciocínio indutivo. Ou seja da verdade das premissas não se garante a verdade da conclusão. Em termos práticos este problema lógico traduz-se no problema seguinte: que legitimidade existe em concluir sobre o desconhecido a partir do conhecido? Do ponto de vista lógico não há legitimidade.

                2.2. O que legitima passar de alguns casos conhecidos para todos os casos, conhecidos e desconhecidos? É o costume e a crença na regularidade da natureza como dizia Hume?

Popper formula esta crítica, mas afasta-se da crítica que Hume fez ao carácter psicologista da indução. Recordemos. Hume dizia que a indução é baseada no costume e no hábito. É pelo hábito de ver determinado fenómeno repetido que todos nós somos levados a induzir para o que ainda não vimos. Aliado ao hábito existe a crença que existe uma regularidade na natureza. Isto fez Hume cair no cepticismo uma vez que a partir do seu empirismo chegou à conclusão de que a mente humana não trabalhava assente na racionalidade, mas por mera associação empírica, hábito e crença.

Popper não concorda nem com o empirismo, nem com o cepticismo e como tal não concorda que a mente humana trabalhe por mera associação e hábito. Assim, afirma que “actuamos baseando-nos não em repetição ou hábito, mas nas nossas teorias melhor contrastadas que (...) são as que se vêem apoiadas por boas razões racionais; naturalmente, possuímos boas razões para acreditar, não que são verdadeiras, mas que são as mais válidas (...)”[2]. Conhecendo a teoria do conhecimento de Popper, facilmente concluímos que onde Hume via costume, vê Popper a submissão da hipótese (mesmo que inconsciente) ao real.

2.3. A indução tem como fundamento ou justificação a própria indução. Então faz um raciocínio circular. Ou seja a indução justifica-se porque no passado o princípio indutivo resultou, teve êxito.

A indução resulta em x; a indução resulta em y; (…); a indução resulta em z,
Logo, a indução resulta sempre.


3. A verificação – processo de testagem e validação de hipóteses e de demarcação do campo científico do campo não científico

O verificacionismo é

1) um critério de cientificidade - demarca o campo científico co campo não científico;

2) um critério de validação das hipóteses científicas.

O Problema do verificacionismo relaciona-se com os pressupostos positivistas que o animam: só é conhecimento científico o que for empiricamente verificado.

Assim, confirmando uma hipótese, por novas observações, supõe-se a sua verdade.

Ora é nesta ideia de que é possível confirmar (verificar) a verdade de uma hipótese ou teoria que o verificacionismo apresenta problemas...

Porquê?

O problema está na própria verificação ou confirmação. A verificação da hipótese ao nível da testagem visa validar a hipótese, pelo que o cientista prepara a testagem com a finalidade de confirmar a sua hipótese.

Mas sobre a verificação podemos levantar duas objecções:

    1. A verificação pressupõe que se possa atingir a verdade da hipótese e como tal, após esta ser confirmada, aceita-se como verdade, de acordo com o espírito positivista que enquadra a observação/experimentação. Como consequência não há a preocupação de procurar eventuais erros e falhas que ela encerre ou procurar uma nova hipótese mais abrangente e simples – o que contraria o carácter revisível da ciência
    2. o processo de testagem pode ser afectado pela própria teoria. A teoria do cientista ao orientar o processo de testagem – as técnicas e os instrumentos utilizados –, permite ver aquilo que o cientista ‘quer’ ver. Ou seja dirige olhar.
      Este terceiro problema como já referido não diz respeito só ao método indutivo, mas também ao método hipotético-dedutivo. O método hipotético-dedutivo é o que Popper defende, mas pode ser entendido de duas formas tendo em conta o papel que a testagem das teorias nele tem. Se o papel da testagem for o de verificar (confirmar) a teoria, Popper não concorda. Assim, como a respeito do método indutivo não concorda que novas observações permitam confirmar e induzir, também no método hipotético-dedutivo não concorda que se deduza algo por confirmação.

 

3.3.  O problema lógico da VERIFICAÇÃO

Ao generalizar é impossível verificar todos os casos possíveis para validar a ideia geral ou teoria, quer sejam casos do passado quer do futuro.


A verificacionismo apresenta-se sob a forma de uma inferência inválida: falácia da afirmação do consequente:

“se H, então C
C
Então H”;


Ou seja, da afirmação do antecendente podemos concluir a afirmação do consequente (Modus Ponens):

“se H, então C
H
Então C”;


mas a partir da afirmação do consequente não podemos concluir a afirmação do antecedente.


Ou seja, pelo facto de se afirmar “todos os cisnes são pretos” como Hipótese, não se conclui a sua verdade pelo facto de se verificar uma vez e outra vez cisnes pretos.


O que é possível é o seguinte: ao descobrir um cisne não preto (~C) podemos negar a Hipótese, que é o antecedente (~H).


Porquê?

 Porque a afirmação do consequente não é condição do antecedente, mas antes o inverso: o antecedente é que é condição do consequente. As regras do silogismo hipotético dizem-nos isso e afirmam que só podemos concluir sobre o antecedente a partir da negação do consequente:

Se H, então C

~C

então ~H.



[1] Conhecimento Objectivo, pp.308,309
[2] Conhecimento Objectivo, pp.95, 96

quarta-feira, 4 de fevereiro de 2015

Condição Necessária e Condição Suficiente

A condição suficiente estabelece-se na relação entre um antecedente e um consequente.
O antecedente é condição suficiente do consequente.
O consequente é condição necessária do antecedente.
Por exemplo, se estou em Aveiro, então estou em Portugal.
Estar em Aveiro é condição suficiente para estar em Portugal.
Estar em Portugal é condição necessária para estar em Aveiro. Contudo, neste caso, não é suficiente.