Artigos
Ano II - n. 8 - abril / junho, 2010

 
Pesquisa Básica e Pesquisa Aplicada: Como Distingui-lás e Consolidá-las

Antonio Paim *

       A) O imperativo de distinguir pesquisa científica de pesquisa tecnológica
       
       Para que sejam encontradas fórmulas capazes de permitir a consolidação da pesquisa, imprescindível se torna distinguir as duas espécies, isto é, a pesquisa básica da pesquisa aplicada, também chamadas, respectivamente, de pesquisa científica e pesquisa tecnológica.
       
       A National Science Foundation define pesquisa básica deste modo: “compreende projetos de pesquisa que representam uma investigação original, com vistas ao avanço do conhecimento científico, e que não têm objetivos comerciais específicos.” A organização desse tipo de pesquisa em instituições a esse fim destinadas é fenômeno relativamente tardio no curso do desenvolvimento dos países industrializados.
       
       Originariamente, os pesquisadores eram indivíduos criativos que atuavam isoladamente, sendo estimulados pelas sociedades científicas. Seu objetivo era aprofundar o conhecimento dos processos naturais aplicando os métodos quantitativos consagrados pela física moderna. No século XIX, a Universidade Alemã procurou institucionalizar a investigação científica, criando a figura do pesquisador e facilitando-lhe os meios de realização do seu trabalho. Estavam lançadas as bases para a organização de grandes laboratórios devotados à pesquisa básica.
       Paralelamente, inventores de máquinas e de artefatos acabam aproximando-se da grande indústria, ao tempo em que alguns indivíduos de talento cuidavam de promover a aplicação da pesquisa científica aos processos industriais. Considera-se como pioneiro nessa esfera a Thomas Edson (1847/1931), que criou nos Estados Unidos o que se considera tenha sido o primeiro laboratório dedicado à pesquisa industrial, em 1876. Pouco depois, em 1886, Arthur Dehon Little (1853/1935) organizou sua empresa, devotada ao sonho a que dedicou toda a sua vida: a aplicação da ciência à indústria.
       
       Inspiradas em tais exemplos, as próprias empresas organizam seus laboratórios. São consideradas precursoras: Eastman Kodak, cujo laboratório se instalou em 1893; em 1895 seria a vez da B.F. Goodrich; em 1900, da General Electric e em 1902 da Du Pont. O laboratório da Bell Company, que se tornou um dos mais importantes do mundo -–e uma espécie de modelo, pela forma que se indicará –foi fundado em 1907.
       
       Na época da Primeira Guerra Mundial, existiam cerca de 100 laboratórios de pesquisa em indústrias dos Estados Unidos. Na década de sessenta, seu número já ascendia a 5.400. Explosão análoga ocorre na Inglaterra e na Alemanha.
       Sobretudo neste pós-guerra, algumas grandes indústrias criam os seus próprios laboratórios de pesquisa básica e procuram aproximá-la das linhas de pesquisa aplicadas que já mantinham. As formas dessa aproximação são as mais diversas.
       No caso da Bell Company, os pesquisadores dedicados à pesquisa básica indicam aqueles resultados, obtidos em seu trabalho, que poderiam ser reproduzidos e, portanto, patenteados. Destes, a companhia seleciona aqueles que serão estudados e desenvolvidos pelo pessoal devotado à pesquisa tecnológica. Graças à feliz combinação dos dois grupos, a Bell Company liderou, no período recente, os principais progressos ocorridos na esfera das comunicações, notadamente o emprego de satélites.
       
       Outra forma de conjugação entre pesquisa básica e pesquisa aplicada é adotada pela Monsanto Chemical Corporation. A Monsanto mantém um Laboratório Central, incumbido da pesquisa básica, conjugado a laboratórios dedicados a desenvolver produtos e processos nas seguintes divisões: Agricultura, Hidrocarbonos, Química Orgânica, Plásticos e Química Inorgânica. Considera-se empreendimento muito bem sucedido.
       
       De todos os modos e por maior que seja a conjugação, são autônomos os grupos que se ocupam da pesquisa básica e os que se acham voltados para a pesquisa tecnológica., também conhecida como aplicada ou industrial. Achando-se associados a grandes empresas, estes últimos não trabalham apenas a partir de resultados obtidos na pesquisa básica, mas também de exigências de aprimoramento das próprias linhas de produção que as empresas mantêm.
       
       Para atender à singularidade representada por essa conjugação, a National Science Foundation define o tipo descrito desse laboratório como aquele que “inclui projetos de pesquisa que representam investigação direcionada para a descoberta de novos conhecimentos e que têm objetivos comerciais específicos com respeito a determinados produtos e processos”.
       
       Considera-se que o ponto de partida para a aproximação, em grande escala, entre pesquisa básica e pesquisa aplicada tenha sido o Projeto Manhattan.
       
       B) O projeto Manhattan
       
       Organizado em 1942, tendo por objetivo a fabricação da bomba atômica, portanto, com objetivo estritamente militar, constitui entretanto marco na evolução da pesquisa científica. Tratava-se de dar continuidade aos avanços na compreensão do núcleo atômico, isto é, de desagregá-lo, superada a fase em que o átomo era entendido como uma estrutura compacta e presumivelmente unitária. A investigação naquela direção provinha da própria descoberta do núcleo, da idéia da radiação e da convicção, daí resultante, de que a sua desagregação poderia traduzir-se no encontro de nova forma de energia.
       
       Antes de ter sido vislumbrada aquela possibilidade, os cientistas estudavam radiação cósmica, como desdobramento dos estudos que visavam a novos conhecimentos acerca do comportamento dos fenômenos elétricos. Da medida da radiação cósmica, obtida em diferentes altitudes, evoluiu-se para a chamada aceleração de partículas. Tal investigação é que permitiu chegar-se a hipóteses relativas à desagregação do núcleo atômico.
       
       O método empregado consistia em bombardear com um dos componentes integrados (a que se deu o nome de “nêutron”) na direção do que era entendido como “núcleo do elemento”. Acreditava-se que os resultados poderiam revelar a sua real composição. A primeira vez em que foi obtida, artificialmente, a desagregação do átomo, deu-se em 1932, pelos cientistas John Cockcroft (1897/1967) e Ernst Walton (1903/1965), no Cavendish Laboratory (Universidade de Cambridge, Inglaterra). Ambos receberam o Prêmio Nobel de Física do ano de 1951.
       
       Assinale-se que a pesquisa do núcleo atômico tinha lugar em diversos outros países, destacando-se Laboratórios localizados em Roma, Paris e Berlim
       Dado seu caráter científico-militar, o Projeto Manhattan dispunha de um duplo comando, de um lado o General Leslie R. Groves (1896/1970), e, de outro, o renomado cientista J. Robert Oppenheimer (1904/1904), originário da Universidade da Califórnia.
       
       Em decorrência da aludida característica, sua localização subdividiu-se em três centros diferentes: Los Alamos, no estado de New México, onde se concentravam os núcleos de pesquisa; Oak Ridge, no Tenessee, escolhido pela ampla disponibilidade de energia elétrica, requerida para o enriquecimento de urânio; e, o terceiro, em Richland, estado de Washington, onde seria produzido o plutônio.
       
       Em que pese os traços distintivos apontados, a investigação a que deveria dedicar-se o Projeto Manhattan enquadrava-se perfeitamente na definição de pesquisa básica da lavra da National Science Foudantion, isto é, apresentava as duas características distintivas básicas, a saber: a) investigação original; e, b) com vistas ao avanço do conhecimento científico.
       
       A par disto, ao associar os dois lados (pesquisa científica e pesquisa tecnológica) revestia-se de pioneirismo. A estrutura do Laboratório em que deveria proceder-se à investigação em causa (Los Alamos) explicita-a claramente porquanto subdividia-se em Teoria; Física Experimental; Química e Metalurgia; Artilharia e Engenharia e, por fim, Administração.
       
       Não apenas pelo que se indicou constitui marco na investigação científica. Inaugura o que viria a ser batizado de big science.
       
       C) A associação da pesquisa científica à big science
       
       O Projeto Manhattan alterou substancialmente a escala através da qual passou a ser efetivada a investigação científica. Antes de mais nada, a alteração em apreço diz respeito às dimensões e aos custos dos equipamentos. A par disto, dado o crescimento do número de cientistas mobilizados para compor cada um dos Laboratórios surge o problema de sua coordenação, observância de prioridades e controle de execução. Introduz-se o problema da hierarquia, do trabalho em equipe, muito distanciado dos hábitos precedentes. Como a pesquisa científica agora faz parte de um sistema, torna-se necessária a produção de artefatos, máquinas ferramentas e assim por diante.
       
       Como protótipo da big science, no seu auge o Projeto Manhattan empregava 130 mil pessoas.
       
       Paralelamente proporcionou à aceleração de partículas grande desenvolvimento, vindo a denominar-se Física de Partículas. Continuou facultando sub-produtos na esfera tecnológica, podendo-se apontar o exemplo da tecnologia de supercondutores e inovações na área de robótica, mecânica fina, rede de comunicações, arquitetura de computadores, bem como na área médica, através de radioterapia com mesons-pi e reconstrutores de imagens, que não têm os efeitos colaterais dos aparelhos de Raios X.
       
       Devido a isto, os aceleradores de partículas assumiram dimensões coloossais.
       O papel deste tipo de equipamento veio a ser estabelecido na década de trinta. Recém criada, a Universidade de São Paulo contou com unidade de reduzidas dimensões, como era mais freqüente na época, graças à presença, na instituição, de Gleb Wathagin (1899/1986), renomado físico que participava da equipe incumbida de organizar a pesquisa científica. Estávamos na fase inicial de investigação do conteúdo do núcleo atômico.
       
       Como indicamos, desse trabalho pioneiro resultou grande avanço naquela direção (estrutura do núcleo atômico) e a sua desagregação.
       
       A nova etapa alcançada pela Física de Partículas encontra sua expressão no acelerador implantado na fronteira entre a Suíça e a França, e que começou a funcionar no início do terceiro trimestre de 2008, bem como na complexidade de seu funcionamento revelada ao longo do primeiro ano subseqüente à sua inauguração.
       Sua construção teve lugar num túnel de dimensões gigantescas, escavado a 100 metros de profundidade, com estas características: anel de 27 km de circunferência, contendo 9.600 imãs cilíndricos, milhares de quilômetros de fios e cabos, sendo resfriado a uma temperatura difícil de ser concebida (menos 271 graus Centígrados), que os cientistas afirmam ser mais fria do que a registrada no espaço entre as estrelas.
       
       Ao longo do anel encontram-se quatro detectores de partículas de tamanho colossal. O menor desses instrumentos tem dez metros de altura e pesa 5.600 toneladas e, o maior, 15 metros de altura e peso equivalente a 12.500 toneladas. Ocorrendo de modo instantâneo os resultados das provocadas colisões (600 milhões por segundo), trata-se de medi-las em tempo hábil. Embora existindo por frações de tempo tão diminutas, podem fornecer informações valiosas sobre aspectos até então desconhecidos, notadamente aqueles relacionados à origem do universo o que, por sua vez, ajudarão a compreender, com maior amplitude, modalidades de seu funcionamento.
       
       A denominação técnica do equipamento é a seguinte: Large Hidron Collider (LHC).
       Inaugurado no primeiro trimestre de 2008, somente em fins de 2009 considerou-se que seu funcionamento estava normalizado. Os problemas surgidos nesses meses serviram para dar uma idéia das alterações que se deve esperar, em relação ao trabalho dos pesquisadores, quando se tenta aumento tão espetacular na escala do acelerador de partículas.
       
       Ainda assim, a comunidade científica entende que o esforço está sendo dirigido na direção correta. Leva-se em com que o esperado conhecimento das partículas mais elementares da matéria permitirá sejam desvendados alguns aspectos da composição do universo que têm merecido denominações provisórias. Assim, por exemplo, fala-se de matéria escura bem como de energia escura que, supostamente, comporiam 96% do universo, sendo que, com o instrumental disponível não se tornam visíveis. A consideração dessas proporções serve para explicitar que, embora notável o avanço da ciência desde o seu surgimento, abrange apenas parcela diminuta da composição física do universo.
       
       Basicamente, para apresentar imagem compreensível, o LHC equivale a enorme microscópio, capaz de visualizar partículas tão minúsculas que sequer encontra-se forma fácil de expressar suas dimensões. Fala-se de um bilhão de bilhão de vezes menores do que um metro.
       
       O comando da operação acha-se a cargo da Organização Européia para Pesquisas Nucleares, geralmente citada pela sigla resultante do nome em francês (CERN). Louvando-se da experiência dos laboratórios baseados no que se convencionou denominar de big science --separação, numa mesma instituição, entre pesquisa científica e pesquisa tecnológica--, dentro de certo período ocorrerá a transformação das esperadas descobertas em instrumentos utilizados pela generalidade das pessoas. Os notáveis avanços alcançados pelas comunicações, desde o último pós-guerra, decorreram justamente da conjugação do trabalho das duas equipes.
       
       D) A sobrevivência dos inventores independentes
       
       O crescimento da pesquisa em grandes laboratórios – que, como vimos, alguns estudiosos denominam de big science – não eliminou o papel dos inventores independentes. J. Jewkes, D. Sawers e R. Stillerman, que estudaram os avanços científicos e tecnológicos ocorridos neste século, consideram que, tomando-se os 61 mais significativos dentre eles, cerca de metade foi produzida por indivíduos que não faziam parte de qualquer dos grandes laboratórios. Ainda assim, acredita-se que essa proporção tende a diminuir, levando-se em conta os custos crescentes exigidos pela pesquisa. Tomando-se a totalidade das patentes, nos Estados Unidos, em 1900, aproximadamente 80% eram individuais; em 1957, essa proporção havia caído para 40%.
       
       Inventores independentes têm se agregado a grandes organizações para levar a bom termo suas pesquisas. É comum invocar-se o exemplo do químico francês Jacques Brandenberg, inventor do celofone, que começou trabalhando sozinho e acabou associado à grande indústria.
       
       É também errônea a impressão de que os inventores autônomos são pessoas criativas e sem maior qualificação técnica. Os mais bem sucedidos são, ao contrário, pessoas altamente qualificadas, como Leo Backeland, que inventou a baquelite; Edwin Armstrong, que inventou o FM; Edwin Lande, que inventou a câmera Polaroid e assim por diante.
       
       E) O caminho da institucionalização da pesquisa científica
       
       É preciso reconhecer que o Brasil não foi capaz, até o presente, de organizar pesquisa científica que nos assegurasse o lugar que podemos – de fato e sem ufanismo – ocupar no cenário internacional. Um dos últimos presidentes do CNPq, professor José Galizia Tundizi, admitiu que o sistema existente não atendia às necessidades do país. Os procedimentos em uso consistem no financiamento de propostas individuais (ou de pequenos grupos) procedentes da Universidade. Ainda que o trabalho isolado não haja sido totalmente excluído (nem deva ser), a produção científica desde há algumas décadas é gerada em grandes laboratórios. Como se referiu, todos os progressos registrados nas comunicações provieram do Centro de Pesquisa da Bell Company, nos Estados Unidos.
       
       Como primeiro passo para reestruturar o sistema, o professor Tundisi sugeriu que 60% da pesquisa científica merecedora de financiamento oficial deveria ser induzida, isto é, o sistema atual passaria a dispor apenas de 40% das verbas. Além disto, indicou as áreas em que aqueles recursos deveriam ser concentrados, a saber: “agronegócios, saúde, informática e ambiente”.(O Estado de S. Paulo, 21/06/1998).
       
       Entendo que seria utópico supor que deveríamos dar preferência à criação de grandes laboratórios concorrentes dos existentes nos países desenvolvidos. Conforme foi referido, mesmo a Europa, nesse particular, teve que se associar aos Estados Unidos. Mais realista seria mapear aqueles centros de pesquisa, definir (naturalmente em comum acordo com os pesquisadores individuais nas respectivas áreas) quais pesquisas atenderiam melhor aos nossos interesses e procurar acordos que possam ser mutuamente vantajosos. O Brasil sempre terá o que oferecer. Em matéria de pesquisa genética, poucos países abrigam variedade de espécies equivalente à nossa. No que se refere à saúde, dispomos de condições mais adequadas que a África para tipificar doenças tropicais, na medida em que nosso saneamento básico, se ainda não é universal e completo, nada tem a ver com o caos existente na matéria naquele continente. Enfim, no plano da informática podemos nos transformar num grande mercado.
       
       Quanto aos temas a serem desenvolvidos, o país dispõe hoje de comunidade científica perfeitamente credenciada para estabelecê-lo. O realismo que o Poder Público poderia introduzir consistiria na preferência por aqueles que nos credenciassem a desenvolver o intercâmbio com os grandes centros de pesquisa do mundo desenvolvido. Em suma, o essencial seria evitar a insistência em projetos autárquicos, que parece ter sido a nota dominante nos últimos decênios.
       
       Para nos tornarmos desenvolvidos do ponto de vista científico-tecnológico não temos porque nos esforçarmos no sentido de percorrer todas as etapas experimentadas pelas nações desenvolvidas. Se soubermos escolher com realismo os projetos prioritários, certamente estaremos em condições de darmos contribuições valiosas ao enriquecimento do patrimônio científico, comum a toda a humanidade
       
       F) Reestruturar a pesquisa tecnológica
       
       Nos países desenvolvidos, a pesquisa industrial é, em geral, orientada pelas solicitações de mercado. Na medida em que os custos envolvidos em tais pesquisas se avolumam, firmas de países diversos associam-se para atuar conjuntamente.
       A principal vantagem desse deslocamento da pesquisa tecnológica consiste no fato de que os investimentos em tecnologia passam a ser liderados pela indústria, louvando-se de critérios realistas para definir prioridades. Adicionalmente, a confecção de protótipos é desde logo concebida em termos de linhas de produção, cuidando-se do ferramental. Nos projetos conduzidos em instituições do tipo da Universidade ou assemelhadas, como ocorre no Brasil, a tendência é que a iniciativa se esgote nos protótipos, porquanto os dispêndios exigidos por sua produção em série são sempre equivalentes ou mais vultosos que os requeridos pela pesquisa tomada isoladamente.
       
       Ao que tudo indica, dispomos de instrumentos capazes de promover o desenvolvimento da pesquisa tecnológica, mas os resultados de sua aplicação deixam a desejar. Assim, a conhecida colunista Miriam Leitão apurou (em julho de 2000) “que 85% dos pedidos de patentes em tramitação hoje no INPI são de companhias estrangeiras não estabelecidas no país.” Segundo a Associação Nacional de Pesquisa e Desenvolvimento das Empresas Industriais (ANPEI), existem cerca de 9 mil pesquisadores trabalhando no setor privado, enquanto na Coréia somam 75 mil. Apenas para situar o distanciamento em que nos encontramos: se tomássemos o PIB coreano como proporção (aproximadamente um terço do nosso) precisaríamos dispor de pelo menos 200 mil pesquisadores trabalhando no setor privado industrial. Esse número não deve ser considerado como exagero. Nos Estados Unidos, o número de especialistas devotados à pesquisa tecnológica equivale a 760 mil.
       
       As pessoas que se têm ocupado do estudo da questão consideram que o modelo mais adequado para estimular a pesquisa tecnológica corresponde ao que estabelece a Lei de Informática (n. 8.248), isto é, a empresa que se proponha obter incentivos (sobretudo redução de impostos e critérios especiais para depreciação de ativos) deve aplicar em pesquisa uma determinada proporção do faturamento. Outro instrumento adequadamente concebido seria o Programa de Apoio à Capacitação Tecnológica Industrial (PACTI), destinado a proporcionar linhas de crédito.
       
       Finalmente, o terceiro, seriam os institutos de pesquisa que se consagraram, a exemplo do IPT de São Paulo.
       
       Em que pese a disponibilidade dos meios e a presença de casos isolados, comprobatórios de sua eficácia, a pesquisa tecnológica no país não deslancha. A revista da FIESP (setembro de 2000) dedica matéria ao tema com este expressivo titulo “Muita conversa e pouca ação”. Ali se indica, entre outras coisas, que “77% do universo industrial paulista desconhece o PACTI”.
       
       A meu ver, falta a obtenção de consenso na liderança empresarial que deve capitanear o processo. Indicaria que um princípio básico, não suficientemente enfatizado, consiste em estabelecer que a pesquisa tecnológica tem que estar obrigatoriamente vinculada ao processo produtivo. Instituições governamentais ainda patrocinam programas dissociados de tal princípio. A experiência internacional comprova que o custo do ferramental para multiplicar um protótipo pode mesmo ultrapassar os gastos por este exigido. A pesquisa acoplada à produção permite que os dois processos caminhem juntos.
       
       O segundo princípio (ou regra) seria que, a partir de determinadas dimensões, a empresa somente receberia o incentivo se dispusesse de pesquisadores próprios e correspondentes esquemas para formação e aperfeiçoamento. Nesse particular, como têm advertido as empresas que desenvolvem esse tipo de programa, os níveis do incentivo precisam ser estabelecidos de forma que o empresário não dê preferência à importação de know-how (naturalmente sempre haverá situações em que este seja o caminho apropriado porquanto não se trata de imaginar desenvolvimento autárquico, aliás de antemão fadado ao fracasso como atestam os múltiplos erros cometidos no passado).
       
       As empresas que ficassem abaixo daquelas dimensões teriam que contar com ajuda do IPT e instituições afins. O conhecido instituto paulista dispõe de notável experiência na matéria, inclusive de atuação conjunta com entidades empresariais, do mesmo modo que o Instituto de Tecnologia Alimentar (ITAL) e alguns outros. Evidentemente, programas conjuntos só são factíveis naqueles casos em que a técnica disponível não esteja envolta em segredo, embora, por certo, não se possa sempre associar a tal circunstância o tamanho do empreendimento.
       
       O artigo da revista da FIESP, antes referido, teve por objetivo expresso determinar “quais os riscos provocados pelo fraco desempenho do Brasil numa área chave da competitividade”. Nesse mister, estamos literalmente brincando com fogo. A saída que enxergo consiste em que o empresariado privado assuma diretamente a liderança do processo, já que o Estado não seria a instância requerida. Poucas tarefas, dentre as que lhes incumbe, mereceriam idêntica prioridade.
       
       A par disto, instituições públicas deveriam ser afastadas de toda espécie de pesquisa tecnológica. Esta deve ser da responsabilidade exclusiva da iniciativa privada que, para tanto, mereceria incentivos fixados em lei. Ao mesmo tempo, pesquisa básica efetivada em instituições governamentais deveriam ter em vista associações com a iniciativa privada sempre e quando a conjugação com a pesquisa tecnológica (aplicada) se tornasse imprescindível.
       

Antonio Paim
Concluiu sua formação acadêmica na antiga Universidade do Brasil, atual UFRJ, iniciando carreira acadêmica na década de sessenta, na então denominada Faculdade Nacional de Filosofia, tendo pertencido igualmente a outras universidades. Aposentou-se em 1989, como professor titular e livre docente. Desde então, integra a assessoria do Instituto Tancredo Neves, que passou a denominar-se Fundação Liberdade e Cidadania. É autor de diversas obras relacionadas à filosofia geral, à filosofia brasileira e à filosofia política.

OUTROS ARTIGOS
 
Com o Atual Sistema Eleitoral não há Solução
Deputado Ronaldo Caiado

O Estado Ataca Novamente. A “Teoria do Pêndulo” e o Papel do Estado no Brasil 1990-2010
João Paulo M. Peixoto

 
# Sumários das edições da Revista On-Line Liberdade e Cidadania:  Ed. n. 01 , 02 , 03, 04, 05, 06, 07, 08, 09, 10, 11, 12, 13, 14 , 15, 16, 17, 18 
Revista On-Line Liberdade e Cidadania - Registro ISSN Nº 1983-9162
w w w . f l c . o r g . b r / r e v i s t a

Copyright © 2012 - Fundação Liberdade e Cidadania - Todos os direitos reservados
Senado Federal - Anexo I - 26° andar - Brasília - DF - CEP 70.165-900
Tel.: (61) 3311-4273 / Fax: (61) 3223-6201
[email protected]