O CONTRADITÓRIO PLANO DA PREFEITURA PARA ZERAR A EMISSÃO DE CARBONO EM SALVADOR ATÉ 2049

Fernando Alcoforado*

Recentemente a Prefeitura de Salvador anunciou que pretende elaborar um plano para zerar a emissão de carbono até 2049. Apesar de aplaudir esta iniciativa da Prefeitura de Salvador, é preciso reconhecer que se trata de uma contradição pretender zerar a emissão de carbono até 2049 e ao mesmo tempo estar executando o projeto BRT que, além de devastar extensa área com a derrubada de centenas de árvores que atuariam como sumidouro de carbono, utilizar ônibus que queimam combustíveis fósseis e implantar inúmeros viadutos que incentivam o uso de automóveis que queimam combustíveis fósseis e aquecem o ar do ambiente em que circulam.

Para zerar a emissão de carbono, a Prefeitura deveria ter contemplado no PDDU- Plano Diretor de Desenvolvimento Urbano a adoção de estratégias que possibilitassem transformar Salvador em cidade sustentável.  Não basta fazer um plano para zerar a emissão de carbono. É preciso tornar Salvador uma cidade sustentável.  Em 23/10/2017, publicamos no website Academia.edu o artigo Como tornar as cidades sustentáveis. Neste artigo afirmamos que “Uma cidade sustentável deve ter políticas claras e abrangentes para saneamento, coleta e tratamento de lixo; gestão da água, com coleta, tratamento, economia e reuso; sistemas de transporte que privilegiem o transporte de massas com qualidade e segurança; ações que preservem e ampliem áreas verdes e uso de energias limpas e renováveis; e, sobretudo, administração pública transparente e compartilhada com a sociedade civil organizada”. A Prefeitura de Salvador deixa a desejar na adoção dessas medidas que transformariam Salvador em cidade sustentável.

Nossa opinião sobre o PDDU proposto pela Prefeitura de Salvador está contida no Relatório sobre o Projeto de Lei do PDDU e Salvador sob a responsabilidade de Débora Nunes e Ordep Serra com base em anotações da 1ª Oficina de Reflexões Propositivas sobre a lei do PDDU, promovida pelo Ministério Público, no dia 20 janeiro de 2016, no Auditório do MP em Nazaré que informa na parte referente ao desenvolvimento econômico de Salvador o seguinte:

“O perito Fernando Alcoforado, economista de grande experiência na abordagem da problemática soteropolitana, indicou falhas metodológicas básicas no documento em tela, incidentes no campo da articulação entre economia e planejamento urbano, visto como o projeto em apreço não trabalha com cenários vindouros, limitando-se a tratar Salvador como uma caixa fechada, sem articulação metropolitana, regional, nacional e internacional. As deficiências do diagnóstico apresentado chegam a ser escandalosas. Como apontou ainda o Dr. Alcoforado, nos estudos apresentados não há consideração de variáveis exógenas, apenas endógenas: demografia, taxa de desemprego e produtividade do trabalho. Não foram levadas em consideração mudanças tecnológicas, nem ambientais. Sequer a inexorável elevação do nível dos mares foi advertida, numa cidade litorânea” (grifo nosso).

Em 03/01/2018, publicamos no website Academia.edu o artigo As grandes fragilidades do PDDU- Plano de Desenvolvimento Urbano de Salvador no qual destacamos que “O PDDU de Salvador apresenta grandes fragilidades pelo fato de não oferecer respostas consistentes no que concerne à: 1) promoção do desenvolvimento econômico da cidade; 2) racionalização do caótico sistema de mobilidade urbana; e, 3) sustentabilidade urbana incluindo sua adaptação à mudança climática global (grifos nossos).

Em 19/03/2018, publicamos no website Academia.edu o artigo As fragilidades na sustentabilidade urbana de Salvador no qual afirmamos que “Na época atual em que os problemas do aquecimento global podem levar à catástrofe planetária, toda cidade tem que ter um plano de adaptação às mudanças climáticas, principalmente aquelas afetas a eventos extremos. Cidades costeiras como Salvador, por exemplo, devem ter planejamento contra a elevação previsível do nível dos oceanos, devem se preocupar com deslizamentos em encostas, enchentes, etc. resultantes da inclemência das chuvas. Enfim, devem ter flexibilidade e adaptabilidade às novas exigências climáticas (grifo nosso). É preciso redesenhar o crescimento urbano de Salvador de forma a integrá-la com o ambiente natural, recuperar suas praias e seus rios hoje bastante comprometidos com o lançamento de esgotos, para que a cidade não receba uma resposta hostil do ambiente natural”.

Pode-se afirmar que a Prefeitura só terá condições de zerar a emissão de carbono até 2049 se tornar Salvador uma cidade sustentável contemplando, entre outras medidas, o abandono do projeto BRT que utiliza combustíveis fósseis substituindo-o por outro projeto que contemple o uso de eletricidade como, por exemplo, o VLT e o ônibus elétrico e realizar o transporte de massa de alta capacidade com a expansão do metrô para reduzir a circulação de automóveis na cidade.

* Fernando Alcoforado, 80, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) e Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

SCIENCE AND TRUTH

Fernando Alcoforado*

This article aims to present the concept of scientific truth, the methods adopted for the search for scientific truth, the questions about the scientific method and how to prove the scientific truth.

  1. The concept of scientific truth

In Greek, truth (aletheia) means that which is not hidden, manifesting itself in the eyes and the spirit as it is, becoming evident to reason. In Latin, truth (veritas) is what can be accurately demonstrated by referring to rigor and accuracy. In principle, truth is the genuine aim of scientific inquiry [RAMOS, Fábio Pestana. Concepção filosófica da verdade (Philosophical conception of truth). Available at the website <http://fabiopestanaramos.blogspot.com.br/2011/09/concepcao-filosofica-da-verdade.html&gt;, 2011>, 2011).

Truth is an interpretation of reality, confirmed by other human beings and confirmed by mathematical equations forming a model capable of predicting future events in the same coordinates. Truth does not have a unique meaning, either static and definitive, being influenced by numerous factors. The conception of truth has been the subject of study by many thinkers throughout the history of philosophy, but three particularly have had a strong influence: Leibniz, Kant, and Husserl.

For Leibniz, it would be necessary to distinguish two types of truth: truths of reason on the one hand, and truths of fact on the other. Truths of reason state that a thing is necessarily and universally and cannot be different from what it is, just as mathematical ideas that are innate. Actually, in fact, truths are those that depend on experience, expressing ideas gained through sensations, perception and memory, and are therefore empirical. According to Leibniz, the relationship between truths of reason and fact, judged by the rationalization of information, allows us to know reality.

For Kant, truth arises from the relationship between analytical and synthetic judgments, expressing the first intellectual operations and the second the structures or phenomena analyzed. In other words, the reality we know does not correspond to what it is, but to what reason interprets. Husserl, in turn, created phenomenology, a branch of philosophy that studies the reading of phenomena by reason, since reality would be relative and subordinate to manifestation for consciousness. Understanding would be influenced by the senses and reason, beyond the knowledge previously present in the mind and context.

Kant presents the definition of truth as the “concordance of knowledge with its object.” The “concordance of knowledge with the object” means “the agreement of understanding with the object that is apprehended by it, namely the phenomenon.” According to Kant, truth and illusion are not in the object as it is intuited but in the judgment upon it as it is thought. Consequently, both truth and error, therefore, also delusion, while inducing the error, can only be found in judgment, that is, in the relation of the object to our understanding [PERIN, Adriano. A verdade como um problema fundamental em Kant (Truth as a fundamental problem in Kant). Available on the website <http://blog.quadrante.com.br/kant-a-verdade-subjetiva/&gt;).

Kant’s basic question was: How can we know the truth? In his youth, Kant accepted the rationalist answer that we know the truth through the intellect, not through the senses, and that the intellect had its own “innate ideas.” He later read empiricist David Hume, who, in Kant’s own words, “woke him up from dogmatic sleep”. Like other empiricists, Hume believed that man can know the truth only through the senses and that there are no “innate ideas.” However, Hume’s premises led him to skepticism, to the denial that one could know the truth with certainty. Kant considered both rationalist “dogmatism” and empiricist skepticism unacceptable and sought a third way [KREEFT, Peter. Kant: a verdade subjetiva (Kant: subjective truth). Available at <http://blog.quadrante.com.br/kant-a-verdade-subjetiva/%5D.

Kant denied the premise that truth meant conformity with objective reality. Kant redefines the very concept of truth as reality that conforms to our ideas. Until then, it was argued that our knowledge must be adapted to reality. Kant considers that there will be more progress if we assume that the objects of thought must fit our knowledge. Kant stated that all our knowledge is subjective.

Peter Kreeft claims that there was a theory available since Aristotle’s time: the philosophy of common sense, which is realism. According to realism, we can know the truth through intellect and the senses, provided that both work correctly together, like the blades of scissors. Instead of turning to traditional realism, Kant invented a whole new theory of knowledge, often called idealism. He considered it his “Copernican revolution in philosophy”. But the simplest name for it is subjectivism, for it is meant to redefine truth itself as subjective, not objective.

According to Edgar Morin, several previous philosophers had assumed that the truth is objective. By the way, according to common sense, this is simply what we mean by speaking of “truth”: knowing what it really is by shaping the mind according to objective reality. Some philosophers (the rationalists) thought they could achieve this goal with reason alone. Early empiricists (like Locke) thought they could reach her through the senses. Skeptical empiricist Hume, later, felt that there was no way to reach the truth with certainty. Descartes’ mechanistic model has long served its intended purpose and enabled the development of various fields of science. Yet, already got proven the unsustainability of certain concepts that were considered fundamental by the Cartesian model. In formulating the Theory of Complexity, Edgar Morin criticized Descartes’ mechanistic model by trying to link what is separate [MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção) (Method 1, 2, 3, 4, 5,6 (Collection). Porto Alegre: Editora Sulina, 2005].

  1. Methods for the Search for Scientific Truth

In his main work Discourse on the Method, René Descartes expressed his disappointment with the knowledge of his time. Much of what he believed had turned out to be false. Descartes then resolved to seek only the knowledge he could find within himself or in nature. He strove to find an irrefutable truth that served as the elementary principle of knowledge. René Descartes considered the mathematical method as the safest way to reach knowledge. By applying mathematical reasoning to philosophical problems, we can achieve the same certainty and clarity evidenced in geometry. The Cartesian deductive method perfectly complements Francis Bacon’s inductive approach, which emphasizes observation and experimentation. The scientific achievements of modern times originated in the skillful synchronization of inductive and deductive methods [DESCARTES, René. Discurso do método (Discourse on the method). L&PM Pocket, 2004].

Descartes defended the thesis that it is sufficient to understand the parts to understand the whole. According to René Descartes, the scientific method comprises two complementary approaches to knowledge: the empirical (inductive) and the rational (deductive). In the inductive approach employed in descriptive sciences such as biology, anatomy and geology, general principles are extracted from the analysis of data collected through observation and experimentation. René Descartes formulated the deductive method in the seventeenth century. The main characteristics of the inductive method were defended by the Englishman Francis Bacon, who considered data from sensory experience as the basis of knowledge. The inductive thinking proposed by Francis Bacon leaves the scene to give way to the Cartesian deduction where experiences serve only to confirm the general principles outlined by reason. In the deductive approach employed in mathematics and theoretical physics, truths are derived from elementary principles.

Prior to Isaac Newton, two opposing trends guided science: 1) the empirical, inductive method represented by Francis Bacon; and 2) the rational, deductive method, represented by René Descartes. Overcoming Bacon in his systematic experimentation and Descartes in his mathematical analysis, Newton unified the two trends. Thus, the model of science that was in force up to the present moment was set up, which was one of the major responsible for the advances and setbacks, for the benefits and harms that modern society lives to date. It was Newton who gave life to Descartes’s dream by completing the Scientific Revolution.

Mathematics is the science of logical reasoning that has its development linked to research, the interest in discovering the new and investigating situations of high complexity. Mathematics today is the most important science in the modern world because it is present in all scientific fields [RONAN, Colin A. História Ilustrada da Ciência (Illustrated History of Science). Rio de Janeiro: Zahar, 2002]. The Scientific Revolution, which began in the 15th century, made knowledge more structured and more practical, absorbing empiricism as a mechanism to consolidate the findings. Amid all the effervescence favorable to the Scientific Revolution, Mathematics gained space and developed with great relevance for the development of a more rigorous and critical scientific method. Mathematics has come to describe scientific truths [ROONEY, Anne. História da Matemática (History of Mathematics). São Paulo: M. Books, 2012].

Lakatos and Marconi affirm that the specific methods of the social sciences are: 1) the inductive that, from the occurrence of the phenomena are originated the laws and theories; 2) the deductive that from the theories and laws one has the explanation about the phenomena; 3) the hypothetical-deductive that formulates hypotheses and tests the occurrence of phenomena; 4) the dialectic that analyzes conflicting elements; 5) the historic that investigates the past to relate its influence on the phenomena of the present; 6) the comparative that is used to verify similarities and explain divergences; 7) the monographic that studies a certain group of factors to obtain generalizations; 8) the statistician whose objective is the analysis of complex sets to thereby establish relationships with each other and provide a quantitative description of this group under study; 9) the typological that serves as a model for conducting analyzes and understanding existing cases; 10) the functionalist, which is a method of interpretation that aims to study a particular group through its system of organization; 11) the structuralist that is used to analyze the concrete reality of various phenomena; 12) the ethnographic whose main focus is the analysis of the cultural aspects of a particular group of society; and 13) the clinician who is used in case studies and has psychopedagogic intervention with an intimate relationship between researcher and what is researched and can be of qualitative or quantitative scope [LAKATOS, E. M. e MARCONI, M. de A. Métodos específicos das ciências sociais in Metodologia científica (Specific methods of Social Sciences in Scientific Methodology). São Paulo: Atlas, 1991].

According to Karl Popper, in addition to the inductive, deductive, hypothetical – deductive methods, the dialectical method formulated by the German philosopher Georg Friedrich Hegel and developed by Karl Marx and Friedrich Engels, which is applied to the social sciences, is also a way of analyzing reality from the confrontation of theses, hypotheses or theories. Dialectics is the investigation through the counterposition of conflicting elements and the understanding of their role in a phenomenon. The researcher must confront any concept taken as “truth” with other realities and theories in order to draw a new conclusion, a new theory. Thus, dialectics does not analyze the static object, but contextualizes the object of study in the historical, cultural and social dynamics. Dialectical argumentation was also used in metaphysics, and was systematized by the German idealist thinker Friedrich Hegel, an exponent of German classical philosophy, who identified three basic moments in the dialectical method: the thesis (an allegedly true idea), the antithesis (the contradiction or negation of this thesis) and synthesis (the result of the confrontation of both ideas). Synthesis becomes a new thesis and the dialectical cycle begins again [GEORG, Gadamer. La dialética de Hegel (Hegel’s dialectic). Madrid: Editora Catedra, 1988].

  1. The scientific method and its questions

Until the beginning of the twentieth century the scientific method predominated based on the mechanistic model proposed by René Descartes in his Discourse on the Method. Descartes’ mechanistic model for a long time served to the principles that was proposed and made possible the development of various fields of science. However Albert Einstein’s (1879-1955) theories of relativity and Niels Bohr’s (1885-1962) quantum mechanics challenged some of the pillars of the Cartesian model. Einstein and Bohr’s findings proved impossible to determine even the reality of the results of an observation, overturning the precept that “to know the whole, it´s enough to know the parts” by demonstrating that many phenomena have no explanation if not viewed within a situation or system and, above all, overturned the precept that the object is separate and independent of the observer, showing that what we know of what we believe to be the real object is only the result of our intervention in it and not the object itself. In formulating the Theory of Complexity, Edgar Morin criticized Descartes’ mechanistic model by trying to link what is separate [MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção) (Method 1, 2, 3, 4, 5,6 (Collection)). Porto Alegre: Editora Sulina, 2005 ].

Bertrand Russell (1872-1970) sought to examine, like David Hume (1711-1776), whether or not the repetition of a phenomenon in a given number of past experiences is a guarantee of its later occurrence in the future. Russell asked two other questions: (a) Are past experiences the source of our future expectations? (b) How to justify such expectations? Russell asks: Does finding a certain number of occurrences of a law being satisfied in the past provide evidence that the same law will continue to be satisfied in the future? The English thinker argues that as the same events are repeated, their occurrence in the future will become more likely. Therefore, his argument tends to replace justification of induction with justification of probability of induction. Our experience with nature has so far shown, Russell tells us (here in strict accordance with Hume), that the frequent repetition of a succession or coexistence of events has been the cause of our expectation that the succession or coexistence of events will continue to occur in the future. The mere fact that something has happened a number of times gives to animals and men the expectation that it will happen again (RUSSELL, Bertrand. Les problems de philosophie. Paris: Payot, 1989).

What Russell therefore questioned is whether or not our conviction about the permanent regularity between past and future is pertinent, which is based on the realization that the future has continually become the past, always being similar to the past, so that one can use Russell’s terminology of past futures. The use of experience could underlie inductive reasoning with regard to examples already examined. With regard, however, to future cases, only the belief in the inductive principle could justify any inference that attests to the regularity between the already observed and the unobserved. As for deductive reasoning, Russell argues that it does not effectively allow us to make predictions about future occurrences, as their statements necessarily derive from already established generalizations.

Pierre Duhem (1861-1916), a French physicist and historian of science, states that science, far from being able to prove its claims by a logical derivation of self-evident principles, has as its method derive empirical predictions from its theories and compare them with what is observed. By this method, however, no theory can be definitively established, since it is always possible for more than one theory to satisfactorily fit the empirical data. That is, for any observational data set, an indefinite number of theories may be suitable for it. Duhem states that the experimental method cannot turn a hypothesis of physics into an undisputed truth because one can never be certain that all imaginable hypotheses that can apply to a group of phenomena have been exhausted (Duhem, Pierre. Sauver les apparences, Paris: Vrin, 2003).

Henri Poincaré (1854-1912), mathematician, physicist and philosopher of French science, and Albert Einstein (1879-1955), German theoretical physicist, in spite of the significant divergences of their respective philosophies of scientific knowledge, had in common the conviction of that scientific ideas in the elaboration of physical and mathematical theories are free constructions of thought. In this sense, they understood that they are not induced in a logical and univocal way, necessary and compulsory, from the data of experience and, moreover, that they are not inscribed in an innate or a priori structure of thought. It is in this space of freedom that the idea of ​​creation enters into scientific work that leads to discovery. In the clearest way, Poincaré and Einstein both insisted on this aspect which was for them the most important feature of the activity of knowledge, and which was effectively at the center of their epistemologies.

According to Henri Poincaré, science can teach us nothing about truth, can only serve us as a rule of action. From this perspective, science would be no more than a rule of action, for we would be powerless to know anything, and yet how we need to act we make rules. It is the set of these rules that we call science. Almost all contemporary philosophers of science have come to the conclusion that science cannot literally describe an unobservable world of microscopic particles and intangible waves. And a significant number of philosophers of science have come to the conclusion that science cannot succeed in this goal since it is beyond the reach of human perception. All contemporary philosophers of science accept that scientific theories aim to literally portray an unobservable world and conclude that, for that reason, it would be a mistake to believe in any scientific theories (POINCARÉ, Henri. Science et hipothèse. Paris: Flammarion, 1902).

In his work Contra o método (Against Method) Paul Feyerabend, who was born in Vienna in 1924 and lived in the United States and Europe, states that there is no universal ahistorical scientific method openly criticizing the scientific method. According to its epistemology, science is an anarchic enterprise. It rejects the existence of universal rules and defends the violation of these methodological rules. It affirms that the advance of science occurs by violating the imposed methodological rules. The epistemological anarchism that he defends must be understood as a defense to an epistemological pluralism, that is, against a unique method of making science. It defends an “anything goes”, that is, a radical methodological pluralism. His epistemology states that no theory can be consistent with all facts and that there cannot be a set of rules that will lead to scientific progress [FEYERABEND, Paul. Contra o método (Against method). São Paulo: Editora UNESP, 2003].

Feyerabend openly defends the counter-rule, that is, if the rule is induction, counterinduction should be used, which focuses on the acceptance of alternative hypotheses. According to Feyerabend’s view, all theories are fallible by nature. It proposes the following counter rules: (a) introduce hypotheses that conflict with the observations; (b) introduce hypotheses that do not fit the established theories. Theories should always be seen as approximations, never as definitions. One cannot reach the truth, but only approach it.

  1. Proof of scientific truth

Karl Popper (1902-1994) states that one of the issues that most afflict human beings, no doubt, concerns the search for truth and, therefore, the validity of science. It is well known that the task of the scientist is to delimit the scientific laws and, for this, must adopt a method. Since Francis Bacon, science has followed the principle that to describe a law of nature one must repeatedly test, gather and record the results, wait for it to be repeated with several other researchers, and then be considered valid. That is, a scientific law is valid when the scientific community, founded on particular experiences, reaps similar or allegedly equal results over and over again (POPPER, Karl. Lógica da Investigação Científica, in Os Pensadores [Logic of Scientific Research, in The Thinkers). São Paulo: Abril Cultural, 1975].

Karl Popper states that an inference is called “inductive” when it goes from particular statements, or experiments, to universal statements, such as hypotheses or “theories”. Popper wonders if he can move from single to universal statements with the certainty of the truth. To begin solving the problem, induction advocates feel it is necessary to establish an Induction Principle, which can guarantee the process. For Popper, this is impossible or even superfluous, since this Principle guarantees nothing since it is based on the same inconsistent method. To be valid, an Induction Principle should be universal and since the researcher always starts from the singular, this would not allow him to logically reach the universal, according to Popper.

To try to solve this problem, Popper established what he calls the deductive method of testing. To test a theory, Popper follows four steps, or kinds of evidence: 1) Internal tests: seek the coherence of the conclusions drawn from the statement; 2) Tests of form: consists of tests to know if the theory is, in fact, an empirical or scientific theory or merely tautology, that is, an analytic proposition that always remains true, since the attribute is a repetition of the subject; 3) Innovation tests: verification if the theory is really new or already understood by others existing in the system; and 4) Empirical tests: verification of the applicability of the conclusions extracted from the new theory. These are the main tests, since the theory can pass unhindered in the previous three steps and be falsified by the empirical application of its conclusions, in which case the theory will not be considered valid.

For Karl Popper the support of a theory is always provisional since its conclusions will always be tested empirically. As long as the theory holds, no progress has been made. On the contrary, when a proof distorts current theory, then science will evolve. In this sense, therefore, one should always try to falsify the theory and not confirm it, also because the attempt to confirm it would be infinite, in time and space. Thus, Popper claims that a theory will be more valid the more it is falsifiable, that is, the more likely it is to be falsified and yet it continues to respond to scientific problems. Once proposed, speculative theories will have to be rigorously and relentlessly proven by observation and experimentation. Theories that do not exceed observable and experimental evidence must be eliminated and replaced by other speculative conjectures.

According to Popper, Science progresses through trial and error, conjecture and refutation. The method of science is the method of bold and ingenious conjecture followed by rigorous attempts to falsify it. Only the fittest theories survive. One can never lawfully say that a theory is true, one can say with optimism that it is the best available, that it is better than any of those that existed before. According to falsifiability, it can be shown that some theories are false using the results of observation and experimentation. But Popper, in trying to overthrow the inductive method, also created another problem, namely, the need for a new criterion of demarcation between what is Science and what is not, since hitherto the inductive method was proper to Science and distinguished it of Metaphysics, the latter, known to be speculative. In other words, it is not limited, just by induction, what is and what is not science. Therefore, what marks the science of non-science is falsifiability, as Popper says. Finally, for Popper, the statement needs to be empirically tested, not for its verifiability, but for its falsifiability. Thus, the myth of scientific truth is clearly evidenced, above all by the inadequacy of its methods, which should lead us to reflect on scientific solutions.

* Fernando Alcoforado, 80, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, engineer and doctor in Territorial Planning and Regional Development by the University of Barcelona, university professor and consultant in the areas of strategic  planning, business planning, regional planning and planning of energy systems, is author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) and Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

SCIENCE ET VÉRITÉ

Fernando Alcoforado*

Cet article vise à présenter le concept de vérité scientifique, les méthodes adoptées pour la recherche de la vérité scientifique, les questions sur la méthode scientifique et comment prouver la vérité scientifique.

  1. Le concept de vérité scientifique

En grec, la vérité (aletheia) signifie ce qui n’est pas caché, se manifestant aux yeux et à l’esprit tel qu’il est, devenant évident pour la raison. En latin, la vérité (veritas) est ce qui peut être démontré avec précision en se référant à la rigueur et à l’exactitude. En principe, la vérité est le véritable objectif de l’enquête scientifique. [RAMOS, Fábio Pestana. Concepção filosófica da verdade (Conception philosophique de la vérité). Disponible sur le site Web <http://fabiopestanaramos.blogspot.com.br/2011/09/concepcao-filosofica-da-verdade.html&gt;, 2011].

La vérité est une interprétation de la réalité, confirmée par d’autres êtres humains et confirmée par des équations mathématiques formant un modèle capable de prédire les événements futurs dans les mêmes coordonnées. La vérité n’a pas de signification unique, qu’elle soit statique ou définitive, qui est influencée par de nombreux facteurs. La conception de la vérité a fait l’objet d’études par de nombreux penseurs tout au long de l’histoire de la philosophie, mais trois en particulier ont eu une forte influence: Leibniz, Kant et Husserl.

Pour Leibniz, il faudrait distinguer deux types de vérité: les vérités de raison d’une part et les vérités de fait d’autre part. Les vérités de la raison affirment qu’une chose est nécessairement et universellement qui ne peut pas être différente de ce qu’elle est, comme les idées mathématiques, étant innée. En fait, en fait, les vérités sont celles qui dépendent de l’expérience, exprimant des idées acquises par les sensations, la perception et la mémoire, et sont donc empiriques. Selon Leibniz, la relation entre vérités de raison et de fait, jugée par la rationalisation de l’information, nous permet de connaître la réalité.

Pour Kant, la vérité naît de la relation entre les jugements analytiques et synthétiques, exprimant les premières opérations intellectuelles et la seconde les structures ou phénomènes analysés. En d’autres termes, la réalité que nous connaissons ne correspond pas à ce qu’elle est, mais à ce que la raison interprète. Husserl, à son tour, a créé la phénoménologie, une branche de la philosophie qui étudie la lecture des phénomènes par la raison, car la réalité serait relative et subordonnée à la manifestation de la conscience. La compréhension serait influencée par les sens et la raison, au-delà des connaissances précédemment présentes dans l’esprit et le contexte.

Kant présente la définition de la vérité comme la «concordance de la connaissance avec son objet». La «concordance de la connaissance avec l´objet» signifie «l’accord de compréhension avec l’objet qui est appréhendé par lui, à savoir le phénomène». Selon Kant, la vérité et l’illusion ne sont pas dans l’objet tel qu’il est intuitionné mais dans le jugement sur lui tel qu’il est pensé. Par conséquent, à la fois la vérité et l’erreur, donc l’illusion, tout en induisant cette dernière, ne peuvent être trouvées que dans le jugement, c’est-à-dire dans la relation de l’objet à notre compréhension [PERIN, Adriano. A verdade como um problema fundamental em Kant (La vérité comme problème fondamental à Kant). Disponible sur le site Web <http://blog.quadrante.com.br/kant-a-verdade-subjetiva/>%5D.

La question fondamentale de Kant était: comment pouvons-nous connaître la vérité? Dans sa jeunesse, Kant a accepté la réponse rationaliste selon laquelle nous connaissons la vérité à travers l’intellect, pas les sens, et que l’intellect avait ses propres «idées innées». Il a ensuite lu l’empiriste David Hume, qui, selon les propres mots de Kant, “l’a réveillé du sommeil dogmatique”. Comme d’autres empiristes, Hume croyait que l’homme ne peut connaître la vérité que par les sens et qu’il n’y a pas «d’idées innées». Mais les prémisses de Hume l’ont conduit au scepticisme, au déni que l’on puisse connaître la vérité avec certitude. Kant a considéré le dogmatisme rationaliste et le scepticisme empiriste comme inacceptables et a cherché une troisième voie [KREEFT, Peter. Kant: a verdade subjetiva (Kant: vérité subjective). Disponible sur <http://blog.quadrante.com.br/kant-a-verdade-subjetiva/%5D.

Kant a nié l’hypothèse selon laquelle la vérité signifiait la conformité avec la réalité objective. Kant redéfinit le concept même de la vérité en tant que réalité conforme à nos idées. Jusque-là, on soutenait que nos connaissances devaient être adaptées à la réalité. Kant considère qu’il y aura plus de progrès si nous supposons que les objets de la pensée doivent correspondre à nos connaissances. Kant a déclaré que toutes nos connaissances sont subjectives.

Peter Kreeft prétend qu’il y avait une troisième théorie disponible depuis l’époque d’Aristote: la philosophie du bon sens, qui est le réalisme. Selon le réalisme, nous pouvons connaître la vérité à travers l’intellect et les sens, à condition que les deux fonctionnent correctement ensemble, comme les lames de ciseaux. Au lieu de se tourner vers le réalisme traditionnel, Kant a inventé une toute nouvelle théorie de la connaissance, souvent appelée idéalisme. Il la considérait comme sa «révolution copernicienne en philosophie». Mais le nom le plus simple est le subjectivisme, car il est censé redéfinir la vérité elle-même comme subjective et non objective.

Selon Edgar Morin, plusieurs philosophes précédents avaient supposé que la vérité était objective. Soit dit en passant, selon le bon sens, c’est simplement ce que nous entendons par parler de «vérité»: savoir ce que c’est vraiment, conformant l’esprit selon la réalité objective. Certains philosophes (les rationalistes) pensaient pouvoir atteindre cet objectif avec seulement la raison. Les premiers empiristes (comme Locke) pensaient pouvoir l’atteindre par les sens. L’empiriste sceptique Hume, plus tard, a estimé qu’il n’y avait aucun moyen d’atteindre la vérité avec certitude. Le modèle mécaniste de Descartes a longtemps rempli son objectif et a permis le développement de divers domaines scientifiques. Cependant, la non-durabilité de certains concepts considérés comme fondamentaux par le modèle cartésien a déjà été prouvée. En formulant la théorie de la complexité, Edgar Morin a critiqué le modèle mécaniste de Descartes en cherchant à relier ce qui est séparé [MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção) (Méthode 1, 2, 3, 4, 5,6 (Collection)). Porto Alegre: Editora Sulina, 2005].

  1. Méthodes de recherche de la vérité scientifique

Dans son ouvrage principal Discurso do método (Discours sur la méthode), René Descartes exprime sa déception face à la connaissance de son temps. Une grande partie de ce qu’il croyait s’était avéré faux. Descartes a alors décidé de ne rechercher que les connaissances qu’il pouvait trouver en lui-même ou dans la nature. Il s’est efforcé de trouver une vérité irréfutable qui a servi de principe élémentaire de la connaissance. René Descartes a considéré la méthode mathématique comme le moyen le plus sûr d’accéder à la connaissance. En appliquant un raisonnement mathématique à des problèmes philosophiques, nous pouvons obtenir la même certitude et la même clarté mises en évidence en géométrie. La méthode déductive cartésienne complète parfaitement l’approche inductive de Francis Bacon, qui met l’accent sur l’observation et l’expérimentation. Les réalisations scientifiques des temps modernes trouvent leur origine dans la synchronisation habile des méthodes inductives et déductives [DESCARTES, René. Discurso do método (Discours de la méthode). L&PM Pocket, 2004).

Descartes a défendu la thèse qu’il suffit de comprendre les parties pour comprendre le tout. Selon René Descartes, la méthode scientifique comprend deux approches complémentaires de la connaissance: l’empirique (inductive) et la rationnelle (déductive). Dans l’approche inductive employée dans les sciences descriptives telles que la biologie, l’anatomie et la géologie, les principes généraux sont extraits de l’analyse des données collectées par l’observation et l’expérimentation. La méthode déductive a été formulée au XVIIe siècle par René Descartes. Les principales caractéristiques de la méthode inductive ont été défendues par l’Anglais Francis Bacon, qui a considéré les données de l’expérience sensorielle comme la base de la connaissance. La pensée inductive proposée par Francis Bacon quitte la scène pour laisser place à la déduction cartésienne où les expériences ne servent qu’à confirmer les principes généraux esquissés par la raison. Dans l’approche déductive employée en mathématiques et en physique théorique, les vérités dérivent de principes élémentaires.

Avant Isaac Newton, deux tendances opposées guidaient la science: 1) la méthode empirique et inductive représentée par Francis Bacon; et 2) la méthode rationnelle et déductive, représentée par René Descartes. Surmontant Bacon dans son expérimentation systématique et Descartes dans son analyse mathématique, Newton a unifié les deux tendances. Alors, a été monté le modèle scientifique qui prévaut jusqu’au moment présent, qui a été l’un des principaux responsables des avancées et des reculs, des avantages et des inconvénients que la société moderne vit jusqu’au moment présent. C’est Newton qui a donné vie au rêve de Descartes en achevant la révolution scientifique.

Les mathématiques sont la science du raisonnement logique qui a son développement lié à la recherche, à l’intérêt de découvrir des situations nouvelles et d’investigation de grande complexité. Les mathématiques sont aujourd’hui la science la plus importante du monde moderne car elles sont présentes dans tous les domaines scientifiques (RONAN, Colin A. História Ilustrada da Ciência (Illustrated History of Science). Rio de Janeiro: Zahar, 2002]. La révolution scientifique, qui a commencé au XVe siècle, a rendu les connaissances plus structurées et plus pratiques, absorbant l’empirisme comme mécanisme pour consolider les résultats. Au milieu de toute l’effervescence favorable à la révolution scientifique, les mathématiques ont gagné de l’espace et se sont développées avec une grande pertinence pour le développement d’une méthode scientifique plus rigoureuse et critique. Les mathématiques sont arrivées à décrire les vérités scientifiques [ROONEY, Anne. História da Matemática (Histoire des mathématiques). São Paulo: M. Books, 2012].

Lakatos et Marconi affirment que les méthodes spécifiques des sciences sociales sont: 1)l’inductif qui, de la survenance des phénomènes les lois et les théories sont originés; 2) le déductif qu’à partir des théories et des lois on a l’explication des phénomènes; 3) l’hypothétique-déductive qui formule des hypothèses et teste l’occurrence des phénomènes; 4) la dialectique qui analyse les éléments contradictoires; 5) l’historic qui recherche le passé pour relier son influence sur les phénomènes du présent; 6) le comparatif utilisé pour vérifier les similitudes et expliquer les divergences; 7) le monographic qui étudie un certain groupe de facteurs pour obtenir des généralisations; 8) le statisticien dont l’objectif est l’analyse d’ensembles complexes pour établir ainsi des relations entre eux et fournir une description quantitative de ce groupe à l’étude; 9) le typologic qui sert de modèle pour mener des analyses et comprendre les cas existants; 10) le fonctionnaliste, qui est une méthode d’interprétation qui vise à étudier un groupe particulier à travers son système d’organisation; 11) le structuraliste qui est utilisé pour analyser la réalité concrète de divers phénomènes; 12) l’ethnographique dont l’objectif principal est l’analyse des aspects culturels d’un groupe particulier de la société; et 13) le clinicien qui est utilisé dans les études de cas et qui a une intervention psychopédagogique avec une relation intime entre le chercheur et ce qui est recherché et qui peut être de portée qualitative ou quantitative [LAKATOS, E. M. e MARCONI, M. de A. Métodos específicos das ciências sociais in Metodologia científica (Méthodes spécifiques des sciences sociales in Scientific Methodology). São Paulo: Atlas, 1991].

Selon Karl Popper, en plus des méthodes inductives, déductives, hypothétiques – déductives, la méthode dialectique formulée par le philosophe allemand Georg Friedrich Hegel et développée par Karl Marx et Friedrich Engels, qui est appliquée aux sciences sociales, est aussi un moyen d’analyser la réalité avec la confrontation de thèses, d’hypothèses ou de théories. La dialectique est l’enquête à travers la contreposition d’éléments conflictuels et la compréhension de leur rôle dans un phénomène. Le chercheur doit confronter tout concept considéré comme “vérité” avec d’autres réalités et théories afin d’en tirer une nouvelle conclusion, une nouvelle théorie. Ainsi, la dialectique n’analyse pas l’objet statique, mais contextualise l’objet d’étude dans les dynamiques historiques, culturelles et sociales. L’argumentation dialectique a également été utilisée en métaphysique et a été systématisée par le penseur idéaliste allemand Friedrich Hegel, un représentant de la philosophie classique allemande, qui a identifié trois moments fondamentaux de la méthode dialectique: la thèse (une idée prétendument vraie), l’antithèse (la contradiction ou la négation de celle-ci thèse) et de synthèse (résultat de la confrontation des deux idées). La synthèse devient une nouvelle thèse et le cycle dialectique recommence [GEORG, Gadamer. La dialética de Hegel (Dialectique de Hegel). Madrid: Editora Catedra, 1988].

  1. La méthode scientifique et ses questions

Jusqu’au début du XXe siècle, la méthode scientifique prédomine sur la base du modèle mécaniste proposé par René Descartes dans son Discours sur la méthode. Le modèle mécaniste de Descartes a longtemps rempli son objectif et a permis le développement de divers domaines scientifiques. Cependant, les théories de la relativité d’Albert Einstein (1879-1955) et la mécanique quantique de Niels Bohr (1885-1962) ont remis en question certains des piliers du modèle cartésien. Les découvertes d’Einstein et Bohr ont prouvé l’impossibilité de déterminer même la réalité des résultats d’une observation, renversant le précepte que «pour connaître le tout, il suffit de connaître les parties» en démontrant que de nombreux phénomènes n’ont aucune explication s’ils ne sont pas rencontrés dans une situation ou un système et, ils ont surtout renversé le précepte que l’objet est séparé et indépendant de l’observateur, montrant que ce que nous savons de ce que nous croyons être le véritable objet n’est que le résultat de notre intervention en lui et non l’objet lui-même. En formulant la théorie de la complexité, Edgar Morin a critiqué le modèle mécaniste de Descartes en cherchant à relier ce qui est séparé [MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção) (Méthode 1, 2, 3, 4, 5,6 (Collection)). Porto Alegre: Editora Sulina, 2005 ).

Bertrand Russell (1872-1970) se donna la peine d’examiner, du même mode que David Hume (1711-1776), si la répétition d’un phénomène dans un certain nombre d’expériences passées est une garantie de son apparition ultérieure dans le futur. Russell a posé deux autres questions: (a) Les expériences passées sont-elles la source de nos attentes futures? b) Comment justifier de telles attentes? Russell demande: Le fait de trouver un certain nombre d’occurrences d’une loi satisfaite dans le passé prouve-t-il que la même loi continuera de l’être à l’avenir? Le penseur anglais soutient que lorsque les mêmes événements se répéteront, leur occurrence à l’avenir deviendra plus probable. Ainsi, son argument tend à remplacer la justification de l’induction par la justification de la probabilité d’induction. Notre expérience avec la nature a montré jusqu’à présent, nous dit Russell (ici en stricte conformité avec Hume), que la répétition fréquente d’une succession ou d’une coexistence d’événements a été la cause de notre attente que la succession ou la coexistence d’événements continuera de se produire à l’avenir. Le simple fait que quelque chose se soit produit plusieurs fois donne aux animaux et aux hommes l’espoir que cela se reproduira (RUSSELL, Bertrand. Les problèmes de philosophie. Paris: Payot, 1989).

Ce que Russell a donc demandé, c’est si notre conviction de la régularité permanente entre passé et futur est pertinente, qui est basée sur la prise de conscience que l’avenir est continuellement devenu le passé, étant toujours semblable au passé, afin qu’il puisse utiliser la terminologie de Russell des futurs passés. L’utilisation de l’expérience pourrait sous-tendre un raisonnement inductif en ce qui concerne les exemples déjà examinés. En ce qui concerne cependant les cas futurs, seule la croyance au principe inductif pourrait justifier une inférence qui atteste de la régularité entre le déjà observé et l’inobservé. Quant au raisonnement déductif, Russell soutient qu’il ne nous permet pas efficacement de faire des prédictions sur des événements futurs, car leurs déclarations dérivent nécessairement de généralisations déjà établies.

Pierre Duhem (1861-1916), physicien et historien français des sciences, affirme que la science, loin de pouvoir prouver ses prétentions par une dérivation logique de principes évidents, a pour méthode de dériver des prédictions empiriques de ses théories et de les comparer avec ce qui est observé. Par cette méthode, cependant, aucune théorie ne peut être définitivement établie, car il est toujours possible pour plus d’une théorie d’adapter de manière satisfaisante les données empiriques. C’est-à-dire que pour tout ensemble de données d’observation, un nombre indéfini de théories peuvent lui convenir. Duhem déclare que la méthode expérimentale ne peut pas transformer une hypothèse de la physique en une vérité incontestée car on ne peut jamais être certain que toutes les hypothèses imaginables qui peuvent s’appliquer à un groupe de phénomènes ont été épuisées (Duhem, Pierre. Sauver les apparences. Paris: Vrin, 2003).

Henri Poincaré (1854-1912), mathématicien, physicien et philosophe des sciences françaises, et Albert Einstein (1879-1955), physicien théoricien allemand, malgré les divergences importantes de leurs philosophies respectives de la connaissance scientifique, avaient en commun la conviction de que les idées scientifiques dans l’élaboration des théories physiques et mathématiques sont des constructions libres de la pensée. En ce sens, ils ont compris qu’ils ne sont pas induits de manière logique et univoque, nécessaire et obligatoire, à partir des données de l’expérience et, de plus, qu’ils ne s’inscrivent pas dans une structure de pensée innée ou a priori. C’est dans cet espace de liberté que l’idée de création entre dans le travail scientifique qui mène à la découverte. De la manière la plus claire, Poincaré et Einstein ont tous deux insisté sur cet aspect qui était pour eux le trait le plus important de l’activité de la connaissance, et qui était effectivement au centre de leurs épistémologies.

Selon Henri Poincaré, la science ne peut rien nous apprendre sur la vérité, elle ne peut que nous servir de règle d’action. De ce point de vue, la science ne serait plus qu’une règle d’action, car nous serions impuissants à savoir quoi que ce soit, et pourtant, comment nous devons agir, nous établissons des règles. C’est l’ensemble de ces règles que nous appelons science. Presque tous les philosophes contemporains de la science sont arrivés à la conclusion que la science ne peut pas littéralement décrire un monde inobservable de particules microscopiques et d’ondes intangibles. Et un nombre important de philosophes des sciences sont parvenus à la conclusion que la science ne peut pas atteindre cet objectif car la vérité est hors de portée de la perception humaine. Tous les philosophes contemporains des sciences admettent que les théories scientifiques sont censées dépeindre littéralement un monde inobservable et concluent que pour cette raison, ce serait une erreur de croire les théories scientifiques (POINCARÉ, Henri. Science et hipothèse. Paris: Flammarion, 1902).

Dans son ouvrage Contra o Método (Contre la méthode), Paul Feyerabend, né à Vienne en 1924 et résidant aux États-Unis et en Europe, déclare qu’il n’existe pas de méthode scientifique ahistorique universelle critiquant ouvertement la méthode scientifique. Selon son épistémologie, la science est une entreprise anarchique. Il rejette l’existence de règles universelles et défend la violation de ces règles méthodologiques. Il affirme que l’avancée de la science se produit en violant les règles méthodologiques imposées. L’anarchisme épistémologique qu’il défend doit être compris comme une défense contre un pluralisme épistémologique, c’est-à-dire contre une méthode unique de faire de la science. Il défend un «vaut tout», c’est-à-dire un pluralisme méthodologique radical. Son épistémologie déclare qu’aucune théorie ne peut être cohérente avec tous les faits et qu’il ne peut y avoir un ensemble de règles qui mèneront au progrès scientifique [FEYERABEND, Paul. Contra o método (Contre la méthode). São Paulo: Editora UNESP, 2003].

Feyerabend défend ouvertement la contre-règle, c’est-à-dire que si la règle est une induction, une contre-induction doit être utilisée, qui se concentre sur l’acceptation d’hypothèses alternatives. Selon Feyerabend, toutes les théories sont faillibles par nature. Il propose les contre-règles suivantes: (a) introduire des hypothèses qui contredisent les observations; (b) introduire des hypothèses qui ne correspondent pas aux théories établies. Les théories doivent toujours être considérées comme des approximations, jamais comme des définitions. On ne peut pas atteindre la vérité, mais seulement l’approcher.

  1. Preuve de vérité scientifique

Karl Popper (1902-1994) déclare que l’un des problèmes qui affligent le plus les êtres humains concerne sans aucun doute la recherche de la vérité et, par conséquent, la validité de la science. Il est bien connu que la tâche du scientifique est de délimiter les lois scientifiques et, pour cela, doit adopter une méthode. Depuis Francis Bacon, la science a suivi le principe selon lequel pour décrire une loi de la nature, il faut tester, rassembler et enregistrer les résultats à plusieurs reprises, attendre qu’elle soit répétée avec plusieurs autres chercheurs, puis être considérée comme valide. C’est-à-dire qu’une loi scientifique est valide lorsque la communauté scientifique, fondée sur des expériences particulières, obtient encore et encore des résultats similaires ou prétendument égaux [POPPER, Karl. Lógica da Investigação Científica, in Os Pensadores (Logique de la recherche scientifique, dans Les penseurs). São Paulo: Abril Cultural, 1975].

Karl Popper déclare qu’une inférence est dite «inductive» lorsqu’elle passe de déclarations privées, ou d’expériences, à des déclarations universelles, telles que des hypothèses ou des «théories». Popper se demande s’il peut passer de déclarations simples à déclarations universelles avec la certitude de la vérité. Pour commencer à résoudre le problème, les défenseurs de l’induction estiment qu’il est nécessaire d’établir un principe d’induction, qui peut garantir le processus. Pour Popper, cela est impossible, voire superflu, car ce Principe ne garantit rien puisqu’il repose sur la même méthode incohérente. Pour être valide, un principe d’induction doit être universel et comme le chercheur part toujours du singulier, cela ne lui permettrait pas d’atteindre logiquement l’universel, selon Popper.

Pour tenter de résoudre ce problème, Popper a établi ce qu’il appelle la méthode déductive des tests. Pour tester une théorie, Popper suit quatre étapes, ou types de preuves: 1) Tests internes: rechercher la cohérence des conclusions tirées de l’énoncé; 2) Tests de forme: consiste en des tests pour savoir si la théorie est, en fait, une théorie empirique ou scientifique ou simplement de la tautologie, c’est-à-dire une proposition analytique qui reste toujours vraie, puisque l’attribut est une répétition du sujet; 3) Tests d’innovation: vérification si la théorie est vraiment nouvelle ou déjà comprise par d’autres existant dans le système; et 4) Tests empiriques: vérification de l’applicabilité des conclusions extraites de la nouvelle théorie. Ce sont les principaux tests, car la théorie peut passer sans entrave dans les trois étapes précédentes et être falsifiée par l’application empirique de ses conclusions, auquel cas la théorie ne sera pas considérée comme valide.

Pour Karl Popper, le soutien d’une théorie est toujours provisoire puisque ses conclusions seront toujours testées empiriquement. Tant que la théorie tient, aucun progrès n’a été réalisé. Au contraire, lorsqu’une preuve déforme la théorie actuelle, alors la science évoluera. En ce sens, il faut donc toujours essayer de falsifier la théorie et non la confirmer, aussi parce que la tentative de la confirmer serait infinie, dans le temps et dans l’espace. Ainsi, Popper prétend qu’une théorie sera plus valable le plus falsifiable, c’est-à-dire plus il y a de possibilités de falsification et, malgré tout, elle continue de répondre aux problèmes scientifiques. Une fois proposées, les théories spéculatives devront être rigoureusement et sans relâche prouvées par l’observation et l’expérimentation. Les théories qui ne dépassent pas les preuves observables et expérimentales doivent être éliminées et remplacées par d’autres conjectures spéculatives.

Selon Popper, la science progresse par essais et erreurs, conjectures et réfutations. La méthode de la science est la méthode d’une conjecture audacieuse et ingénieuse suivie de tentatives rigoureuses pour la falsifier. Seules les théories les plus aptes survivent. On ne peut jamais légalement dire qu’une théorie est vraie, on peut dire avec optimisme qu’elle est la meilleure disponible, qu’elle est meilleure que n’importe laquelle des précédentes. Selon la falsifiabilité, il peut être démontré que certaines théories sont fausses en utilisant les résultats de l’observation et de l’expérimentation. Mais Popper, en essayant de renverser la méthode inductive, a également créé un autre problème, à savoir la nécessité d’un nouveau critère de démarcation entre ce qui est la science et ce qui ne l’est pas, car jusqu’à présent la méthode inductive était propre à la science et la distinguait. de la métaphysique, cette dernière, connue pour être spéculative. En d’autres termes, il n’est pas limité, simplement par induction, ce qui est et ce qui n’est pas de la science. Donc, ce qui distingue la science de la non-science, c’est la falsifiabilité, comme le dit Popper. Enfin, pour Popper, l’énoncé doit être testé empiriquement, non pas pour sa vérifiabilité, mais pour sa falsifiabilité. Ainsi, le mythe de la vérité scientifique est clairement mis en évidence, surtout par l’insuffisance de ses méthodes, qui devrait nous conduire à réfléchir sur des solutions scientifiques.

* Fernando Alcoforado, 80, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, ingénieur et docteur en planification territoriale et développement régional pour l’Université de Barcelone, professeur universitaire et consultant dans les domaines de la planification stratégique, planification d’entreprise, planification régionale et planification énergétique, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) et Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

CIÊNCIA E VERDADE

Fernando Alcoforado*

Este artigo tem por objetivo apresentar o conceito de verdade científica, os métodos adotados para a busca da verdade científica, os questionamentos sobre o método científico e como realizar a comprovação da verdade científica.

  1. O conceito de verdade científica

Em grego, a verdade (aletheia) significa aquilo que não está oculto, o não escondido, manifestando-se aos olhos e ao espírito, tal como é, ficando evidente à razão. Em latim, a verdade (veritas) é aquilo que pode ser demonstrado com precisão, referindo-se ao rigor e à exatidão. Em princípio, a verdade é o objetivo genuíno da investigação científica. (RAMOS, Fábio Pestana. Concepção filosófica da verdade. Disponível no website <http://fabiopestanaramos.blogspot.com.br/2011/09/concepcao-filosofica-da-verdade.html>, 2011).

A verdade é uma interpretação da realidade, confirmada por outros seres humanos e confirmada por equações matemáticas formando um modelo capaz de prever acontecimentos futuros diante das mesmas coordenadas. A verdade não possui um significado único, tampouco estático e definitivo, sendo influenciada por inúmeros fatores. A concepção de verdade foi objeto de estudo de diversos pensadores ao longo da história da filosofia, mas, três particularmente exerceram forte influência: Leibniz, Kant e Husserl.

Para Leibniz, seria necessário distinguir dois tipos de verdade: de um lado as verdades de razão e de outro as verdades de fato. As verdades de razão enunciam que uma coisa é necessariamente e universalmente não podendo ser diferente do que é, tal como as ideias matemáticas, sendo inatas. As verdades de fato, ao contrário, são aquelas que dependem da experiência, expressando ideias obtidas através das sensações, percepção e memória, sendo, portanto, empíricas. Segundo Leibniz, a relação entre verdades de razão e de fato, julgadas pela racionalização das informações, permite conhecer a realidade.

Para Kant, a verdade surge a partir da relação entre juízos analíticos e sintéticos, expressando, o primeiro, operações intelectuais e, o segundo, as estruturas ou fenômenos analisados. Em outras palavras, a realidade que conhecemos não corresponde aquilo que é, mas sim ao que a razão interpreta. Husserl, por sua vez, criou a fenomenologia, um ramo da filosofia que estuda a leitura dos fenômenos pela razão, já que a realidade seria relativa e subordinada à manifestação para consciência. O entendimento sofreria influência dos sentidos e da razão, além dos conhecimentos previamente presentes na mente e do contexto.

Kant apresenta a definição de verdade como a “concordância do conhecimento com seu objeto”. A “concordância do conhecimento com o objeto” significa “a concordância do entendimento com o objeto que é apreendido por ele, a saber, o fenômeno”. Segundo Kant, verdade e ilusão não estão no objeto, enquanto é intuído, mas no juízo sobre ele, enquanto é pensado. Consequentemente, tanto a verdade quanto o erro, portanto, também a ilusão, enquanto induz ao erro, podem encontrar-se somente no juízo, isto é, na relação do objeto com o nosso entendimento (PERIN, Adriano. A verdade como um problema fundamental em Kant. Disponível no website<http://blog.quadrante.com.br/kant-a-verdade-subjetiva/&gt;).

A questão básica de Kant era: Como podemos conhecer a verdade? Na sua juventude, Kant aceitava a resposta racionalista de que conhecemos a verdade pelo intelecto, não pelos sentidos, e de que o intelecto possuía as suas próprias “ideias inatas”. Mais tarde, leu o empirista David Hume, que, em palavras do próprio Kant, o “despertou do sono dogmático”. Como outros empiristas, Hume acreditava que o homem só pode conhecer a verdade mediante os sentidos e que não existem “ideias inatas”. Mas as premissas de Hume conduziram-no ao ceticismo, à negação de que seja possível conhecer a verdade com certeza. Kant considerou inaceitáveis tanto o “dogmatismo” racionalista como o ceticismo empirista e procurou uma terceira via (KREEFT, Peter. Kant: a verdade subjetiva. Disponível no website <http://blog.quadrante.com.br/kant-a-verdade-subjetiva/).

Kant negou a premissa de que a verdade significasse conformidade com a realidade objetiva. Kant redefine o próprio conceito de verdade como realidade que se conforma segundo as nossas ideias. Até então, sustentava-se que o nosso conhecimento devia adequar-se à realidade. Kant considera que haverá mais progresso se assumirmos a hipótese de que os objetos de pensamento devem adequar-se ao nosso conhecimento. Kant afirmou que todo o nosso conhecimento é subjetivo.

Peter Kreeft afirma que havia uma teoria disponível desde os tempos de Aristóteles: a filosofia do senso comum, que é o realismo. De acordo com o realismo, podemos conhecer a verdade por meio do intelecto e dos sentidos, desde que ambos trabalhem corretamente em conjunto, como as lâminas de uma tesoura. Em vez de voltar-se para o realismo tradicional, Kant inventou toda uma nova teoria do conhecimento, geralmente chamada idealismo. Considerava-a sua “revolução copernicana na filosofia”. Mas o nome mais simples para ela é subjetivismo, pois o que pretende é redefinir a própria verdade como subjetiva, não objetiva.

Segundo Edgar Morin, vários filósofos anteriores tinham dado por assente que a verdade é objetiva. Aliás, de acordo com o senso comum, é simplesmente isso o que queremos dizer ao falar de “verdade”: conhecer o que realmente é conformando a mente segundo a realidade objetiva. Alguns filósofos (os racionalistas) julgavam ser capazes de atingir essa meta apenas com a razão. Os primeiros empiristas (como Locke) julgavam que podiam atingi-la através dos sentidos. O empirista cético Hume, posterior, julgava que não havia maneira alguma de atingir com certeza a verdade. O modelo mecanicista de Descartes por muito tempo serviu aos princípios a que se propunha e possibilitou o desenvolvimento de diversos campos da ciência. Contudo, já ficou comprovada a insustentabilidade de certos conceitos que eram considerados fundamentais pelo modelo cartesiano. Ao formular a Teoria da Complexidade, Edgar Morin criticou o modelo mecanicista de Descartes procurando ligar o que está separado (MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção). Porto Alegre: Editora Sulina, 2005).

  1. Os métodos para a busca da verdade científica

Em sua principal obra Discurso do método, René Descartes expressou seu desapontamento com o saber de sua época. Grande parte daquilo em que ele acreditava se revelara falso. Descartes resolveu então, buscar somente o conhecimento que pudesse encontrar dentro de si mesmo ou na natureza. Empenhou-se em encontrar uma verdade irrefutável que servisse como princípio elementar do conhecimento. René Descartes considerava o método matemático como o caminho mais seguro para se chegar ao conhecimento. Aplicando o raciocínio matemático aos problemas filosóficos, podemos alcançar a mesma certeza e clareza evidenciadas na geometria. O método dedutivo cartesiano complementa com perfeição a abordagem indutiva de Francis Bacon, que ressalta a observação e a experimentação. As realizações cientificas dos tempos modernos tiveram origem na habilidosa sincronização dos métodos indutivo e dedutivo (DESCARTES, René. Discurso do método, L&PM Pocket, 2004).

Descartes defendia a tese de que basta compreender as partes para compreender o todo. Segundo René Descartes, o método científico compreende duas abordagens do conhecimento complementares: a empírica (indutiva) e a racional (dedutiva). Na abordagem indutiva, empregada em ciências descritivas como biologia, anatomia e geologia, extraem-se princípios gerais a partir da análise de dados coligidos através da observação e da experimentação. O método dedutivo foi formulado no século XVII por René Descartes. As principais características do método indutivo foram defendidas pelo inglês Francis Bacon, que considerava os dados provenientes da experiência sensória como bases do conhecimento. O pensamento indutivo proposto por Francis Bacon sai de cena para dar lugar à dedução cartesiana onde as experiências servem apenas para confirmar os princípios gerais delineados pela razão. Na abordagem dedutiva, empregada na matemática e na física teórica, as verdades são derivadas de princípios elementares.

Antes de Isaac Newton, duas tendências opostas orientavam a ciência: 1) o método empírico, indutivo, representado por Francis Bacon; e, 2) o método racional, dedutivo, representado por René Descartes. Ultrapassando Bacon em sua experimentação sistemática e Descartes em sua análise matemática, Newton unificou as duas tendências. Assim, estava montado o modelo de ciência que vigora até o presente momento, que foi um dos grandes responsáveis pelos avanços e retrocessos, pelos benefícios e malefícios que a sociedade moderna atual vive até o presente momento. Foi Newton quem deu vida ao sonho de Descartes completando a Revolução Científica.

A Matemática é a ciência do raciocínio lógico que tem seu desenvolvimento ligado à pesquisa, ao interesse por descobrir o novo e investigar situações de alta complexidade. Atualmente, a Matemática consiste na ciência mais importante do mundo moderno porque ela está presente em todas as áreas científicas (RONAN, Colin A. História Ilustrada da Ciência. Rio de Janeiro: Zahar, 2002). A Revolução Científica, que começou no século XV, tornou o conhecimento mais estruturado e mais prático, absorvendo o empirismo como mecanismo para consolidar as constatações. Em meio a toda a efervescência favorável à Revolução Científica, a Matemática ganhou espaço e se desenvolveu com grande relevância para o desenvolvimento de um método científico mais rigoroso e crítico. A Matemática passou a descrever verdades científicas (ROONEY, Anne. História da Matemática. São Paulo: M. Books, 2012).

Lakatos e Marconi afirmam que os métodos específicos das ciências sociais são: 1) o indutivo que, a partir da ocorrência dos fenômenos são originadas as leis e teorias; 2) o dedutivo que a partir das teorias e leis tem-se a explicação sobre os fenômenos; 3) o hipotético-dedutivo que formula hipóteses e testa a ocorrência dos fenômenos; 4) o dialético que analisa elementos conflitantes; 5) o histórico que investiga o passado para relacionar sua influência nos fenômenos do presente; 6) o comparativo que é utilizado para verificar semelhanças e explicar divergências; 7) o  monográfico que estuda determinado grupo de fatores para obter generalizações; 8) o estatístico que tem como objetivo a análise de conjuntos complexos para, através disto, estabelecer as relações entre si e fornecer uma descrição quantitativa deste grupo em estudo; 9) o tipológico que serve como modelo para a realização de análises e para a compreensão de casos existentes; 10) o funcionalista que é um método de interpretação que tem como objetivo o estudo de um determinado grupo através de seu sistema de organização; 11) o estruturalista que é utilizado para analisar a realidade concreta de diversos fenômenos; 12) o etnográfico que tem como foco principal a análise dos aspectos culturais de determinado grupo da sociedade; e, 13) o clínico que é utilizado em estudos de caso e possui intervenção psicopedagógica com uma relação íntima entre pesquisador e o que é pesquisado e pode ser de âmbito qualitativo ou quantitativo (LAKATOS, E. M. e MARCONI, M. de A. Métodos específicos das ciências sociais in Metodologia científica. São Paulo: Atlas, 1991).

Segundo Karl Popper, além dos métodos indutivo, dedutivo, hipotético – dedutivo, é utilizado também o método dialético formulado pelo filósofo alemão Georg Friedrich Hegel e desenvolvido por Karl Marx e Friedrich Engels que, aplicado às ciências sociais, é uma forma de analisar a realidade a partir da confrontação de teses, hipóteses ou teorias. A dialética é a investigação através da contraposição de elementos conflitantes e a compreensão do papel desses elementos em um fenômeno. O pesquisador deve confrontar qualquer conceito tomado como “verdade” com outras realidades e teorias para se obter uma nova conclusão, uma nova teoria. Assim, a dialética não analisa o objeto estático, mas contextualiza o objeto de estudo na dinâmica histórica, cultural e social. A argumentação dialética foi usada também na metafísica, sendo sistematizada pelo pensador idealista alemão Friedrich Hegel, expoente da filosofia clássica alemã, que identificou três momentos básicos no método dialético: a tese (uma ideia pretensamente verdadeira), a antítese (a contradição ou negação dessa tese) e a síntese (o resultado da confrontação de ambas as ideias). A síntese se torna uma nova tese e o ciclo dialético recomeça (GEORG, Gadamer. La dialética de Hegel. Madrid: Editora Catedra, 1988).

  1. O método científico e seus questionamentos

Até o início do século XX predominava na ciência o método científico baseado no modelo mecanicista proposto por René Descartes em seu Discurso do Método. O modelo mecanicista de Descartes por muito tempo serviu aos princípios a que se propunha e possibilitou o desenvolvimento de diversos campos da ciência. Entretanto as teorias da relatividade de Albert Einstein (1879-1955) e a mecânica quântica de Niels Bohr (1885- 1962) puseram em xeque alguns dos pilares do modelo cartesiano. As descobertas de Einstein e Bohr provaram a impossibilidade de determinar até mesmo a realidade dos resultados de uma observação, derrubando o preceito de que “para conhecer o todo, basta conhecer as partes” ao demonstrar que muitos fenômenos não possuem explicação se não encarados dentro de uma situação ou sistema e, sobretudo, derrubaram o preceito de que o objeto é separado e independente do observador, mostrando que o que conhecemos daquilo que acreditamos ser o objeto real é apenas o resultado de nossa intervenção nele e não o objeto em si.  Ao formular a Teoria da Complexidade, Edgar Morin criticou o modelo mecanicista de Descartes procurando ligar o que está separado (MORIN. Edgar. O Método 1, 2, 3, 4, 5,6 (Coleção). Porto Alegre: Editora Sulina, 2005).

Bertrand Russell (1872-1970) se preocupou em examinar, do mesmo modo que David Hume (1711-1776), se a repetição de um fenômeno, num dado número de experiências no passado, constitui ou não uma garantia de sua ulterior ocorrência no futuro. Russell formulou duas outras questões: (a) as experiências passadas são a fonte de nossas expectativas futuras? (b) Como justificar tais expectativas? Russell pergunta: a constatação de um determinado número de ocorrências de uma lei sendo satisfeita no passado fornece evidência de que a mesma lei continuará a ser satisfeita no futuro? O pensador inglês sustenta que à medida que os mesmos eventos se repetem, sua ocorrência no futuro tornar-se-á mais provável. Assim sendo, sua argumentação inclina-se a substituir a justificação da indução pela justificação da probabilidade da indução. Nossa experiência com a natureza tem demonstrado até agora, nos diz Russell (aqui em estrita consonância com Hume), que a frequente repetição de uma sucessão ou coexistência de eventos tem sido a causa de esperarmos que a mesma a sucessão ou coexistência de eventos continue a ocorrer no futuro. O simples fato de que alguma coisa aconteceu certo número de vezes causa nos animais e nos homens a expectativa de que acontecerá novamente (RUSSELL, Bertrand. Les problems de philosophie. Paris: Payot, 1989).

O que Russell, pois, questionou é a pertinência ou não de nossa convicção sobre a regularidade permanente entre passado e futuro, que se baseia na constatação de que o futuro continuamente se converteu em passado, sendo sempre similar ao passado, de modo que se possa usar a terminologia empregada por Russell, de futuros passados. O recurso à experiência poderia embasar o raciocínio indutivo no que diz respeito a exemplos já examinados. No que tange, entretanto, a casos futuros, somente a crença no princípio indutivo poderia justificar qualquer inferência que ateste a regularidade entre o já observado e o inobservado. Quanto ao raciocínio dedutivo, Russell afirma que ele não nos faculta efetivamente a possibilidade de formular previsões sobre ocorrências futuras, na medida em que seus enunciados necessariamente derivam de generalizações já estabelecidas.

Pierre Duhem (1861-1916), físico francês e historiador da ciência, afirma que a ciência, longe de poder provar suas asserções por meio de uma derivação lógica de princípios auto evidentes, tem como seu método derivar predições empíricas de suas teorias e compará-las com o que é observado. Por esse método, porém, nenhuma teoria pode ser estabelecida definitivamente, pois sempre é possível que mais de uma teoria se ajuste satisfatoriamente aos dados empíricos. Ou seja, para qualquer conjunto de dados observacionais, um número indefinido de teorias pode ser adequado a ele. Duhem afirma que o método experimental não pode transformar uma hipótese da Física numa verdade incontestável porque não se pode jamais estar certo de que se tenham esgotado todas as hipóteses imagináveis que podem se aplicar a um grupo de fenômenos (DUHEM, Pierre. Sauver les apparences. Paris: Vrin, 2003).

Henri Poincaré (1854-1912), matemático, físico e filósofo da ciência francês e Albert Einstein (1879-1955), físico teórico alemão, apesar das significativas divergências de suas respectivas filosofias do conhecimento científico tinham em comum a convicção de que as ideias científicas, na elaboração das teorias físicas e matemáticas, são construções livres do pensamento. Neste sentido, entendiam que elas não são induzidas de maneira lógica e unívoca, necessária e compulsória, a partir dos dados da experiência e, além disso, que elas não estão inscritas numa estrutura inata ou a priori do pensamento. É nesse espaço de liberdade que entra a ideia da criação no trabalho científico que conduz à descoberta. Da maneira mais clara, Poincaré e Einstein, ambos insistiram nesse aspecto que era, para eles, a característica mais importante da atividade do conhecimento, e que se situava efetivamente no centro de suas epistemologias.

Segundo Henri Poincaré, a ciência nada pode nos ensinar sobre a verdade, só pode nos servir como regra de ação. Nessa perspectiva, a ciência não seria mais que uma regra de ação, pois seríamos impotentes para conhecer o que quer que seja e, contudo, como precisamos agir firmamos regras. É o conjunto dessas regras que chamamos ciência. Quase todos os filósofos da ciência contemporâneos chegaram à conclusão de que a ciência não pode descrever literalmente um mundo inobservável de partículas microscópicas e ondas intangíveis. E uma quantidade significativa de filósofos da ciência chegou à conclusão de que a ciência não pode ser bem-sucedida nesse objetivo uma vez que a verdade está além do alcance da percepção humana. Todos os filósofos da ciência contemporâneos aceitam que as teorias científicas visam retratar literalmente um mundo inobservável e concluem que, por essa razão seria um erro, acreditar em quaisquer teorias científicas (POINCARÉ, Henri. Science et hipothèse. Paris: Flammarion, 1902).

Em sua obra Contra o método, Paul Feyerabend, que nasceu em Viena, em 1924, e viveu nos Estados Unidos e na Europa, afirma que não existe um método científico universal a – histórico criticando abertamente o método científico. De acordo com a sua epistemologia, a ciência é uma empresa anárquica. Rejeita a existência de regras universais e defende a violação dessas regras metodológicas. Afirma que o avanço da ciência se dá ao se violar as regras metodológicas impostas. O anarquismo epistemológico que ele defende deve ser entendido como uma defesa a um pluralismo epistemológico, ou seja, contra um método único de se fazer ciência. Defende um “tudo-vale”, ou seja, um radical pluralismo metodológico. Sua epistemologia afirma que nenhuma teoria pode ser consistente com todos os fatos e que não pode existir um conjunto de regras que conduzirão ao progresso científico (FEYERABEND, Paul.  Contra o método, São Paulo: Editora UNESP,2003).

Feyerabend defende abertamente a contra-regra, ou seja, se a regra é a indução, deve-se usar a contra-indução, a qual incide na aceitação de hipóteses alternativas. De acordo com a visão de Feyerabend, todas as teorias são falíveis por natureza. Propõe as seguintes contrarregras: (a) introduzir hipóteses que conflitem com as observações; (b) introduzir hipóteses que não se ajustem às teorias estabelecidas. Teorias devem sempre ser vistas como aproximações, e jamais como definições. Não se pode atingir a verdade, mas apenas se aproximar dela.

  1. A comprovação da verdade científica

Karl Popper (1902-1994)  afirma que uma das questões que mais afligem ao ser humano, sem dúvida, diz respeito à busca da verdade  e, portanto, à validade da ciência.  É sabido que a tarefa do cientista consiste em delimitar as leis científicas e, para isso, deve adotar um método. Desde Francis Bacon, a Ciência tem seguido o princípio de que para descrever uma lei da natureza é preciso testar reiteradamente, colher e registrar os resultados, aguardar que isso se repita com vários outros pesquisadores para, então, ser considerada válida. Isto é, uma lei científica é válida quando a comunidade científica, fundada em experiências particulares, colhe resultados semelhantes ou pretensamente iguais repetidas vezes (POPPER, Karl. Lógica da Investigação Científicain Os Pensadores. São Paulo: Abril Cultural, 1975).

Karl Popper afirma que é chamada “indutiva” uma inferência quando ela passa de enunciados particulares, ou experimentos, aos enunciados universais, tais como as hipóteses ou “teorias”. Popper questiona se pode passar de enunciados singulares para universais com a certeza da verdade. Para começar a solucionar o problema, os defensores da indução entendem ser necessário estabelecer um Princípio de Indução, o qual possa garantir o processo. Para Popper, isso é impossível ou mesmo supérfluo, posto que esse Princípio não garante nada uma vez que se funda no mesmo método inconsistente. Para ser válido, um Princípio de Indução deveria ser universal e como o pesquisador parte sempre do singular, isto não lhe permitiria chegar logicamente ao universal, segundo Popper.

Para tentar resolver esse problema, Popper estabeleceu o que ele mesmo denomina ”método dedutivo de teste”. Para testar uma teoria, Popper segue quatro passos, ou espécies de provas: 1º) Testes internos: buscam a coerência das conclusões extraídas a partir do enunciado; 2º) Testes da forma: consiste nos testes para se saber se a teoria é, de fato, uma teoria empírica ou científica ou meramente tautologia, isto é, proposição analítica que permanece sempre verdadeira, uma vez que o atributo é uma repetição do sujeito; 3º) Testes de inovação: verificação se a teoria realmente é nova ou já está compreendida por outras existentes no sistema; e, 4º) Testes empíricos: verificação da aplicabilidade das conclusões extraídas da teoria nova. Estes são os principais testes, pois a teoria pode passar incólume nos três passos anteriores e ser falseada pela aplicação empírica de suas conclusões, caso em que a teoria não será considerada válida.

Para Karl Popper a sustentação de uma teoria é sempre provisória posto que suas conclusões serão sempre testadas empiricamente. Enquanto a teoria se sustentar, nenhum progresso terá havido. Ao contrário, quando uma prova falsear a teoria vigente, então a ciência evoluirá. Nesse sentido é que se deve, pois, sempre buscar falsear a teoria e não confirmá-la, também porque a tentativa de confirmação seria infinita, no tempo e no espaço. Dessa forma, Popper afirma que uma teoria será mais válida quanto mais for falseável, ou seja, quanto mais existirem possibilidades de ser falseada e, mesmo assim, ela continuar respondendo aos problemas científicos. Uma vez propostas, as teorias especulativas terão que ser comprovadas rigorosa e implacavelmente pela observação e a experimentação. As teorias que não superam as provas observáveis e experimentais devem ser eliminadas e substituídas por outras conjecturas especulativas.

Segundo Popper, a Ciência progride graças ao ensaio e ao erro, às conjecturas e refutações. O método da ciência é o método de conjecturas audazes e engenhosas seguidas de tentativas rigorosas de falseá-las. Só sobrevivem as teorias mais aptas. Nunca se pode dizer licitamente que uma teoria é verdadeira, pode-se dizer com otimismo que é a melhor disponível, que é melhor que qualquer das que existiam antes. Segundo a falseabilidade, pode-se demonstrar que algumas teorias são falsas recorrendo aos resultados da observação e da experimentação. Mas Popper, ao tentar derrubar o método indutivo, criou também outro problema, qual seja, a necessidade de um novo critério de demarcação entre o que é Ciência e o que não é, pois até então o método indutivo era próprio da Ciência e o distinguia da Metafísica, esta última, sabidamente especulativa. Em outras palavras, não se delimita, tão somente pela indução, o que é e o que não é ciência, porquanto qualquer pessoa, a mais leiga, pode elaborar um enunciado desse tipo. Logo, o que demarca a Ciência da não ciência é a falseabilidade, como diz Popper.  Enfim, para Popper, é necessário o enunciado poder ser testado empiricamente, não pela sua verificabilidade, mas pela sua falseabilidade. Dessa forma, fica evidenciada, claramente o mito da verdade científica, sobretudo pela insuficiência de seus métodos, o que deve nos levar à reflexão acerca das soluções científicas.

* Fernando Alcoforado, 80, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) e Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

 

WHY MOON IS IMPORTANT TO LIFE ON THE EARTH PLANET

Fernando Alcoforado*

Earth was formed about 4.6 billion years ago from the disk of gas and dust that formed the Sun and the other bodies of the Solar System. The Moon, in turn, was formed about 100 million years after Earth after a violent impact on Earth from a body the size of Mars called Theia. The huge impact tore off part of the Earth, which was then a magma sphere, and put it into Earth orbit. The fragments that resulted from the clash between Earth and Theia formed the Moon.

The newly created Earth-Moon system began to exert a mutual gravitational attraction. Such an attraction has produced (and continues to produce) the dissipation of an enormous amount of energy from the friction of the oceans with the seabed during the tides’ comings and goings. As a consequence of such dissipation, the Earth’s rotation speed was reduced from about 6 hours, which lasted the primitive Earth day without Moon until the current 24 hours. At present the Moon continues to slow the Earth’s rotation at a rate of about 1.5 milliseconds per century. To compensate for this decrease in the speed of rotation of the Earth, the lunar rotation energy needs to increase which produces a gradual distance from the Moon to the Earth at a rate of about 3.82 centimeters each year (Stacey, F.D. Physics of the Earth. New York: John Willey & Sons, 1969).

The distance from the Moon to the Earth is due to the friction between the surface of the Earth and the huge body of water that is on it and, over time, the Earth rotates a little more slowly on its axis. A kind of gravitational embrace joins the Earth and the Moon. Then, as the motion of the Earth decreases, that of the Moon accelerates. Moreover, when something in orbit accelerates, that acceleration pushes it out. For each action there is an equal and opposite reaction. This is Newton’s third law. The distance from the Moon affects our planet in many ways. To begin with, as the Earth rotates more slowly, the days get longer. They are longer by two milliseconds each century.

What would happen to the Earth if the Moon were continually moving away? It would be catastrophic for the planet Earth because the days could be 48 times longer. During the night, temperatures would kill everyone cold. Throughout the day, no one could stand the heat. On the coast, there would be violent winds of 200 km / h. In terms of life there would be almost nothing left Other than super-resistant bacteria and worms. All this shows how Earth is dependent on this barren mineral ball we call the Moon. Just to give you an idea, before the Moon began to orbit our planet, one day it would last anywhere from six to eight hours. Since then, interaction with the Moon has been slowing the rotation of the planet. By celestial mechanics, this happens as the Moon moves away.

More than 4 billion years ago, it is estimated that the Moon was only 25,000 kilometers from Earth. Today, the distance is 15 times greater. With this spacing of the Moon relative to Earth, the rotation speed of the planet has gradually diminished. In about 3 billion years, the length of day had evolved to 18 hours. Following this trend, the 24-hour day that prevails today will not last forever. The Moon will continue to distance itself now, at a faster pace than before, at a rate of 3.8 centimeters per year. This process must continue until the satellite is 560,000 kilometers away. When this occurs, the rotation of the Earth will stabilize, the days will take 1,152 hours and life on the planet will be unfeasible. This process will take at least 4 billion years to happen. Probably, in this chaotic scenario will not have humans to witness it because in the next billion years, the Sun will be 10% warmer enough to make any form of life on Earth be unfeasible.

Many people wonder: what would happen if the Moon suddenly disappeared? At once someone would say that we could enjoy the stars, the Milky Way, and other wonders of the cosmos without being overshadowed by the lunar light. There would also be no solar eclipses and lunar eclipses. In addition, all the romanticism and mystery associated with our satellite, which inspired so many songs, poems, short stories, novels, and so many artists would disappear, but, only that would happen if our satellite suddenly disappeared? Of course not!

The main consequences of the sudden disappearance of the Moon would be: 1) the disappearance of the phenomenon of the tides; 2) the end of the stability of the axis of rotation of the Earth; 3) the end of many terrestrial species and plants; And, 4) drastic and global climate changes due to the disappearance of the tides and the destabilization of the axis of rotation of the Earth. The disappearance of the phenomenon of tides resulting from the gravity of the Moon would lead to the weakening of ocean currents whose waters would tend to stagnate. The margins of the seas would lose their system of drainage and natural cleaning due to the advance and retreat of the waters. The oceanic water would tend to redistribute, taking the course of the poles, and the level of the sea would rise in the coasts. The consequence of all this would be a drastic change in the Earth’s climate.

The end of the stability of the Earth’s axis of rotation would occur with terrestrial precession that would become slower without the Moon, as when a top begins to sway, about to fall, and can vary its axis in a chaotic way between 0 and 90 degrees. The axis of rotation of Earth is 23 degrees from the plane of its orbit caused by the orbital motion of the Moon that is responsible for the existence of the seasons, as we know them. The end of the stability of the axis of rotation of the Earth would result in climate change on a global scale, which could produce summers with temperatures that would exceed 100 degrees, and winters with temperatures below minus 80 degrees. In the most extreme case, the axis of rotation of the Earth could align directly in the direction of the Sun, which would cause areas of the planet to be under permanent sunshine and others in permanent obscurity. The gigantic thermal differences between one-half and the other of Earth would cause extreme winds, with speeds of more than 300 kilometers per hour and other dramatic meteorological phenomena.

The end of many species and terrestrial plants would occur with the disappearance of the Moon that would also affect life on Earth. The most immediate effect would be the disappearance of the Moon’s own reflected sunlight, which would alter the biological rhythms of many animal and plant species that have adapted and evolved under the cyclic presence of the lunar light. Many species would need to adapt suddenly to the total obscurity of moonless nights. The disappearance of the lunar tides would affect mainly the species adapted to the currents and marine currents, such as those that live in the coasts to which the flow of the tides takes the nutrients, or those that inhabit seas and oceans, accustomed to the current patterns of the marine currents.

Drastic and global climate change, resulting from the disappearance of the tides and destabilization of the axis of rotation of the Earth, would be the factors that would produce the most terrible consequences on terrestrial life. The vital rhythms of all animal and plant species would be altered by these climatic changes: migrations, the heat season, hibernation, etc. Plant growth would also be affected by extreme thermal variations. Many species would be unable to adapt, there would be massive extinction of plants and animals. In the very extreme case where the Earth’s axis of rotation pointed to the Sun, life on Earth as we know it would be impossible in either hemisphere, and would only be feasible at the equator, between the arid and icy hemispheres of the planet.

* Fernando Alcoforado, 80, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, engineer and doctor in Territorial Planning and Regional Development by the University of Barcelona, university professor and consultant in the areas of strategic  planning, business planning, regional planning and planning of energy systems, is author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) and Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

POURQUOI LA LUNE EST IMPORTANTE POUR LA VIE SUR LA PLANÈTE TERRE

Fernando Alcoforado*

La Terre s’est formée il y a environ 4,6 milliards d’années à partir du disque de gaz et de poussière qui a formé le Soleil et les autres corps du système solaire. La Lune, à son tour, s’est formée environ 100 millions d’années après la Terre après un violent impact sur la Terre d’un corps de la taille de Mars appelé Theia. L’énorme impact a arraché une partie de la Terre, qui était alors une sphère de magma, et l’a mise en orbite terrestre. Les fragments résultant de l’affrontement entre Terre et Theia ont formé la Lune.

Le nouveau système Terre-Lune a commencé à exercer une attraction gravitationnelle mutuelle. Une telle attraction a produit (et continue de produire) la dissipation d’une énorme quantité d’énergie provenant du frottement des océans avec les flux marins pendant le flux et le reflux des marées. À la suite d’une telle dissipation, la vitesse de rotation de la Terre a ralenti, passant d’environ 6 heures du premier jour terrestre sans lune aux 24 heures actuelles. Aujourd’hui, la Lune continue de freiner la rotation de la terre à un rythme d’environ 1,5 milliseconde chaque siècle. Pour compenser cette diminution de la vitesse de rotation de la Terre, l’énergie de rotation lunaire doit augmenter, ce qui produit une augmentation progressive de la distance de la Lune à la Terre à une vitesse d’environ 3,82 centimètres chaque année [Stacey, F.D. Physics of the Earth (Physiques of the Terre). John Willey & Sons, 1969].

L´augmentation progressive de la distance de la Lune par rapport à la Terre est dû au frottement entre la surface de la terre et l’immense étendue d’eau qui s’y trouve et, avec le temps, la Terre tourne un peu plus lentement autour de son axe. La Terre et la Lune sont unies par une sorte de calin gravitationnel. Puis, à mesure que le mouvement de la Terre ralentit, celui de la Lune s’accélère. Et quand quelque chose en orbite accélère, cette accélération le pousse vers l’extérieur. Pour chaque action, il y a une réaction égale et opposée, selon la troisième loi de Newton. La distance de la Lune affecte notre planète de plusieurs façons. Pour commencer, comme la Terre tourne plus lentement, les jours s’allongent. Ils sont déjà plus longs, de deux millièmes de seconde chaque siècle.

Qu’arriverait-il à la Terre si la lune s’éloignait continuellement? Ce serait catastrophique pour la planète Terre car les jours pourraient être 48 fois plus longs. La nuit, les températures tueraient tout le monde avec le froid. Tout au long de la journée, personne ne pouvait supporter la chaleur. Sur la côte, il y aurait des vents violents de 200 km / h. En termes de vie, il ne resterait presque plus que des bactéries et des vers super résistants. Tout cela montre comment la Terre dépend de cette boule stérile de minéraux que nous appelons la Lune. Juste pour vous donner une idée, avant que le satellite ne commence à orbiter autour de notre planète, un jour avait la durée entre six et huit heures. Depuis lors, l’interaction avec la Lune a ralenti la rotation de la planète Terre. Par la mécanique céleste, cela se produit lorsque la Lune s’éloigne de la planète Terre.

Il y a plus de 4 milliards d’années, on estime que la Lune n’était qu’à 25 000 kilomètres de la Terre. Aujourd’hui, la distance est 15 fois plus grande. Avec l´augmentation progressive de la distance de la Lune par rapport à la Terre, la vitesse de rotation de la planète a progressivement ralenti. Vers 3 milliards d’années, la durée de la journée était déjà passée à 18 heures. Suivant cette tendance, la journée actuelle de 24 heures ne durera pas éternellement. La Lune continuera de s’éloigner maintenant, à un rythme plus rapide qu’auparavant, à un rythme de 3,8 centimètres par an. Ce processus devrait se poursuivre jusqu’à ce que le satellite soit à 560 000 kilomètres. Lorsque cela se produit, la rotation de la Terre se stabilisera, les jours seront de 1 152 heures et la vie sur la planète ne sera pas viable. Ce processus prendra au moins 4 milliards d’années pour se produire. Probablement, dans ce scénario chaotique, il n’y aura pas d’humains pour en être témoin car dans les milliards d’années à venir, le Soleil sera 10% plus chaud qui sera suffisant pour rendre impossible toute forme de vie sur Terre.

Beaucoup se demandent: que se passerait-il si la Lune disparaissait soudainement? On dirait immédiatement que nous pourrions profiter des étoiles de la Voie lactée et d’autres merveilles du cosmos sans être éclipsés par le clair de Lune. Il n’y aurait pas non plus d’éclipses solaires et lunaires. De plus, tout le romantisme et le mystère associés à notre satellite, qui a inspiré tant de chansons, poèmes, contes, romans et tant d’artistes, disparaîtraient. Mais cela n’arriverait-il que si notre satellite disparaissait soudainement? Bien sûr que non!

Les principales conséquences de la disparition soudaine de la Lune seraient: 1) la disparition du phénomène de marée; 2) la fin de la stabilité de l’axe de rotation de la Terre; 3) la fin de nombreuses espèces et plantes terrestres; et 4) le changement climatique radical et mondial résultant de la disparition des marées et de la déstabilisation de l’axe de rotation de la Terre. La disparition du phénomène de marée résultant de la gravité de la Lune entraînerait un affaiblissement des courants océaniques dont les eaux auraient tendance à stagner. Les rives des mers perdraient leur drainage et leur système de nettoyage naturel en raison de l’avance et du retrait des eaux. L’eau de l’océan tendrait à se redistribuer, se dirigeant vers les pôles, et le niveau de la mer augmenterait sur les côtes. La conséquence de tout cela serait un changement radical du climat de la Terre.

La fin de la stabilité de l’axe de rotation de la Terre se produirait avec la précession de la Terre qui ralentirait sans la Lune, comme quand une toupie commence à osciller, sur le point de tomber, et que son axe peut varier de façon chaotique entre 0 et 90 degrés. L’axe de rotation de la Terre est à 23 degrés du plan de son orbite provoqué par le mouvement orbital de la Lune qui est responsable de l’existence des stations telles que nous les connaissons. La fin de la stabilité de l’axe de rotation de la Terre entraînerait un changement climatique à l’échelle mondiale qui pourrait produire des étés avec des températures supérieures à 100 degrés et des hivers avec des températures inférieures à moins 80 degrés. Dans le cas le plus extrême, l’axe de rotation de la Terre pourrait s’aligner directement vers le Soleil, ce qui entraînerait des zones de la planète sous insolation permanente et d’autres dans une obscurité permanente. Les gigantesques différences thermiques entre la moitié et l’autre de la Terre provoqueraient des vents extrêmes avec des vitesses de plus de 300 kilomètres par heure et d’autres phénomènes météorologiques dramatiques.

La fin de nombreuses espèces et plantes terrestres se produirait avec la disparition de la Lune qui affecterait également la vie sur Terre. L’effet le plus immédiat serait la disparition de la propre lumière solaire de la Lune, ce qui modifierait les rythmes biologiques de nombreuses espèces animales et végétales qui se sont adaptées et ont évolué sous la présence cyclique de la lumière lunaire. De nombreuses espèces devraient soudainement s’adapter à l’obscurité totale des nuits sans lune. La disparition des marées lunaires affecterait principalement les espèces adaptées aux flux et courants marins, comme celles qui vivent sur les côtes où les courants de marée transportent des nutriments, ou celles qui habitent les mers et les océans habituées aux schémas actuels des courants marins.

Les changements climatiques drastiques et mondiaux résultant de la disparition des marées et de la déstabilisation de l’axe de rotation de la Terre seraient les facteurs qui produiraient les conséquences les plus désastreuses pour la vie sur la planète Terre. Les rythmes vitaux de toutes les espèces animales et végétales seraient altérés par ces changements climatiques: migrations, saison chaude, hibernation, etc. La croissance des plantes serait également affectée par des variations thermiques extrêmes. De nombreuses espèces seraient incapables de s’adapter et il y aurait une extinction massive des plantes et des animaux. Dans le cas très extrême, que nous avons vu plus tôt, que l’axe de rotation de la terre finirait par pointer vers le soleil, la vie sur terre telle que nous la connaissons serait impossible dans l’un ou l’autre hémisphère, et peut-être uniquement viable sur l’équateur entre les hémisphères ardent et glacée de la planète.

* Fernando Alcoforado, 80, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, ingénieur et docteur en planification territoriale et développement régional pour l’Université de Barcelone, professeur universitaire et consultant dans les domaines de la planification stratégique, planification d’entreprise, planification régionale et planification énergétique, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) et Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

PORQUE A LUA É IMPORTANTE PARA A VIDA NO PLANETA TERRA

Fernando Alcoforado*

A Terra se formou há uns 4,6 bilhões de anos, a partir do disco de gás e pó que formou o Sol e os demais corpos do Sistema Solar. A Lua se formou, por sua vez, há cerca de 100 milhões de anos depois da Terra, após um violento impacto sobre a Terra de um corpo do tamanho de Marte, denominado Theia. O enorme impacto arrancou parte da Terra, que na época era uma esfera de magma, e a colocou em órbita terrestre. Os fragmentos que resultaram do choque entre Terra e Theia formaram a Lua.

O sistema Terra-Lua que passou a existir começou a exercer uma atração gravitacional mútua. Tal atração produziu (e continua produzindo) a dissipação de uma enorme quantidade de energia decorrente da fricção dos oceanos com os fundos marinhos durante as idas e vindas das marés. Como consequência de tal dissipação, a velocidade de rotação da Terra se reduziu de cerca de 6 horas que durava o primitivo dia terrestre sem Lua até as 24 horas atuais. Na atualidade a Lua continua freando a rotação da Terra a uma taxa de cerca de 1,5 milésimos de segundo a cada século. Para compensar essa diminuição na velocidade de rotação da Terra, a energia de rotação lunar precisa aumentar o que produz um gradual afastamento da Lua em relação à Terra, a uma velocidade de uns 3,82 centímetros a cada ano (Stacey, F.D. Physics of the Earth, John Willey & Sons, 1969).

O afastamento da Lua em relação à Terra se deve à fricção entre a superfície da Terra e a enorme massa de água que está sobre ela e faz com que, ao longo do tempo, a Terra gire um pouco mais lentamente sobre o seu eixo. A Terra e a Lua são unidas por uma espécie de abraço gravitacional. Então, à medida que o movimento da Terra diminui, o da Lua acelera. E, quando algo que está em órbita acelera, essa aceleração a empurra para fora. Para cada ação há uma reação igual e oposta, segundo a terceira lei de Newton. A distância da Lua afeta nosso planeta de várias formas. Para começar, à medida que a Terra gira mais devagar, os dias ficam mais longos. Eles já estão mais longos, em dois milésimos de segundo a cada século.

O que aconteceria com a Terra se a Lua se afastasse continuamente? Seria catastrófico para o planeta Terra porque os dias poderiam ser 48 vezes mais longos. Durante a noite, as temperaturas matariam todo mundo de frio. Ao longo do dia, ninguém suportaria o calor. No litoral, haveria ventos violentíssimos de 200 km/h. Em termos de vida não sobraria quase nada, a não ser bactérias e vermes super-resistentes. Tudo isso mostra como a Terra é dependente dessa bola estéril de minerais que chamamos de Lua. Só para dar uma ideia, antes de o satélite começar a orbitar nosso planeta, um dia durava algo entre seis e oito horas. De lá para cá, a interação com a Lua vem freando a rotação do planeta. Pela mecânica celeste, isso acontece conforme a Lua se afasta.

Há mais de 4 bilhões de anos, estima-se que a Lua ficava a apenas 25 mil quilômetros da Terra. Hoje, a distância é 15 vezes maior. Com este afastamento da Lua em relação à Terra, a velocidade de rotação do planeta foi diminuindo aos poucos. Em cerca de 3 bilhões de anos, a duração do dia já tinha saltado para 18 horas. Seguindo esta tendência, o dia de 24 horas que prevalece hoje não vai durar para sempre. A Lua continuará se distanciando agora, a um ritmo mais rápido do que antes, a uma taxa de 3,8 centímetros por ano. Esse processo deve continuar até que o satélite esteja a 560 mil quilômetros de distância. Quando isso ocorrer, a rotação da Terra vai se estabilizar, os dias vão ter 1 152 horas e a vida no planeta será inviável. Este processo vai demorar pelo menos uns 4 bilhões de anos para acontecer. Provavelmente, neste cenário caótico não vai ter seres humanos para testemunhá-lo porque no próximo bilhão de anos, o Sol vai estar 10% mais quente que será suficiente para inviabilizar qualquer forma de vida na Terra.

Muitos se perguntam: o que aconteceria se a Lua desaparecesse de repente? De imediato, alguém diria que poderíamos desfrutar das estrelas, da Via Láctea e de outras maravilhas do cosmo sem ser ofuscados pela luz lunar. Deixariam de existir também os eclipses solares e os lunares. Além disso, desapareceria todo o romantismo e o mistério associado ao nosso satélite, que inspirou tantas canções, poemas, contos, romances, e tantos artistas. Mas, aconteceria só isso se nosso satélite desaparecesse de repente? Claro que não!

As principais consequências do desaparecimento repentino da Lua seriam: 1) o desaparecimento do fenômeno das marés; 2) o fim da estabilidade do eixo de rotação da Terra; 3) o fim de muitas espécies e plantas terrestres; e, 4) mudanças climáticas drásticas e globais decorrentes do desaparecimento das marés e da desestabilização do eixo de rotação da Terra. O desaparecimento do fenômeno das marés resultantes da gravidade da Lua levaria ao enfraquecimento das correntes oceânicas cujas águas tenderiam a se estancar. As margens dos mares perderiam seu sistema de drenagem e limpeza natural decorrente do avanço e recuo das águas. A água oceânica tenderia a redistribuir-se, tomando o rumo dos polos, e o nível do mar se elevaria nas costas. A consequência de tudo isso seria uma mudança drástica do clima da Terra.

O fim da estabilidade do eixo de rotação da Terra ocorreria com a precessão terrestre que se tornaria mais lenta sem a Lua, como quando um pião começa a balançar, prestes a cair, podendo variar seu eixo de forma caótica entre 0 e 90 graus. O eixo de rotação da Terra está a 23 graus em relação ao plano de sua órbita provocado pelo movimento orbital da Lua que é responsável pela existência das estações do modo como as conhecemos. O fim da estabilidade do eixo de rotação da Terra resultaria em uma mudança climática em escala global, que poderia produzir verões com temperaturas que superariam os 100 graus, e invernos com temperaturas abaixo de 80 graus negativos. No caso mais extremo, o eixo de rotação terrestre poderia alinhar-se diretamente na direção do Sol, o que faria com que zonas do planeta ficassem sob uma permanente insolação e outras, em permanente obscuridade. As gigantescas diferenças térmicas entre uma metade e a outra da Terra provocariam ventos extremos, com velocidade de mais de 300 quilômetros por hora e outros fenômenos meteorológicos dramáticos.

O fim de muitas espécies e plantas terrestres ocorreria com o desaparecimento da Lua que afetaria também a vida na Terra. O efeito mais imediato seria o desaparecimento da própria luz solar refletida pela Lua, que alteraria os ritmos biológicos de muitas espécies animais e vegetais que se adaptaram e evoluíram sob a presença cíclica da luz lunar. Muitas espécies precisariam adaptar-se de repente à obscuridade total das noites sem lua. O desaparecimento das marés lunares afetaria sobretudo as espécies adaptadas aos fluxos e correntes marinhos, como as que vivem nas costas às quais o fluxo das marés leva os nutrientes, ou as que habitam mares e oceanos, acostumadas aos atuais padrões das correntes marinhas.

As mudanças climáticas drásticas e globais, decorrentes do desaparecimento das marés e da desestabilização do eixo de rotação da Terra, seriam os fatores que produziriam as consequências mais terríveis sobre a vida terrestre. Os ritmos vitais de todas as espécies animais e vegetais seriam alterados por essas mudanças climáticas: as migrações, a época do cio, a hibernação etc. O crescimento das plantas também seria afetado pelas variações térmicas extremas. Muitas espécies seriam incapazes de se adaptar e haveria extinção maciça de plantas e animais. No caso muito extremo, que vimos antes, de que o eixo de rotação terrestre acabasse apontando para o Sol, a vida na Terra tal como a conhecemos seria impossível em qualquer dos dois hemisférios, e somente seria talvez viável no equador, entre os hemisférios ardente e gelado do planeta.

* Fernando Alcoforado, 80, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) e Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

IMPERIALISM, WAR AND TERRORISM OF STATE

Fernando Alcoforado*

Terrorism is used by organizations as a means to an end. Terrorism differs from guerrilla warfare in terms of the targets to be reached in its actions. While the guerrillas choose military targets, the opposing forces, their logistics, ammunition depots, terrorism seeks to indiscriminately target civilian and military targets. Terrorism seeks not only selective attack but also mass attack. A terrorist movement may, depending on the correlation of forces, use simultaneously or separately terrorism, guerrilla warfare and classic military operations provided it has sufficient capacity. This is the case with al Qaeda and the so-called Islamic State that emerged in the Middle East.

Terrorist action has always been seen in the past in a revolutionary context. The most common purpose of terrorism in the past was to cause a state of fear in government or loss of confidence by specific sectors of the population supporting it. Terrorism is often the last resort of the desperate, and can be used by large or small organizations. Terrorism depends heavily on surprise and often occurs when and where it is least expected. In the past, terrorism avoided killing and injuring women, children, and the elderly or other innocents. Nowadays, terrorism no longer delimits those who will be hit or not by their actions. The term terrorism came to be more widely used in history from 1793 in Robespierre’s France during the regime of the Terror of the French Revolution.

In an article published in Revista Espaço Acadêmico, no. 51, August 2005, under the title A questão do terrorismo e suas raízes históricas (The issue of terrorism and its historical roots), Lejeune Mato Grosso Xavier de Carvalho, Unesp Foundation sociologist, professor at Unimep, member of the Lisbon Academy of High Studies and member of International Sociological Association states that one can roughly classify the actions that one calls “terrorists” into four types: 1) religious and fundamentalist terror (in the case of extremist Muslims, Christians and Jews who often make their bodies a weapon of war); 2) those of the mercenary type (those whose interest is the money); 3) the nationalists (such as the Irish Republican Army – IRA in Ireland and ETA in the Basque country); and 4) the ideological ones, whether they are leftists who fight for social or right-wing changes aimed at maintaining the status quo.

Another form of terrorism not mentioned by Lejeune Mato Grosso Xavier de Carvalho is state terrorism. Modernly, the term state terrorism emerged during the Cold War to designate Operation Condor, which was a strategy of repression common to the dictatorial governments of South America in the 1970s, to confront the far left movements, notably in Brazil, in the Chile and Argentina. The term state terrorism has become common in the denunciation of repressive practices by the secret services that have resulted in murder, torture, censorship of the media, and utilization at last a series of state-based violence similar to those employed in terrorism. Despite having the same consequences but being quite different in methods, political repression in dictatorial states is often associated with terrorism, such as Terror during the Rosbepierre French Revolution, repression in Nazi Germany-occupied Europe and dictatorships in America. Latin America in the 1960s and 1970s, among other exception regimes worldwide.

The world is currently experiencing two types of globalized terrorism: 1) the terrorism practiced by the great imperialist powers, especially by the ruling sectors of the United States and their allies aiming at the conquest of natural resources and the domination of the markets of the peripheral capitalist countries; and 2) the terrorism practiced by organizations that react to imperialist action around the world, especially Arabs, combating the military occupation of their countries by the great imperialist powers, as occurs in Iraq, Afghanistan, Libya and Syria, among others countries.

The imperialism practiced by the great western powers against the peripheral capitalist countries has meant war and terrorism throughout history. Of all the violent forces that have emerged to date throughout history, it has been imperialism (German, British, French and American, among others) who has committed the greatest crimes against humanity – from inter-imperialist wars such as World War I and World War II to the so-called limited wars such as the Korean War, the Vietnam War, and the sponsorship of terror regimes such as military dictatorships implemented through coups d’état in Latin America in the 1960s and 1970s, including Brazil. Through regimes subordinate to its interests, the United States government and its allies sponsored all possible acts of terrorism, including illegal arrests and detentions, torture, murder, among other actions. Thousands of people in Asia, Africa and Latin America have suffered from these acts of state terrorism.

Over the past 20 years, the US government and its allies have unleashed five wars of aggression on a large scale – those of Iraq, Yugoslavia, Afghanistan, Libya and Syria – and in the process have profited from spoils such as oil resources, while the peoples of these countries have suffered terribly from imperialist terror in all these wars of aggression. The most recent targets of the United States and its allies are the attempted overthrow of the Assad regimes in Syria and the Ayatollahs in Iran with Israeli support. What makes such wars extremely abhorrent is the cowardice of using airpower with even the use of unmanned drones and other high-tech weapons to bomb and massacre the civilian population, destroy infrastructure including dams, power plants , hospitals, kindergartens, schools, factories, office buildings, churches and the media.

The United States and its imperialist allies are responsible for the economic and social ruin of the world’s peripheral countries. It also instigates ethnic and religious conflicts, generating civil rivalries and massacres. The United States is humanity’s number one aggressor and terrorist. No matter how much be, occasionally shocking the activity of small private terrorist groups they are all tiny in the face of US super terrorism. Internally, the United States government is oppressing immigrants from Asia, Africa and Latin America and, above all, those who belong to the Islamic faith. They enacted the fascist Patriot Act during the Bush administration, under the guise of anti-terrorism, imposing on other countries the model of undemocratic legislation and draconian measures.

The US government is urging the repression of the countries under its tutelage to make arbitrary arrests, incommunicado detention, military courts against civilians, killings or kidnapping of anti-imperialist leaders to stand trial in their own controlled courts. In addition, the CIA is granted permissions to assassinate anti-imperialist leaders abroad, as practiced by the United States in drone killing Iranian General Qasem Soleimani, chief of Iran’s Quds intelligence force, last Thursday (2/1/2020). The escalation of globalized terror finds fertile ground for its proliferation with state terrorism practiced by the United States government.

The history of humanity has been characterized for centuries by the victory of barbarism over civilization. Civilization and Barbarism are antonyms, meaning words with opposite meanings. According to the dictionary, Civilization is a word imbued with qualities, that is, it includes the educated goods, those who live in society, in short, those that conform to pre-established standards. In contrast, Barbarism is the state in which barbarians live and these are those without culture, without civilization, violent, cruel, in short, those who do not fit pre-established standards. If the concept of civilized does not apply to people on the capitalist periphery because they are not well educated, the concept of barbarian applies more than that of civilized to those who consider themselves civilized (US and European governments) because they are violent, cruel and do not conform to established civilizational standards.

The current situation on the planet is dramatic. Humanity is overwhelmed by the great world powers at the service of the monopolistic groups that rule their economies and do everything in their own interests, disrespecting laws, cultures, traditions and religions. Invasions into peripheral countries, openly or surreptitiously, are carried out in violation of international laws and treaties. From its origins as a mode of social production in the sixteenth century, capitalism has been characterized by barbarism, which means savagery, cruelty, inhumanity, and incivility. Massacres, genocides and multiple forms of human degradation characterize capitalism in its historical development. It is in the capitalist periphery that capitalism exposes its most barbaric face. This is what capitalism has been doing all over the world, destroying it for money, killing it for wealth and power, making lives no longer worth anything, all for power and wealth! As long as this situation prevails in the world terrorism tends to proliferate in all quarters of the Earth.

The scenario we currently live on the planet features what Thomas Hobbes called the state of nature or the state of war of all against all. According to Hobbes, in the “state of nature”, the absence of law reigns, so there is no room for justice. In this context, everyone seeks to defend their rights by force. In the ‘state of nature’, therefore, as Hobbes had conceived, the war of everybody against everybody reigns. The state of nature is therefore the status of liberty without external law, that is, no one can be obliged to respect the rights of others nor can he be sure that others will respect their own, much less be protected against acts of violence of others [HOBBES, Thomas. Leviatã (Leviathan). Sao Paulo: Ícone  Editora]. This is the prevailing situation in current international relations.

There is not at present what Hobbes calls common power on the world level, that is, the agreement of all to go out of the state of nature to establish a situation that allows each one to follow the dictates of reason, with the certainty of that others will do the same. The attempt to form the League of Nations after World War I and the UN after World War II was not able to establish a common interstate power at the world level to prevent the war of everybody against everybody. This is, according to Hobbes, the preliminary condition for peace. Hobbes states that the state of nature is a state of insecurity and that the purpose of the common power is to remove the causes of this insecurity. The main cause of insecurity is the lack of a common world power and the only way to do this is for all states to consent to surrender their own power by transferring it to a legal entity, such as the restructured UN.

Until humanity builds a common world power, the law of the jungles will prevail, that is the state of nature on the international plane. As long as the political, economic and military hegemony of the United States prevails that seeks to impose its will in the context of the interstate system, the war of everybody against everybody will prevail. Until the emergence of a common world power, that is, a world government, the law of the more strong will govern international relations. Moreover, this is the worst-case scenario because no country, however powerful, will be able to avoid the war of everybody against everybody.

* Fernando Alcoforado, 80, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, engineer and doctor in Territorial Planning and Regional Development by the University of Barcelona, university professor and consultant in the areas of strategic  planning, business planning, regional planning and planning of energy systems, is author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) and Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

IMPÉRIALISME, GUERRE ET TERRORISME D’ÉTAT

Fernando Alcoforado*

Le terrorisme est utilisé par les organisations comme un moyen de parvenir à une fin. Le terrorisme diffère de la guérilla en termes d’objectifs à atteindre dans ses actions. Alors que la guérilla choisit des cibles militaires, les forces adverses, leur logistique, leurs dépôts de munitions, le terrorisme cherche à viser sans discrimination des cibles civiles et militaires. Le terrorisme vise non seulement une attaque sélective, mais aussi une attaque de masse. Un mouvement terroriste peut, en fonction de la corrélation des forces, utiliser simultanément ou séparément le terrorisme classique, la guérilla et les opérations militaires, à condition qu’il ait une capacité suffisante. C’est le cas d’Al-Qaïda et du soi-disant État islamique qui a vu le jour au Moyen-Orient.

L’action terroriste a toujours été vue dans le passé dans un contexte révolutionnaire. Dans le passé, l’objectif le plus courant du terrorisme était de provoquer un état de peur du gouvernement ou une perte de confiance de certains segments de la population qui le soutenaient. Le terrorisme est souvent le dernier recours des désespérés et peut être utilisé par de grandes ou de petites organisations. Le terrorisme dépend fortement de la surprise et se produit souvent au moment et à l’endroit où il est le moins attendu. Dans le passé, le terrorisme a évité de tuer et de blesser des femmes, des enfants, des personnes âgées ou d’autres innocents. De nos jours, le terrorisme ne délimite plus ceux qui seront ou non frappés par leurs actions. Le terme terrorisme est devenu plus répandu dans l’histoire à partir de 1793 dans la France de Robespierre sous le régime de la Terreur de la Révolution française.

Dans un article publié dans Revista Espaço Acadêmico, no. 51, août 2005, sous le titre A questão do terrorismo e suas raízes históricas (La question du terrorisme et ses racines historiques), Lejeune Mato Grosso Xavier de Carvalho, sociologue de la Fondation Unesp, professeur à Unimep, membre de l’Académie des hautes études de Lisbonne et membre de International Sociological Association déclare que l’on peut à peu près classer les actions que l’on appelle «terroristes» en quatre types: 1) terreur religieuse et fondamentaliste (dans le cas des musulmans, des chrétiens et des extrémistes juifs qui font souvent leur corps une arme de guerre); 2) ceux de type mercenaire (ceux dont l’intérêt est l’argent); 3) les nationalistes (comme l’armée républicaine irlandaise – IRA en Irlande et ETA au Pays basque); et 4) les idéologiques, qu’ils soient de gauche qui luttent pour des changements sociaux ou de droite, visant à maintenir le statu quo.

Une autre forme de terrorisme non mentionnée par Lejeune Mato Grosso Xavier de Carvalho est le terrorisme d’État. De façon moderne, le terme terrorisme d’État est apparu pendant la guerre froide pour désigner l’opération Condor, qui était une stratégie de répression commune aux gouvernements dictatoriaux d’Amérique du Sud dans les années 1970, pour affronter les mouvements d’extrême gauche, notamment au Brésil, dans la Chili et Argentine. Le terme terrorisme d’État est devenu courant dans la dénonciation des pratiques répressives par les services secrets qui ont entraîné le meurtre, la torture, la censure des médias et la poursuite d’une série de violences étatiques similaires à celles employées dans le terrorisme. En dépit d’avoir les mêmes conséquences, mais étant assez différentes dans les méthodes, la répression politique dans les États dictatoriaux est souvent associée au terrorisme, comme la terreur pendant la Révolution française de Rosbepierre, la répression dans l’Europe occupée par l’Allemagne nazie et les dictatures en Amérique latine dans les années 1960 et 1970, entre autres régimes d’exception dans le monde.

Le monde connaît actuellement deux types de terrorisme mondialisé: 1) le terrorisme pratiqué par les grandes puissances impérialistes, en particulier les secteurs dirigeants des États-Unis et de leurs alliés visant à la conquête des ressources naturelles et à la domination des marchés des pays capitalistes périphériques; et 2) le terrorisme pratiqué par les organisations qui réagissent à l’action impérialiste dans le monde, en particulier les Arabes, combattant l’occupation militaire de leur pays par les grandes puissances impérialistes, comme cela se produit en Irak, en Afghanistan, en Libye et en Syrie, entre autres pays.

L’impérialisme pratiqué par les grandes puissances occidentales contre les pays capitalistes périphériques a signifié la guerre et le terrorisme à travers l’histoire. De toutes les forces violentes qui ont émergé à ce jour au cours de l’histoire, c’est l’impérialisme (allemand, britannique, français et américain, entre autres) qui a commis les plus grands crimes contre l’humanité – des guerres inter-impérialistes telles que la Première Guerre mondiale et la Seconde Guerre mondiale à les guerres dites limitées comme la guerre de Corée, la guerre du Vietnam et le parrainage de régimes terroristes tels que les dictatures militaires mises en œuvre par des coups d’État en Amérique latine dans les années 1960 et 1970, y compris au Brésil. Par le biais de régimes subordonnés à ses intérêts, le gouvernement des États-Unis et ses alliés ont parrainé tous les actes de terrorisme possibles, y compris les arrestations et détentions illégales, la torture, le meurtre, entre autres actions. Des milliers de personnes en Asie, en Afrique et en Amérique latine ont souffert de ces actes de terrorisme d’État.

Au cours des 20 dernières années, le gouvernement américain et ses alliés ont déclenché cinq guerres d’agression à grande échelle – celles de l’Irak, de la Yougoslavie, de l’Afghanistan, de la Libye et de la Syrie – et, ce faisant, ont profité de butins tels que les ressources pétrolières, tandis que les peuples de ces pays ont terriblement souffert de la terreur impérialiste dans toutes ces guerres d’agression. Les cibles les plus récentes des États-Unis et de leurs alliés sont la tentative de renversement des régimes Assad en Syrie et des ayatollahs en Iran avec le soutien israélien. Ce qui rend ces guerres extrêmement odieuses, c’est la lâcheté d’utiliser la puissance aérienne avec même l’utilisation de drones sans pilote et d’autres armes de haute technologie pour bombarder et massacrer la population civile, détruire les infrastructures, y compris les barrages, les centrales électriques , hôpitaux, jardins d’enfants, écoles, usines, immeubles de bureaux, églises et médias.

Les États-Unis et leurs alliés impérialistes sont responsables de la ruine économique et sociale des pays périphériques du monde. Elle provoque également des conflits ethniques et religieux, générant des rivalités civiles et des massacres. Les États-Unis sont l’agresseur et le terroriste numéro un de l’humanité. Peu importe à quel point l’activité des petits groupes terroristes privés est choquante, car ils sont tous minuscules face au super terrorisme américain. Sur le plan interne, le gouvernement américain opprime les immigrés d’Asie, d’Afrique et d’Amérique latine et, surtout, ceux qui appartiennent à la religion islamique. Ils ont promulgué le fasciste Patriot Act sous l’administration Bush, sous couvert d’anti-terrorisme, imposant à d’autres pays le modèle d’une législation antidémocratique et de mesures draconiennes.

Le gouvernement américain exhorte la répression des pays sous sa tutelle à procéder à des arrestations arbitraires, à des détentions au secret, à des tribunaux militaires contre des civils, à des assassinats ou à des enlèvements de dirigeants anti-impérialistes pour qu’ils soient jugés par leurs propres tribunaux contrôlés. En outre, des autorisations sont accordées à la CIA pour assassiner des dirigeants anti-impérialistes à l’étranger tels que celui pratiqué par les États-Unis en drone tuant le général iranien Qasem Soleimani, chef des forces de renseignement iraniennes Quds, jeudi dernier (2/1/2020). L’escalade de la terreur mondialisée trouve un terrain fertile pour sa prolifération avec le terrorisme d’État pratiqué par le gouvernement américain.

L’histoire de l’humanité est caractérisée depuis des siècles par la victoire de la barbarie sur la civilisation. La civilisation et la barbarie sont des antonymes, signifiant des mots avec des significations opposées. Selon le dictionnaire, la civilisation est un mot imprégné de qualités, c’est-à-dire qu’il comprend les biens éduqués, ceux qui vivent en société, bref ceux qui se conforment à des normes préétablies. En revanche, la barbarie est l’état dans lequel vivent les barbares et ce sont ceux sans culture, sans civilisation, violents, cruels, bref, ceux qui ne correspondent pas aux normes préétablies. Si le concept de civilisé ne s’applique pas aux gens de la périphérie capitaliste parce qu’ils ne sont pas bien éduqués, le concept de barbare s’applique plus que celui de civilisé à ceux qui se considèrent comme civilisés (gouvernements américain et européen) parce qu’ils sont violents, cruels et ne sont pas conformes aux normes civilisationnelles établies.

La situation actuelle sur la planète est dramatique. L’humanité est submergée par les grandes puissances mondiales au service des groupes monopolistiques qui gouvernent leurs économies et font tout dans leur propre intérêt, sans respecter les lois, les cultures, les traditions et les religions. Les invasions dans les pays périphériques, ouvertement ou subrepticement, sont effectuées en violation des lois et traités internationaux. Depuis ses origines en tant que mode de production sociale au XVIe siècle, le capitalisme a été caractérisé par la barbarie, ce qui signifie la sauvagerie, la cruauté, l’inhumanité et l’incivilité. Massacres, génocides et formes multiples de dégradation humaine caractérisent le capitalisme dans son évolution historique. C’est dans la périphérie capitaliste que le capitalisme expose son visage le plus barbare. C’est ce que le capitalisme a fait partout dans le monde, détruisant pour de l’argent, tuant pour la richesse et le pouvoir, rendant les vies ne valant plus rien, tout pour le pouvoir et la richesse! Tant que cette situation prévaut dans le monde, le terrorisme a tendance à proliférer dans tous les coins du monde.

Le scénario que nous vivons actuellement sur la planète présente ce que Thomas Hobbes a appelé l’état de nature ou l’état de guerre de tous contre tous. Selon Hobbes, dans “l’état de nature”, l’absence de loi règne, il n’y a donc pas de place pour la justice. Dans ce contexte, chacun cherche à défendre ses droits par la force. Dans «l’état de nature», donc, comme Hobbes l’avait conçu, règne la guerre de tous contre tous. L’état de nature est donc l’état de liberté sans loi extérieure, c’est-à-dire que nul ne peut être obligé de respecter les droits d’autrui ni être sûr que les autres respecteront les leurs, encore moins être protégé contre les actes de violence. des autres [HOBBES, Thomas. Leviatã (Leviathan). São Paulo: Icone Editora]. Telle est la situation qui prévaut dans les relations internationales actuelles.

Il n’y a pas actuellement ce que Hobbes appelle le pouvoir commun au niveau mondial, c’est-à-dire l’accord de tous de sortir de l’état de nature pour établir une situation qui permette à chacun de suivre les préceptes de la raison, avec la certitude de que d’autres feront de même. La tentative de former la Société des Nations après la Première Guerre mondiale et l’ONU après la Seconde Guerre mondiale n’a pas réussi à établir une puissance interétatique commune au niveau mondial pour empêcher la guerre de tous contre tous. C’est, selon Hobbes, la condition préalable à la paix. Hobbes déclare que l’état de nature est un état d’insécurité et que le but de le pouvoir commun est d’éliminer les causes de cette insécurité. La principale cause d’insécurité est l’absence d’une pouvoir mondiale commune et la seule façon d’y parvenir est que tous les États consentent à céder leur propre pouvoir en le transférant à une entité juridique, telle que l’ONU restructurée.

Jusqu’à ce que l’humanité construise une pouvoir mondiale commune, la loi des jungles prévaudra, c’est-à-dire l’état de la nature sur le plan international. Tant que règnera l’hégémonie politique, économique et militaire des États-Unis qui cherche à imposer sa volonté dans le contexte du système interétatique, la guerre de tous contre tous prévaudra. Jusqu’à l’émergence d’une pouvoir mondiale commune, c’est-à-dire d’un gouvernement mondial, les relations internationales seront régies par la loi du plus fort. Et c’est le pire des cas car aucun pays, si puissant soit-il, ne pourra éviter la guerre de tous contre tous.

* Fernando Alcoforado, 80, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, ingénieur et docteur en planification territoriale et développement régional pour l’Université de Barcelone, professeur universitaire et consultant dans les domaines de la planification stratégique, planification d’entreprise, planification régionale et planification énergétique, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) et Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).

IMPERIALISMO, GUERRA E TERRORISMO DE ESTADO

Fernando Alcoforado*

O terrorismo é utilizado por organizações como um meio para alcançar um fim. O terrorismo difere da guerrilha quanto aos alvos a atingir em suas ações. Enquanto a guerrilha escolhe alvos militares, as forças do adversário, sua logística, os depósitos de munições, o terrorismo procura atingir alvos civis e militares indiscriminadamente. O terrorismo não busca apenas o ataque seletivo, mas também o ataque em massa. Um movimento terrorista pode, em função da correlação de forças, utilizar simultaneamente ou separadamente terrorismo, guerrilha e operações militares clássicas desde que disponha da capacidade suficiente. Este é o caso da Al Qaeda e do denominado Estado Islâmico que surgiram no Oriente Médio.

A ação terrorista sempre foi vista no passado em um contexto revolucionário.  O propósito mais comum do terrorismo no passado era causar um estado de medo no governo ou perda de confiança por parte de setores específicos da população que o apoiava. Terrorismo é freqüentemente o último recurso dos desesperados, e pode ser usado por grandes ou pequenas organizações. O terrorismo depende fortemente da surpresa e é frequente que ocorra quando e onde é menos esperado. No passado, o terrorismo evitava matar e ferir mulheres, crianças, idosos ou outros inocentes. Nos tempos atuais, o terrorismo não delimita mais aqueles que serão atingidos ou não por suas ações. O termo terrorismo passou a ser mais largamente empregado na história a partir de 1793 na França de Robespierre durante o regime do Terror da Revolução Francesa.

Em artigo publicado na Revista Espaço Acadêmico, no. 51, de agosto de 2005, sob o título A questão do terrorismo e suas raízes históricas, Lejeune Mato Grosso Xavier de Carvalho, sociólogo da Fundação Unesp, professor da Unimep, membro da Academia de Altos Estudos Ibero-Árabe de Lisboa e membro da International Sociological Association, afirma que pode-se classificar, a grosso modo, em quatro tipos as ações que se dizem “terroristas”: 1) o terror religioso e fundamentalista (no caso de muçulmanos, cristãos e judeus extremistas que muitas vezes fazem de seu corpo uma arma de guerra); 2) os do tipo mercenário (aqueles cujo interesse é o dinheiro); 3) os nacionalistas (como o exército Republicano Irlandês – IRA na Irlanda e a ETA, no país Basco); e, 4) os ideológicos sejam eles de esquerda que lutam por mudanças sociais ou de direita que tem por objetivo a manutenção do “status quo”.

Outra forma de terrorismo não citada por Lejeune Mato Grosso Xavier de Carvalho é o terrorismo de estado. Modernamente, a expressão terrorismo de Estado surgiu durante a Guerra Fria para designar a Operação Condor que foi uma estratégia de repressão comum aos governos ditatoriais da América do Sul na década de 1970, para o enfrentamento dos movimentos de extrema esquerda, notadamente no Brasil, no Chile e na Argentina. A expressão terrorismo de Estado passou a ser comum nas denúncias das práticas repressivas pelos serviços secretos que resultaram em assassinatos, torturas, censura aos meios de comunicação e exercício enfim de uma série de violências praticadas pelo estado similares aos empregados no terrorismo. Apesar de ter as mesmas consequências, mas ser bastante diferente nos métodos, a repressão política em estados ditatoriais é muitas vezes associada ao terrorismo, como o Terror durante a Revolução Francesa de Rosbepierre, a repressão na Europa ocupada pela Alemanha nazista e as ditaduras na América Latina nas décadas de 1960 e 1970, entre outros regimes de exceção em todo o mundo.

O mundo vive na atualidade dois tipos de terrorismo globalizado: 1) o terrorismo praticado pelas grandes potências imperialistas, sobretudo pelos setores dirigentes dos Estados Unidos e seus aliados visando a conquista de recursos naturais e a dominação dos mercados dos países capitalistas periféricos; e, 2) o terrorismo praticado por organizações  que reagem à ação imperialista em todo o mundo, sobretudo árabes, combatendo a ocupação militar de seus países pelas grandes potências imperialistas, como ocorre no Iraque, no Afeganistão, na Líbia e na Síria, entre outros países.

O imperialismo praticado pelas grandes potências ocidentais contra os países capitalistas periféricos tem significado guerra e terrorismo ao longo da história. De todas as forças violentas surgidas até hoje ao longo da história, foi o imperialismo (alemão, britânico, francês e norte-americano, entre outros), quem cometeu os maiores crimes contra a Humanidade — das guerras interimperialistas como a 1ª e 2ª Guerra Mundial às chamadas guerras limitadas como a Guerra da Coreia, a Guerra do Vietnã e o patrocínio dos regimes de terror como as ditaduras militares implantadas através de golpes de estado na América Latina nas décadas de 1960 e 1970, inclusive no Brasil. Através de regimes subordinados a seus interesses, o governo dos Estados Unidos e seus aliados patrocinaram todos os possíveis atos de terrorismo, o que inclui prisões e detenções ilegais, torturas, assassinatos, entre outras ações. Milhares de pessoas na Ásia, África e América Latina sofreram com esses atos de terrorismo de Estado.

Nos últimos 20 anos, o governo dos Estados Unidos e seus aliados desencadearam cinco guerras de agressão em larga escala — as do Iraque, da Iugoslávia, do Afeganistão, da Líbia e da Síria — e no processo lucraram com espólios, como os recursos petrolíferos, enquanto os povos destes países sofreram terrivelmente com o terror imperialista em todas essas guerras de agressão. Os alvos mais recentes dos Estados Unidos e seus aliados são a tentativa de derrubada dos regimes de Assad na Síria e a dos aiatolás no Irã contando com o apoio de Israel. O que faz tais guerras serem extremamente abomináveis é a covardia na utilização do poder aéreo com o uso inclusive de aviões não tripulados (drones) e de outras armas de alta tecnologia para bombardear e massacrar a população civil, destruir infraestruturas, incluindo barragens, usinas elétricas, hospitais, creches, escolas, fábricas, edifícios de escritórios, igrejas e meios de comunicação.

Os Estados Unidos e seus aliados imperialistas são responsáveis pela ruína econômica e social dos países periféricos do mundo. Além disso, instiga os conflitos étnicos e religiosos, gerando rivalidades e massacres civis. Os Estados Unidos é o agressor e terrorista número um da Humanidade. Não importa o quanto seja, ocasionalmente, chocante a atividade de pequenos grupos privados de terroristas todos eles são minúsculos perante o superterrorismo dos Estados Unidos. Internamente, o governo dos Estados Unidos está oprimindo imigrantes da Ásia, África e América Latina e, sobretudo, aqueles que pertencem à fé islâmica. Promulgaram o Patriot Act fascista durante o governo Bush, sob o disfarce de antiterrorismo, impondo a outros países o modelo de legislação antidemocrática e medidas draconianas.

O governo dos Estados Unidos está induzindo a repressão dos países sob sua tutela a fazer prisões arbitrárias, detenções incomunicáveis e sem acusações, tribunais militares contra civis, assassinatos ou rapto de líderes anti-imperialistas para serem julgados em tribunais controlados por eles mesmos. Além disso, são concedidas permissões à CIA para assassinar líderes anti-imperialistas no estrangeiro como o praticado pelos Estados Unidos assassinando por drones o general iraniano Qasem Soleimani, chefe da Força de inteligência Quds do Irã, na última quinta-feira (2/1/2020). A escalada do terror globalizado encontra um terreno fértil para sua proliferação com o terrorismo de Estado praticado pelo governo dos Estados Unidos.

A história da humanidade tem se caracterizado há séculos pela vitória da barbárie sobre a civilização. Civilização e Barbárie são antônimas, ou seja, palavras com significados opostos. Segundo o dicionário, Civilização é uma palavra imbuída de qualidades, isto é, inclui os bens educados, os que vivem em sociedade, em suma, os que se adéquam a padrões pré-estabelecidos. Em contraposição, Barbárie é o estado em que vivem os bárbaros e estes são aqueles sem cultura, sem civilização, violentos, cruéis, em suma, os que não se adéquam a padrões pré-estabelecidos. Se o conceito de civilizado não se aplica aos povos da periferia capitalista porque não são bem educados, o conceito de bárbaro se aplica mais do que o de civilizado aos que se consideram civilizados (governos norte-americanos e europeus) porque são violentos, cruéis e não se adéquam aos padrões civilizacionais estabelecidos.

A situação atual do planeta é dramática. . A humanidade se sente esmagada pelas grandes potências mundiais a serviço dos grupos monopolistas que comandam suas economias e que tudo fazem em defesa de seus interesses, desrespeitando leis, culturas, tradições e religiões. Invasões em países periféricos, de forma aberta ou sub-reptícia, são realizadas desrespeitando leis e tratados internacionais. Desde suas origens como modo de produção social no século XVI, o capitalismo tem se caracterizado pela barbárie que significa selvageria, crueldade, desumanidade, incivilidade. Massacres, genocídios e múltiplas formas de degradação humana caracterizam o capitalismo em seu desenvolvimento histórico. É na periferia capitalista que o capitalismo expõe sua face mais bárbara.  É o que tem feito o capitalismo em todo o mundo, destruindo por dinheiro, matando por riqueza e poder, fazendo com que as vidas já não valham mais nada, tudo isso por poder e riqueza! Enquanto prevalecer esta situação no mundo o terrorismo tende a proliferar em todos os quadrantes da Terra.

O cenário em que vivemos atualmente no planeta apresenta o que Thomas Hobbes denominou de estado de natureza ou estado de guerra de todos contra todos. Segundo Hobbes, no “estado de natureza”, reina a ausência do Direito, logo não há espaço para a justiça. Neste contexto, todos procuram defender seus direitos por meio da força. No “estado de natureza”, portanto, como concebera Hobbes, reina a guerra de todos contra todos. O estado de natureza é, portanto, o estado da liberdade sem lei externa, isto é, ninguém pode estar obrigado a respeitar os direitos alheios tampouco pode estar seguro de que os outros respeitarão os seus e muito menos pode estar protegido contra os atos de violência dos demais (HOBBES, Thomas. Leviatã. São Paulo: Ícone Editora). Esta é a situação que prevalece nas relações internacionais atuais.

Não existe na atualidade o que Hobbes denomina de poder comum no plano mundial, isto é, a existência de acordo de todos para sair do estado de natureza para instituir uma situação tal que permita a cada um seguir os ditames da razão, com a segurança de que os outros farão o mesmo. A tentativa de constituir a Liga das Nações após a 1ª Guerra Mundial e da ONU após a 2ª Guerra Mundial não foi capaz de estabelecer um poder comum interestatal no plano mundial para evitar a guerra de todos contra todos. Esta é, segundo Hobbes, a condição preliminar para obter a paz. Hobbes afirma que o estado de natureza é um estado de insegurança e que a finalidade de um poder comum é remover as causas dessa insegurança. A causa principal da insegurança é a falta de um poder mundial comum e o único meio para isso é que todos os estados consintam em renunciar a seu próprio poder transferindo-o para uma pessoa jurídica, como, por exemplo, a ONU reestruturada.

Enquanto a humanidade não construir um poder mundial comum prevalecerá a lei das selvas, isto é o estado de natureza no plano internacional. Enquanto prevalecer a hegemonia política, econômica e militar dos Estados Unidos que procura impor sua vontade no contexto do sistema interestatal, a guerra de todos contra todos imperará. Até o surgimento de um poder mundial comum, isto é, um governo mundial, as relações internacionais serão regidas pela lei do mais forte. E este é o pior cenário porque nenhum país por mais poderoso que seja terá capacidade de evitar a guerra de todos contra todos.

* Fernando Alcoforado, 80, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria) e Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019).