SCIENCE EXPLAINS THE CAUSES OF THE FINITUDE OF EVERYTHING

Fernando Alcoforado*

This article aims to scientifically demonstrate that living beings and planets like the Earth, stars like the Sun and the Universe we live in will come to an end due to entropy because they will evolve over time to a state of disorder. Entropy is commonly associated with the degree of disorder in a system. The greater the disorder of a thermodynamic system, the greater its entropy. Entropy is a thermodynamic quantity associated with the irreversibility of the states of a physical system. The article Sistemas abertos, fechados e isolados (geologia) (Open, closed and isolated systems (geology)) informs that, in Nature, three types of systems can be considered [1]: 1) open system, where there is exchange of energy and matter with the surrounding environment; 2) closed system, where there is an exchange of energy with the environment, but no exchange of matter, so that it remains constant and, 3) isolated system, in which there is no exchange of energy or matter. Living beings are examples of an open system because they are capable of exchanging energy and matter with the external environment (planet Earth). The planet Earth and the Sun are examples of closed systems, as they exchange energy with the surrounding environment, but the exchange of matter is not significant. Our Universe is an example of an isolated system because it does not exchange matter or energy with parallel universes, if they exist.

1.    Entropy and thermodynamic system

At the beginning of studies on thermodynamics, it was discovered that not all the heat produced in a steam engine was transformed into work. This energy that was lost from the system to the external environment was called entropy, which is the ratio between the amount of heat exchanged with the system and the initial absolute temperature of the system.. Entropy theory aims to measure the energy degradation that occurs in a system according to the Second Law of Thermodynamics and the fact that in any physical change not all of the energy that is in the initial system and that constitutes the body is found in the system and constitution of the final body. According to the Second Law of Thermodynamics or second principle of Thermodynamics, the amount of entropy of any thermodynamic system tends to increase with time, until it reaches a maximum value. The Second Law of Thermodynamics is related to the concept of entropy. It completes the First Law of Thermodynamics, which is based on the principle of conservation of energy. A thermodynamic system consists of input, processing and output elements. The steam engine is an example of a thermodynamic system that transforms the thermal energy of steam into mechanical energy using a piston that moves inside a cylinder. The difference between the heat input to the thermodynamic system of a steam engine and the output heat corresponds to the work done. A boiler is another example of a thermodynamic system that produces work by converting the energy of the fuel used into heat, and therefore into thermal energy. Another example of entropy is the lighting provided by incandescent lamps, in which not all of the electricity (energy) used is converted into the form of light (useful energy), but a part is lost as heat (useless energy for lighting). Thermal energy cannot be completely converted into work due to entropy.

In his work, Até o fim do tempo (Until the end of time) [2], Brian Greene, American theoretical physicist and mathematician, professor of Physics at Cornell University from 1990 to 1995 and at Columbia University since 1996 and president of the World Science Festival since 2008, states that, in the case of the steam engine, approximately 95% of the heat generated by burning wood or coal was lost to the environment as waste. Greene adds that “the Second Law of Thermodynamics applies to the entire Universe. According to Brian Greene, the Second Law of Thermodynamics describes a fundamental characteristic inherent in all matter and energy, regardless of its structure or form, whether animate or inanimate. It reveals that everything in the Universe has the overwhelming tendency to degrade, deteriorate, languish. Greene also claims, referring to Bertrand Russell (British mathematician, philosopher, logician and intellectual who had a considerable influence on mathematics, logic, set theory, linguistics, artificial intelligence, cognitive science, computer science and various areas of analytical philosophy , especially philosophy of mathematics, philosophy of language, epistemology and metaphysics) who said that “the future apparently holds continual deterioration, a relentless conversion of productive energy into useless heat, a constant exhaustion, as it were, of the batteries that power reality”. The Second Law of Thermodynamics applies to living beings like humans, to planets like Earth, to stars like the Sun and to the Universe in which we live.

2. Entropy of living beings

The article Entropia dos seres vivos (Entropy of living beings) [3] informs that living beings are open thermodynamic systems, that is, they are capable of exchanging energy with the external environment. The human body can be compared to a thermodynamic system that draws heat from a source (food) and does work using part of that energy. The World Health Organization recommends that every human being, to stay healthy, should ingest about 2000 food calories daily. As entropy designates the generalized tendency of all systems in the Universe, whether natural or man-made, to deteriorate, the human body also goes through a process of entropy because it grows old and one day it dies. Figure 1 explains the entropy of living beings.

Figure 1- Entropy of living beings

No alt text provided for this image

Source: https://evolucionismo.org/rodrigovras/termodinamica-e-evolucao-o-velho-argumento-da-segunda-lei/

Entropy shows us that the order we find in nature is the result of the action of fundamental forces that, when interacting with matter, allow it to organize itself. Since the formation of our planet, around five billion years ago, life has only managed to develop at the expense of transforming the energy received by the Sun into a useful form, that is, capable of maintaining organization. For this, we pay a high price: much of this energy is lost, mainly in the form of heat. Thus, in order for us to exist, we pay the price of increasing the disorganization of our planet. When the Sun can no longer provide this energy, in another five billion years, there will be no more life on Earth..

The article A entropia é contrária à existência de seres humanos? (Is entropy contrary to the existence of human beings?) [4] reports that the Second Law of Thermodynamics may seem contradictory to the existence of living organisms, because they are extremely organized. That is why the dilemma arises of knowing whether its existence is contrary to this principle of Thermodynamics. The answer is no, there is no contradiction. The explanation is that all living organisms, be they bacteria, plants or animals, draw energy from their surroundings, for example, obtaining energy through the combustion of organic matter, to increase and maintain their complex organization. For this reason, entropy decreases in living beings. However, that degree of order of its components, which decreases entropy, continues to increase the entropy around it. So, in summary: all forms of life, plus the waste products of their metabolisms, have a net increase in entropy. In addition, to sustain life, it is necessary to transfer energy to the living being. If you fail to do so, the organism soon dies and always tends towards the destruction of the order it had, that is, towards disorder or an increase in entropy.

The article Vida, morte e termodinâmica (Life, death and thermodynamics) [5] informs that living beings, according to thermodynamics, are capable of controlling this disorder caused by entropy due to the fact that they are open systems, have the capacity to incorporate free energy received from an external source, allowing the living being to maintain order in its system. All this causes the life cycle to maintain its thermodynamic balance. Our life constantly depends on the exchange of substances, and it depends a lot on solar energy, which is indispensable for life, for the continuation of species and for the conservation of morphological and functional characteristics. Everything that happens in Nature means an increase in entropy in the part of the world where it happens. Thus, a living organism continually increases its entropy – or, as one might say, produces positive entropy – and thus tends to approach the dangerous state of maximum entropy, which is death. An organism can only keep itself aloof, that is, alive, through a continual process of extracting negative entropy from the environment. An organism actually feeds on negative entropy. All living beings that we know obey the same set of laws: the physical laws, which govern the macro and microscopic world. All activities carried out by living beings depend on energy, which, according to Physics, is “capacity to perform work”.

With regard to entropy in human beings, it is clear that, over time, our organism is no longer able to win the battle of life. We begin to feel the effects of time and age. Our body can no longer keep the skin with the same elasticity, hair falls out and our organs no longer work properly. At a certain point, a fatal failure occurs and we die. As the maintenance of life is a struggle for organization, when this ceases, the body immediately begins to deteriorate and quickly loses all the characteristics that took many years to establish. The information accumulated over the years, recorded in our brain from specific configurations of neurons, will be lost and cannot be recovered again with the complete deterioration of our brain.

3. Entropy and the planet Earth

The article O planeta Terra como um sistema que opera como um organismo vivo (Planet Earth as a system that operates like a living organism) [13] demonstrates that the Earth behaves in accordance with the Gaia Hypothesis formulated by scientist James Lovelock, which describes the Earth as a system that operates like a living organism. System is an integrated set of interrelated and interdependent components that seek to achieve a goal. The planet Earth is a system that is part of a larger system that is the solar system that is characterized as a group of planets, small celestial bodies, natural satellites, etc., which are under the gravitational domain of a star like the Sun. In turn, the solar system is part of a larger system that is the Milky Way Galaxy, which, in turn, is part of a larger system that is the Universe. The Earth establishes energetic exchanges with the Universe, suffers the gravitational effect of the Moon, the Sun and the planets of the solar system, receives energy emanating from the Sun, which is used in several of its biological and geological processes and loses energy to space under the heat form.

The article A Terra, o cosmos e a entropia (The Earth, the cosmos and entropy) [6] informs that planet Earth is not an isolated system. The Earth receives electromagnetic radiation, mostly coming from the Sun, it is continuously bombarded both by elementary particles (cosmic radiation, neutrinos, etc.) and by meteorites, and even converts gravitational energy from the Earth-Moon and Earth-Sun systems into energy mechanics of planetary fluids (tidal), of which a small part is transformed into heat. However, almost all energy exchanges between Earth and outer space take the form of electromagnetic radiation. The article cited above informs that our planet acts as an energy converter or a net entropy producer and this need imposed by the laws of Physics translates precisely into the immense phenomenological diversity that occurs on the planet and into the most astonishing of all phenomena: the life. The circulation of planetary fluids is not only a gigantic energy conversion machine, but also provides the gathering of substances that make possible the occurrence of a multiplicity of physical-chemical processes. All these processes must, according to the 2nd Principle of Thermodynamics, increase the global entropy. This does not mean that in a particular subsystem of the global system (Earth) entropy cannot decrease while in the global system the overall balance is positive.

The article A Terra, o cosmos e a entropia (The Earth, the cosmos and entropy) [6] also informs that the concept of entropy is extremely important when we study the growing disorder that has occurred on planet Earth, due to the increased exploitation of its resources, deforestation, pollution, among other sources of degradation. The greater this degradation, the greater the entropy of the planet, which could reach such a high stage that life on Earth will no longer be possible (Figure 2).

Figure 2- Environmental entropy on planet Earth

No alt text provided for this image

Source: https://www.researchgate.net/figure/Figura-2-A-entropia-ambiental-gerada-pelo-processo-economico-resulta-em-um-fluxo_fig2_366810383

Entropy shows us that the order we find in nature is the result of the action of fundamental forces that, when interacting with matter, allow it to organize itself. Since the formation of our planet, around five billion years ago, life has only managed to develop at the expense of transforming the energy received by the Sun into a useful form, that is, capable of maintaining organization. For this, we pay a high price: much of this energy is lost, mainly in the form of heat. Thus, in order for us to exist, we pay the price of increasing the disorganization of our planet. When the Sun can no longer supply this energy, in another five billion years, there will be no more life on Earth.

4. Entropy and the Sun

The book A escalada da ciência e tecnologia e sua contribuição à sobrevivência da humanidade (The Escalation of Science and Technology and Its Contribution to Humanity’s Survival) [8] reports that the Sun and the rest of the solar system formed from a giant rotating cloud of gas and dust known as the Solar Nebula. As the nebula collapsed under its gravity, spinning very fast and becoming flattened into a disk, most of the material was pulled towards the center to form the Sun. Like most other stars, the Sun is composed primarily of hydrogen, followed by helium. Almost all the rest of the Sun’s matter consists of seven other elements: oxygen, carbon, neon, nitrogen, magnesium, iron, and silicon. When the Sun reaches the end of its existence in 4 billion years it will become a red giant. Astronomers’ calculations indicate that when the Sun becomes a red giant, the Sun’s diameter at its equator will grow to the point of surpassing the planet Mars, consuming all the rocky planets: Mercury, Venus, Earth and Mars. That will indeed be the end of planet Earth. The Sun’s death will occur when it is in an advanced phase of its life. As its fuel is consumed, the temperature increases and the Sun expands. In this phase, the Sun is called a red giant. After this stage, the gravitational force prevails and the star begins to shrink. When that happens, the solar system will fall into chaos and the Sun will lose a tremendous amount of mass. As it grows, the Sun loses mass and dies, bringing the solar system to an end.

The article O que é a Morte Térmica do Universo? (What is the Thermal Death of the Universe?) [7] informs that the end of life of smaller stars, such as the Sun, is not characterized by a dramatic explosion (supernova), but by a slower process of loss of the outermost layers until leaving to behind a very massive core, absurdly dense, very hot, and the approximate size of the Earth, known as a White Dwarf. Even with the drastic reduction in nuclear fusion capacity, the gravitational collapse of White Dwarfs is prevented by counterbalancing forces caused by electrons (electronic degeneracy pressure). Laws of Quantum Mechanics prevent the electrons in atoms from being squeezed together beyond a certain point (impossibility of occupying the same state), allowing the stability of the remaining mass. In that sense, the atoms inside a White Dwarf take on a locked crystalline structure that radiates heat for billions-trillions of years. Eventually, however, these bodies become extremely cold, giving rise to a Black Dwarf.

5. Entropy and the Universe

The article O que é a Morte Térmica do Universo? (What is the Thermal Death of the Universe?) [7] also informs that thermal death is the phenomenon in which all processes in the Universe will eventually stop, because of the action of the temporal flux on entropy, that is, with entropy continuously growing. In other words, given enough time, energy will be distributed equally throughout the Universe, and there will be no hot or cold sources to do work, because everything will have the same temperature. When the Universe reaches its state of maximum entropy – state of thermodynamic equilibrium – no work will be possible to be done and all available energy will be converted into unavailable energy. Furthermore, since the moment of the Big Bang, the average temperature of the Universe has steadily decreased by 10-43 seconds. The initial temperature of the Universe was 1032 K, but now it’s around 2.73 K on average. That is, the Universe is also moving towards absolute zero (0 K), following the maximum entropy that tends to “infinity”. That is why the Thermal Death of the Universe is also known as the ‘Great Cold’.

The article cited above also informs that, moving towards maximum entropy, only stars will remain, which will still be able to continue releasing a flow of heat for billions of years, until the fuel for nuclear fusion runs out and they die. If the mass is sufficient, their “death” will give rise to either a neutron star or a black hole. The neutron stars will cool down to the temperature of the surrounding environment, leaving only black holes and a bit of matter. Without energy for the birth of new stars, there will be no more stars, galaxies or life. Black holes will begin to suck in all remaining visible matter, and starting 10100 years after the Big Bang, black holes themselves will begin to “evaporate”, due to the emission of Hawking radiation that results from quantum effects from black holes that can emit radiation with a blackbody spectrum. Only darkness will reign in the Universe, marking its “death”. That would be the probable end of our Universe. In this sense, it is also easy to understand why the existence of a beginning for the Universe is so obvious. At that beginning, the entropy of the Universe was so low that it becomes something beyond comprehension. Everything was concentrated in a singularity, until the explosion in the form of the Big Bang. This very low entropy is what allows everything we see today. Everything is happening because the Universe evolved from a very low entropy to a continuous increase in entropy.

6. Conclusions

Based on the above, all living beings, all planets, all stars and the Universe, which constitute thermodynamic systems, will come to an end when their respective entropies reach the maximum value. To avoid the end of human beings as a species, which will occur with an increase in its entropy, it is necessary to make scientific and technological advances in medicine that provide the conditions for increasing human longevity. The article Mundo rumo à singularidade humana (World towards human singularity) [9] informs that the year 2045 will mark the beginning of an era in which medicine will be able to offer humanity the possibility of living for a time never seen in history. Organs that are not working can be exchanged for others, better and created especially for us. Parts of the heart, lungs and even the brain could be replaced. Tiny computer circuits will be implanted in the human body to control chemical reactions that take place inside cells. We will be just a few steps away from immortality. This is the prediction of a group of scientists known for being at the forefront of research that permeates topics such as computer science, biology and biotechnology. Among them are George Church, a professor at Harvard University, in the United States, Aubrey de Gray, a gerontologist and biomedical specialist in anti-aging, and engineer Raymond Kurzweil, from the Massachusetts Institute of Technology (MIT). They are the leaders of a new philosophy, called the Singularity.

To avoid the end of human beings as a species, which could occur with the increase in entropy of the planet Earth, the Sun and the Universe, it is necessary to overcome the challenges described below [10]: 1) Production of rockets that reach speeds close to that of light to travel by the Universe; 2) Production of technologies capable of protecting human beings in space travel; 3) Identification of other Earth-like worlds capable of being habitable by humans; and, 4) Enabling human beings to survive in space and in habitable places outside Earth. The first great human challenge is the production of rockets capable of reaching speeds close to the speed of light (300,000 km/s) given the need to promote intergalactic travel by human beings to the ends of the Universe and even to other universes parallel. The second great human challenge is the production of technologies capable of protecting human beings in space travel by dealing with the lack of gravity and cosmic radiation, which, on Earth, are protected by the magnetic field and the atmosphere. The third great human challenge is to identify other worlds similar to Earth capable of being habitable by human beings by sending space probes to carry out research in possible locations inside and outside the solar system. So far there is no evidence that there is another place inside or outside the solar system conducive to Earth-like life. The fourth great human challenge is the ability of human beings to survive in space and in habitable places outside the Earth with the development of science and technology to overcome the biological limitations of human beings.

The article Rumo à colonização de outros mundos (Towards the colonization of other worlds) [11] informs that, currently, there are efforts to colonize the planet Mars. However, from what is known about Mars, this planet does not present the necessary conditions for human beings to inhabit it because it does not have a magnetic field or atmosphere and biosphere similar to those of Earth, as well as an average gravitational acceleration of about 38% at of the Earth that is harmful to human life. There is no evidence on Mars that it has a structured global magnetic field similar to Earth’s that protects us from cosmic rays and solar winds. Mars lost its magnetosphere 4 billion years ago, but has locally induced magnetism spots. Mars does not have a global magnetic field to guide charged particles entering the atmosphere, but it does have multiple umbrella-shaped magnetic fields, mostly in the southern hemisphere, that are remnants of a global magnetic field that decayed billions of years ago. Compared to Earth, Mars’ atmosphere is very thin. Martian soil is slightly alkaline and contains elements such as magnesium, sodium, potassium and chlorine that are nutrients found on Earth and necessary for plant growth.

The aforementioned article also informs that the surface temperatures of Mars vary from −143 °C (in the winter in the polar ice caps) to maximums of +35 °C (in the equatorial summer). Mars has the biggest dust storms in the Solar System. These can range from a storm over a small area to massive storms covering the entire planet. They tend to occur when Mars is closest to the Sun as its global temperature increases. It is also known that liquid water cannot exist on the surface of Mars due to the low atmospheric pressure, which is about 100 times weaker than that of Earth. The two Martian ice caps appear to be made largely of water. The volume of water frozen in the south polar ice sheet, if melted, would be enough to cover the entire surface of the planet to a depth of 11 meters. There was the detection of the mineral jarosite (hydrated sulfate of iron and potassium formed by the oxidation of iron sulfides), which forms only in the presence of acidic water, demonstrating that water once existed on Mars. The loss of water from Mars to space results from the transport of water into the upper atmosphere, where it is dissociated to hydrogen and escapes the planet due to its weak gravity. Mars has Earth-like seasons due to the similar inclinations of the two planets’ rotation axes. The lengths of Martian seasons are about twice as long as those on Earth, as Mars is farther away from the Sun, which makes the Martian year about two Earth years long. The attempt to colonize the planet Mars could mean the beginning of the process of developing space colonies for use by humans outside Earth. The challenges to colonizing Mars need to be overcome to make this planet a more immediate escape alternative for humanity when needed.

The article A inteligência artificial na conquista humana do espaço, suas outras aplicações e seus riscos (Artificial intelligence in the human conquest of space, its other applications and its risks) [12] reports that Mars, like other planets in the Solar System, is not even remotely similar to Earth, which is why, to make its colonization possible, it is necessary to “terraform” it, that is, to reproduce on this planet an environment that offers the minimum premises for the survival of the human species. Terraforming will be one of the breakthroughs in the new era of space exploration. Terraforming (adaptation of the atmosphere, temperature, topography and ecology of a planet or a natural satellite to make it capable of sustaining an ecosystem with Earth beings) is just one of the advances expected for the new era of space exploration, in addition to the increase in new materials and the production of complex cutting-edge propulsion rockets.

To avoid the end of humans as a species, which could occur with increasing entropy and the end of the Universe, it is necessary to research the existence or not of a multiverse or parallel universes, which is an important question to study because the existence or not of a multiverse or parallel universes opens up the possibility of humans surviving the end of our Universe by heading to other parallel universes. Multiverse is a term used to describe the hypothetical set of possible universes, that is, parallel universes, including the Universe we live in. Together, these universes comprise all that exists: the totality of space, time, matter, energy, and the physical laws and constants that describe them. The concept of the Multiverse has its roots in extrapolations, so far unscientific, of modern Cosmology and Quantum Physics, and also encompasses several ideas arising from the Theory of Relativity in order to configure a scenario in which the existence of countless universes may be possible where, on a global scale, all probabilities and combinations occur in some of the universes. Simply because there is enough space to couple other universes in a larger dimensional structure: the so-called Multiverse [8].

The universes would be, in an analogy, similar to bubbles floating in a larger space capable of sheltering them. Some would even be interconnected with each other by black holes, which are cosmic objects whose gravitational pull is so intense that nothing that penetrates their perimeter – not even light – can escape, or wormholes, which are purely hypothetical shortcuts between two distant points in the cosmos. That is, it is a tunnel, not a well. A black hole could function as the entrance to a wormhole. The idea that we live in a ‘multiverse’ composed of an infinite number of parallel universes has, for many years, been considered a scientific possibility. The challenge is to find a way to test this theory. In-depth research needs to be carried out, therefore, to determine the existence or not of a multiverse or parallel universes where humanity would head with the end of the Universe in which we live.

REFERENCES

1.             INFOPÉDIA. Sistemas abertos, fechados e isolados (geologia). Available on the website <https://www.infopedia.pt/apoio/artigos/$sistemas-abertos-fechados-e-isolados>. 

2.    GREENE, Brian. Até o fim do tempo. São Paulo: Companhia das Letras, 2021.

3.    ESALQ USP. Entropia dos seres vivos. Available on the website <http://www.esalq.usp.br/lepse/imgs/conteudo_thumb/Entropia-dos-Seres-Vivos.pdf>. 

4.             SANTIAGO, Jhordan. A entropia é contrária à existência de seres humanos? Available on the website <https://universoracionalista.org/a-entropia-e-contraria-a-existencia-de-seres-humanos/#>. 

5.    NOGUEIRA. Vivian. Vida, morte e termodinâmicaAvailable on the website <https://www.biologiaempauta.com/post/2018/11/05/vida-morte-e-termodin%C3%A2mica>. 

6.    Heitor, Antonio. A Terra, o cosmos e a entropia. Available on the website <https://www.spf.pt/magazines/GFIS/407/article/1238/pdf>.   

7.    SABER ATUALIZADO. Morte Térmica do Universo? Available on the website <https://www.saberatualizado.com.br/2017/03/morte-termica-do-universo.html>. 

8.    ALCOFORADO, Fernando. A escalada da ciência e tecnologia e sua contribuição à sobrevivência da humanidade. Curitiba: Editora CRV, 2022. 

9.    ALCOFORADO, Fernando. Mundo rumo à singularidade humana. Available on the website <https://www.academia.edu/43517794/MUNDO_RUMO_%C3%80_SINGULARIDADE_HUMANA>.

10. ALCOFORADO, Fernando. Os desafios humanos da conquista do espaço e da colonização de outros mundos. Available on the website <https://www.linkedin.com/pulse/os-desafios-humanos-da-conquista-do-espa%C3%A7o-e-de-alcoforado/?trk=pulse-article_more-articles_related-content-card&originalSubdomain=pt>.

11.          ALCOFORADO, Fernando. Rumo à colonização humana de outros mundos. Available on the website <https://www.academia.edu/101560183/RUMO_%C3%80_COLONIZA%C3%87%C3%83O_HUMANA_DE_OUTROS_MUNDOS>. 

12.          ALCOFORADO, Fernando. A inteligência artificial na conquista humana do espaço, suas outras aplicações e seus riscos. Available on the website <https://www.slideshare.net/Faga1939/a-inteligncia-artificial-na-conquista-humana-do-espao-suas-outras-aplicaes-e-seus-riscospdf>.  

13. ALCOFORADO, Fernando. O planeta Terra como um sistema que opera como um organismo vivo. Available on the website <https://www.linkedin.com/pulse/o-planeta-terra-como-um-sistema-que-opera-organismo-vivo-alcoforado/?originalSubdomain=pt>.

* Fernando Alcoforado, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, of the SBPC- Brazilian Society for the Progress of Science and of IPB- Polytechnic Institute of Bahia, engineer and doctor in Territorial Planning and Regional Development from the University of Barcelona, college professor (Engineering, Economy and Administration) and consultant in the areas of strategic planning, business planning, regional planning, urban planning and energy systems, was Advisor to the Vice President of Engineering and Technology at LIGHT S.A. Electric power distribution company from Rio de Janeiro, Strategic Planning Coordinator of CEPED- Bahia Research and Development Center, Undersecretary of Energy of the State of Bahia, Secretary of Planning of Salvador, is the author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), a chapter in the book Flood Handbook (CRC Press, Boca Raton, Florida United States, 2022) and How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).  

A CIÊNCIA EXPLICA SOBRE AS CAUSAS DA FINITUDE DE TUDO

Fernando Alcoforado*

Este artigo tem por objetivo demonstrar cientificamente que os seres vivos e os planetas como a Terra, as estrelas como o Sol e o Universo em que vivemos chegarão ao fim devido à entropia porque evoluirão com o tempo para um estado de desordem. A entropia é comumente associada ao grau de desordem de um sistema. Quanto maior a desordem de um sistema termodinâmico, maior a sua entropia. A entropia é uma grandeza termodinâmica associada à irreversibilidade dos estados de um sistema físico. O artigo Sistemas abertos, fechados e isolados (geologia), informa que, na Natureza, podem considerar-se três tipos de sistemas [1]: 1) sistema aberto, onde se verificam trocas de energia e de matéria com o meio envolvente; 2) sistema fechado, onde ocorre troca de energia com o ambiente, mas não troca de matéria, de modo que esta se mantém constante e, 3) sistema isolado, em que não há permutas de energia nem de matéria. Os seres vivos são exemplos de sistema aberto porque são capazes de realizar trocas de energia e de matéria com o meio externo (planeta Terra). O planeta Terra e o Sol são exemplos de sistemas fechados, pois estabelecem trocas de energia com o meio envolvente, mas o intercâmbio de matéria não é significativo. Nosso Universo é um exemplo de sistema isolado porque não realiza troca de matéria nem de energia com universos paralelos se eles existirem.  

1.    Entropia e sistema termodinâmico

No início dos estudos sobre a termodinâmica, descobriu-se que nem todo o calor produzido em uma máquina a vapor era transformado em trabalho. Essa energia que se perdia do sistema para o meio externo foi chamada de entropia, que é a razão entre a quantidade de calor trocada com o sistema e a temperatura absoluta inicial do sistema. A teoria da entropia tem por objetivo medir a degradação de energia que ocorre em um sistema de acordo com a Segunda Lei da Termodinâmica e o fato de que em qualquer mudança física nem toda a energia que está no sistema inicial e que constitui o corpo é encontrado no sistema e na constituição do corpo final. De acordo com a Segunda Lei da Termodinâmica ou segundo princípio da Termodinâmica, a quantidade de entropia de qualquer sistema termodinâmico tende a incrementar-se com o tempo, até alcançar um valor máximo. A Segunda Lei da Termodinâmica está relacionada com o conceito de entropia. Ela completa a Primeira Lei da Termodinâmica, a qual se fundamenta no princípio da conservação de energia. Um sistema termodinâmico é constituído por elementos de entrada, de processamento e de saída. A máquina a vapor é um exemplo de sistema termodinâmico que transforma a energia térmica do vapor em energia mecânica utilizando um êmbolo que se movimenta dentro de um cilindro. A diferença entre o calor na entrada do sistema termodinâmico de uma máquina a vapor e o calor de saída corresponde ao trabalho realizado. Uma caldeira é outro exemplo de sistema termodinâmico que produz trabalho ao converter a energia do combustível utilizado em calor, e por conseguinte em energia térmica. Outro exemplo de entropia é a iluminação fornecida por lâmpadas incandescentes, em que nem toda a eletricidade (energia) usada é convertida na forma de luz (energia útil), mas uma parte se perde na forma de calor (energia inútil para a iluminação). A energia térmica não pode ser completamente revertida em trabalho devido à entropia.

Em sua obra, Até o fim do tempo [2], Brian Greene, físico teórico e matemático norte-americano, professor de Física na Cornell University de 1990 a 1995 e na Columbia University desde 1996 e presidente do World Science Festival desde 2008, afirma que, no caso do motor a vapor, aproximadamente 95% do calor gerado pela queima de madeira ou carvão se perdia no meio ambiente como resíduo. Greene acrescenta que “a Segunda Lei da Termodinâmica se aplica a todo o Universo. De acordo com Brian Greene, a Segunda Lei da Termodinâmica descreve uma característica fundamental inerente a toda matéria e energia, independente de sua estrutura ou forma, seja animada ou inanimada. E revela que tudo no Universo tem a tendência avassaladora de se degradar, deteriorar, definhar. Greene afirma, também, fazendo referência a Bertrand Russel (matemático, filósofo, lógico e intelectual britânico que teve uma influência considerável em matemática, lógica, teoria dos conjuntos, lingüística, inteligência artificial, ciência cognitiva, ciência da computação e várias áreas da filosofia analítica, especialmente filosofia da matemática, filosofia da linguagem, epistemologia e metafísica) que disse que “o futuro aparentemente reserva uma deterioração contínua, uma conversão implacável de energia produtiva em calor inútil, uma exaustão constante, por assim dizer, das baterias que alimentam a realidade”. A Segunda Lei da Termodinâmica se aplica aos seres vivos como os humanos, aos planetas como a Terra, às estrelas como o Sol e ao próprio Universo em que vivemos.

2.    Entropia dos seres vivos

O artigo Entropia dos seres vivos [3] informa que os seres vivos são sistemas termodinâmicos abertos, ou seja, são capazes de realizar trocas de energia com o meio externo. O corpo humano pode ser comparado com um sistema termodinâmico que retira calor de uma fonte (os alimentos) e realiza trabalho usando parte dessa energia. A Figura 1 explica a entropia dos seres vivos.

Figura 1- Entropia dos seres vivos

No alt text provided for this image

Fonte: https://evolucionismo.org/rodrigovras/termodinamica-e-evolucao-o-velho-argumento-da-segunda-lei/

A Organização Mundial de Saúde recomenda que todo ser humano, para se manter saudável, deve ingerir cerca de 2000 calorias alimentícias diariamente. Como a entropia designa a tendência generalizada de todos os sistemas do Universo, sejam eles naturais ou feitos pelo homem, de deteriorar-se, o corpo humano passa, também, por um processo de entropia porque vai envelhecendo e um dia morre.

O artigo A entropia é contrária à existência de seres humanos? [4] informa que a Segunda Lei da Termodinâmica pode parecer contraditória à existência de organismos vivos, porque eles são extremamente organizados. É por isso que vem o dilema de saber se sua existência está contrariando esse princípio da Termodinâmica. Mas a resposta é não, não há contradição. A explicação é que todos os organismos vivos, sejam eles bactérias, plantas ou animais, extraem energia de seus arredores, por exemplo, obtendo energia através da combustão de matéria orgânica, para aumentar e manter sua complexa organização. Por essa razão, a entropia diminui nos seres vivos. Mas esse grau de ordem de seus componentes, que diminui a entropia, continua a aumentar a entropia em torno dela. Então, em resumo: todas as formas de vida, mais os produtos residuais de seus metabolismos, têm um aumento líquido na entropia. Além disso, para sustentar a vida, é preciso transferir energia para o ser vivo. Se deixar de o fazer, o organismo morre em breve e tende sempre para a destruição da ordem que tinha, ou seja, para a desordem ou aumento da entropia.

O artigo Vida, morte e termodinâmica [5] informa que os seres vivos, segundo a termodinâmica, são capazes de controlar essa desordem causada pela entropia pelo fato de serem sistemas abertos, possuem a capacidade de incorporar a energia livre recebida de uma fonte externa, permitindo ao ser vivo manter a ordem de seu sistema. Tudo isso faz com que o ciclo vital mantenha seu equilíbrio termodinâmico. Nossa vida depende constantemente da troca de substancias, e depende muito da energia solar, a qual é indispensável para a vida, para a continuação das espécies e para a conservação das características morfológicas e funcionais. Tudo o que acontece na Natureza significa um aumento da entropia da parte do mundo onde acontece. Assim, um organismo vivo aumenta continuamente sua entropia – ou, como se poderia dizer, produz entropia positiva – e, assim, tende a se aproximar do perigoso estado de entropia máxima, que é a morte. Um organismo só pode se manter distante disso, isto é, vivo, através de um processo contínuo de extrair entropia negativa do ambiente. Um organismo se alimenta, na verdade, de entropia negativa. Todos os seres vivos que conhecemos obedecem o mesmo conjunto de leis: as leis físicas, que regem o mundo macro e microscópico. Todas as atividades realizadas pelos seres vivos dependem de energia que, segundo a Física, é “capacidade de realizar trabalho”.  

Com relação à entropia no ser humano, percebe-se que, com o passar do tempo, nosso organismo não consegue mais vencer a batalha da vida. Começamos a sentir os efeitos do tempo e envelhecemos. Nosso corpo já não consegue manter a pele com a mesma elasticidade, os cabelos caem e nossos órgãos não funcionam mais adequadamente. Em um determinado momento, ocorre uma falha fatal e morremos. Como a manutenção da vida é uma luta pela organização, quando esta cessa, imediatamente o corpo começa a se deteriorar e rapidamente perde todas as características que levaram muitos anos para se estabelecer. As informações acumuladas ao longo de anos, registradas em nosso cérebro a partir de configurações específicas dos neurônios, serão perdidas e não poderão ser novamente recuperadas com a completa deterioração do nosso cérebro.

3.    Entropia e o planeta Terra

O artigo O planeta Terra como um sistema que opera como um organismo vivo [13] demonstra que a Terra se comporta de acordo com a Hipótese de Gaia formulada pelo cientista James Lovelock que descreve a Terra como um sistema que opera como um organismo vivo. Sistema é um conjunto integrado de componentes inter-relacionados e interdependentes que buscam a consecução de um objetivo. O planeta Terra é um sistema que faz parte de uma sistema maior que é o sistema solar que se caracteriza como um grupo de planetas, pequenos corpos celestes, satélites naturais, etc., que estão sob o domínio gravitacional de uma estrela como o Sol. Por sua vez, o sistema solar integra uma sistema maior que é o da Galáxia Via Láctea que, por, sua vez, integra um sistema maior que é o Universo. A Terra estabelece trocas energéticas com o Universo, sofre o efeito gravitacional da Lua, do Sol e dos planetas do sistema solar, recebe energia emanada do Sol, que é utilizada em vários de seus processos biológicos e geológicos e perde energia para o espaço sob a forma de calor.

O artigo A Terra, o cosmos e a entropia [6] informa que o planeta Terra não é um sistema isolado. A Terra recebe a radiação eletromagnética, oriunda majoritariamente do Sol, é bombardeada continuamente tanto por partículas elementares (radiação cósmica, neutrinos, etc.), como por meteoritos, e inclusive, converte energia gravitacional dos sistemas Terra-Lua e Terra-Sol em energia mecânica dos fluidos planetários (marés), da qual uma pequena parte é transformada em calor. No entanto, a quase totalidade das trocas de energia entre a Terra e o espaço exterior é feita sob a forma de radiação eletromagnética. O artigo acima citado informa que nosso planeta atua como um conversor de energia ou um produtor líquido de entropia e esta necessidade imposta pelas leis da Física traduz-se, precisamente, na imensa diversidade fenomenológica que ocorre no planeta e no mais espantoso de todos os fenômenos: a vida. A circulação dos fluidos planetários é, não só, uma gigantesca máquina de conversão de energia mas proporciona, também, a reunião de substâncias que possibilitam a ocorrência de uma multiplicidade de processos físico-químicos. Todos estes processos devem, de acordo com o 2° Princípio da Termodinâmica aumentar a entropia global. Tal não significa que em um subsistema particular do sistema global (Terra) a entropia não possa diminuir enquanto no sistema global o balanço total é positivo.

O artigo A Terra, o cosmos e a entropia [6] informa, também, que o conceito de entropia é de extrema importância quando estudamos a desordem crescente que tem havido no planeta Terra, em razão do aumento da exploração de seus recursos, desmatamento, poluição, entre outras fontes de degradação. Quando maior for essa degradação, maior será a entropia do planeta, que poderá chegar a um estágio tão elevado que a vida na Terra não será mais possível (Figura 2).

Figura 2- Entropia ambiental no planeta Terra

No alt text provided for this image

Fonte: https://www.researchgate.net/figure/Figura-2-A-entropia-ambiental-gerada-pelo-processo-economico-resulta-em-um-fluxo_fig2_366810383

A entropia nos mostra que a ordem que encontramos na natureza é fruto da ação de forças fundamentais que, ao interagirem com a matéria, permitem que esta se organize. Desde a formação do nosso planeta, há cerca de cinco bilhões de anos, a vida somente conseguiu se desenvolver às custas de transformar a energia recebida pelo Sol em uma forma útil, ou seja, capaz de manter a organização. Para tal, pagamos um preço alto: grande parte dessa energia é perdida, principalmente na forma de calor. Dessa forma, para que existamos, pagamos o preço de aumentar a desorganização do nosso planeta. Quando o Sol não puder mais fornecer essa energia, dentro de mais cinco bilhões de anos, não existirá mais vida na Terra.

4.    Entropia e o Sol

O livro A escalada da ciência e tecnologia e sua contribuição à sobrevivência da humanidade [8] informa que o Sol e o resto do sistema solar se formaram a partir de uma nuvem rotativa de gás e poeira gigante conhecida como a nebulosa solar. Assim que a nebulosa entrou em colapso por causa de sua gravidade, passando a girar muito rápido e se tornando achatada como um disco, a maior parte do material foi puxada em direção ao centro para formar o Sol. Assim como a maioria das outras estrelas, o Sol é composto principalmente de hidrogênio, seguido por hélio. Quase todo o restante da matéria do Sol consiste em sete outros elementos: oxigênio, carbono, neon, nitrogênio, magnésio, ferro e silício. Quando o Sol chegar ao fim de sua existência dentro de 4 bilhões de anos se tornará uma gigante vermelha. Cálculos dos astrônomos indicam que, quando o Sol se tornar uma gigante vermelha, o diâmetro do Sol na sua linha do equador vai crescer ao ponto de ultrapassar o planeta Marte, consumindo todos os planetas rochosos: Mercúrio, Vênus, Terra e Marte. E esse será, de fato, o fim do planeta Terra. A morte do Sol ocorrerá quando se encontrar numa fase avançada da sua vida. Conforme seu combustível seja consumido, a temperatura vai aumentando e o Sol sofre expansão. Nessa fase, o Sol é chamado de gigante vermelha. Após esse estágio, a força gravitacional passa a prevalecer e a estrela começa a encolher. Quando isso acontecer, o sistema solar virará um caos e o Sol perderá uma tremenda quantidade de massa. Enquanto cresce, o Sol perde massa e morre levando ao fim o sistema solar. 

O artigo O que é a Morte Térmica do Universo? [7] informa que o fim de vida das estrelas de menor porte, como o Sol, não é caracterizado por uma dramática explosão (supernova), mas por um processo mais lento de perda das camadas mais externas até deixar para trás um núcleo bastante massivo, absurdamente denso, muito quente, e do tamanho aproximado da Terra, conhecido como Anã-Branca. Mesmo com a drástica redução na capacidade de fusão nuclear, o colapso gravitacional das Anãs-Brancas é impedido pelas forças de contrabalanço causadas pelos elétrons (pressão eletrônica de degenerância). Leis da Mecânica Quântica previnem que os elétrons nos átomos sejam espremidos juntos além de um certo ponto (impossibilidade de ocuparam o mesmo estado), permitindo a estabilidade da massa remanescente. Nesse sentido, os átomos dentro de uma Anã-Branca assuem uma estrutura cristalina travada que irradia calor por bilhões-trilhões de anos. Eventualmente, no entanto, esses corpos se tornam extremamente frios, dando emergência a uma Anã-Negra.  

5.    Entropia e o Universo

O artigo O que é a Morte Térmica do Universo? [7] informa, também, que a morte térmica é o fenômeno no qual todos os processos no Universo irão, eventualmente, parar, consequente da ação do fluxo temporal na entropia, ou seja, com esta continuamente crescendo. Em outras palavras, com bastante tempo, a energia irá ser distribuída de forma igual por todo o Universo, passando a inexistir fontes quentes e fontes frias para a realização de trabalho, porque tudo terá a mesma temperatura. Quando o Universo alcançar seu estado de máxima entropia – estado de equilíbrio termodinâmico – nenhum trabalho será possível de ser realizado e toda a energia disponível será convertida em energia indisponível. Além disso, desde o momento do Big Bang, a temperatura média do Universo decresce constantemente 10-43 segundos. A temperatura inicial do Universo era de 1032 K, mas agora está em torno de 2,73 K na média. Ou seja, o Universo também está caminhando para muito próximo do zero absoluto (0 K), seguindo a entropia máxima que tende ao “infinito”. Por isso a Morte Térmica do Universo é, também, conhecida como o ‘Grande Frio’. 

O artigo acima citado informa, também, que, caminhando para a entropia máxima, sobrarão apenas estrelas, que ainda poderão continuar liberando um fluxo de calor por bilhões de anos, até o combustível para fusão nuclear se exaurir e elas morrerem. Caso a massa seja suficiente, a “morte” delas irá dar origem ou a uma estrela de nêutrons ou a um buraco negro. As estrelas de nêutrons irão se esfriar até atingir a temperatura do ambiente ao redor e só sobrarão os buracos negros e um tanto de matéria. Sem energia para o nascimento de novas estrelas, não existirá mais estrelas, galáxia ou vida. Os buracos negros começarão a sugar toda a matéria visível restante e, a partir de 10100 anos após o Big Bang, os próprios buracos negros começarão a “evaporar”, devido à emissão da radiação de Hawking que resulta de efeitos quânticos dos buracos negros que podem emitir radiação com espectro de corpo negro. Apenas escuridão irá reinar no Universo, marcando sua “morte”. Esse seria o provável fim do nosso Universo. Nesse sentido também fica fácil entender porque é tão óbvio a existência de um início para o Universo. Nesse início, a entropia do Universo era tão baixa que se torna algo além da compreensão. Tudo estava concentrado em uma singularidade, até a explosão na forma de Big Bang. Essa baixíssima entropia é que permite tudo que vemos hoje. Tudo está acontecendo porque o Universo evoluiu de uma baixíssima entropia para o contínuo aumento da entropia.  

6.    Conclusões 

Pelo exposto, todos os seres vivos, todos os planetas, todas as estrelas e o Universo, que se constituem em sistemas termodinâmicos, chegarão ao fim quando suas respectivas entropias alcançarem o valor máximo. Para evitar o fim dos seres humanos como espécie, que ocorrerá com o aumento de sua entropia, é preciso realizar avanços científicos e tecnológicos em medicina que proporcionem as condições para o aumento da longevidade humana. O artigo Mundo rumo à singularidade humana [9] informa que o ano de 2045 marcará o início de uma era em que a medicina poderá oferecer à humanidade a possibilidade de viver por um tempo jamais visto na história. Órgãos que não estejam funcionando poderão ser trocados por outros, melhores e criados especialmente para nós. Partes do coração, do pulmão e até o cérebro poderão ser substituídos. Minúsculos circuitos de computador serão implantados no corpo humano para controlar reações químicas que ocorrem no interior das células. Estaremos a poucos passos da imortalidade. Esta é a previsão de um grupo de cientistas conhecidos por ocupar a vanguarda de pesquisas que permeiam temas como a ciência da computação, a biologia e a biotecnologia. Entre eles, estão George Church, professor da Universidade Harvard, nos Estados Unidos, Aubrey de Grey o gerontologista e biomédico especializado em antienvelhecimento e o engenheiro Raymond Kurzweil, do Massachusetts Institute of Technology (MIT). Eles são os líderes de uma nova filosofia, batizada de Singularidade.  

Para evitar o fim dos seres humanos como espécie, que poderá ocorrer com o aumento da entropia do planeta Terra, do Sol e do Universo é preciso superar os desafios descritos a seguir [10]: 1) Produção de foguetes que alcancem velocidades próximas à da luz para viajar pelo Universo; 2) Produção de tecnologias capazes de proteger os seres humanos em viagens espaciais; 3) Identificação de outros mundos similares à Terra capazes de serem habitáveis pelos seres humanos; e, 4) Capacitação do ser humano para sobreviver no espaço e em locais habitáveis fora da Terra. O primeiro grande desafio humano é o da produção de foguetes que sejam capazes de alcançar velocidades próximas à velocidade da luz (300.000 Km/s) haja vista a necessidade de promover viagens intergalácticas dos seres humanos pelos confins do Universo e, até mesmo, para universos paralelos. O segundo grande desafio humano é o da produção de tecnologias capazes de proteger os seres humanos em viagens espaciais ao lidarem com a falta de gravidade e a radiação cósmica que, na Terra, estão protegidos pelo campo magnético e a atmosfera. O terceiro grande desafio humano é o da identificação de outros mundos similares à Terra capazes de serem habitáveis pelos seres humanos com o envio de sondas espaciais para realizarem pesquisas nos locais possíveis dentro e fora do sistema solar. Até o momento não há evidências de que haja outro local dentro ou fora do sistema solar propício à vida similar à Terra O quarto grande desafio humano é o da capacitação dos seres humanos para sobreviverem no espaço e em locais habitáveis fora da Terra com o desenvolvimento da ciência e da tecnologia para superar as limitações biológicas dos seres humanos. 

O artigo Rumo à colonização de outros mundos [11] informa que, na atualidade, há esforços para colonizar o planeta MarteNo entanto, do que se conhece de Marte, este planeta não apresenta as condições necessárias para os seres humanos nele habitarem porque não possui campo magnético nem atmosfera e biosfera similares aos da Terra, bem como apresenta uma aceleração gravitacional média em cerca de 38% à da Terra que é prejudicial à vida humana. Não existe em Marte qualquer evidência de possuir um campo magnético estruturado global similar ao da Terra que nos protege dos raios cósmicos e dos ventos solares. Marte perdeu sua magnetosfera há 4 bilhões de anos, mas possui pontos de magnetismo induzidos localmente. Marte não possui um campo magnético global que guie as partículas carregadas que entram na atmosfera, mas tem múltiplos campos magnéticos em forma de guarda-chuva, principalmente no hemisfério sul, que são remanescentes de um campo magnético global que decaiu bilhões de anos atrás. Em comparação com a Terra, a atmosfera de Marte é muito rarefeita. O solo marciano é ligeiramente alcalino e contém elementos como magnésio, sódio, potássio e cloro que são nutrientes encontrados na Terra e são necessários para o crescimento das plantas.

O artigo acima citado informa, também, que as temperaturas de superfície de Marte variam de −143 °C (no inverno nas calotas polares) até máximas de +35 °C (no verão equatorial). Marte tem as maiores tempestades de poeira do Sistema Solar. Estas podem variar de uma tempestade sobre uma pequena área até tempestades gigantescas que cobrem todo o planeta. Elas tendem a ocorrer quando Marte está mais próximo do Sol quando aumenta sua temperatura global. É sabido, também, que água líquida não pode existir na superfície de Marte devido à baixa pressão atmosférica, que é cerca de 100 vezes mais fraca do que a da Terra. As duas calotas polares marcianas parecem ser feitas em grande parte de água. O volume de água congelada na camada de gelo do polo sul, se derretido, seria suficiente para cobrir toda a superfície do planeta a uma profundidade de 11 metros. Houve a detecção do mineral jarosita (sulfato hidratado de ferro e potássio formado pela oxidação de sulfetos de ferro), que se forma somente na presença de água ácida, demonstrando que a água já existiu em Marte. A perda de água de Marte para o espaço resulta do transporte de água para a atmosfera superior, onde é dissociada ao hidrogênio e escapa do planeta devido à sua fraca gravidade. Marte possui as estações do ano parecidas com as da Terra, devido às inclinações semelhantes de eixos de rotação dos dois planetas. As durações das estações marcianas são cerca de duas vezes as da Terra, já que Marte está a uma maior distância do Sol, o que leva o ano marciano a ter duração equivalente a cerca de dois anos terrestres. A tentativa de colonização do planeta Marte pode significar o início do processo de desenvolvimento de colônias espaciais para uso pelos seres humanos fora da Terra. Os desafios para colonizar Marte precisam ser superados para tornar este planeta uma alternativa mais imediata de fuga para a humanidade quando for necessário.

O artigo A inteligência artificial na conquista humana do espaço, suas outras aplicações e seus riscos [12] informa que Marte, como outros planetas do Sistema Solar não é nem de longe parecido com a Terra, motivo pelo qual, para tornar possível sua colonização, é necessário “terraformá-lo”, ou seja, reproduzir neste planeta um ambiente que ofereça as premissas mínimas de sobrevivência da espécie humana. A terraformação será um dos avanços da nova era da exploração espacial. A terraformação (adaptação da atmosfera, da temperatura, da topografia e da ecologia de um planeta ou um satélite natural para deixá-lo em condições de sustentar um ecossistema com seres da Terra) é apenas um dos avanços esperados para a nova era da exploração espacial, além do incremento de novos materiais e da produção de complexos foguetes de propulsão de ponta. 

Para evitar o fim dos seres humanos como espécie, que poderá ocorrer com o aumento da entropia e o fim do Universo, é preciso pesquisar sobre a existência ou não de multiverso ou universos paralelos, que é uma importante questão a estudar porque a existência ou não de multiverso ou universos paralelos abre a possibilidade de os seres humanos sobreviverem ao fim de nosso Universo se dirigindo para outros universos paralelos. Multiverso é um termo usado para descrever o conjunto hipotético de universos possíveis, isto é, universos paralelos, incluindo o Universo em que vivemos. Juntos, esses universos compreendem tudo o que existe: a totalidade do espaço, do tempo, da matéria, da energia e das leis e constantes físicas que os descrevem. O conceito de Multiverso tem suas raízes em extrapolações, até o momento não científicas, da moderna Cosmologia e da Física Quântica, e engloba também várias ideias oriundas da Teoria da Relatividade de modo a configurar um cenário em que pode ser possível a existência de inúmeros universos onde, em escala global, todas as probabilidades e combinações ocorrem em algum dos universos. Simplesmente por haver espaço suficiente para acoplar outros universos numa estrutura dimensional maior: o chamado Multiverso [8].

Os universos seriam, em uma analogia, semelhantes a bolhas flutuando num espaço maior capaz de abrigá-los. Alguns seriam até mesmo interconectados entre si por buracos negros que são objetos cósmicos cuja atração gravitacional é tão intensa que nada que penetra em seu perímetro – nem a luz – pode escapar ou buracos de minhoca que são atalhos puramente hipotéticos entre dois pontos distantes do cosmos. Ou seja, é um túnel, e não um poço. Um buraco negro poderia funcionar como a entrada de um buraco de minhoca. A ideia de que vivemos em um ‘multiverso’ composto por um número infinito de universos paralelos tem sido, por muitos anos, considerada uma possibilidade científica. O desafio consiste em encontrar uma maneira de testar esta teoria. Pesquisas aprofundadas precisam ser realizadas, portanto, para determinar a existência ou não de multiverso ou universos paralelos para onde a humanidade se dirigiria com o fim do Universo em que vivemos. 

REFERÊNCIAS 

1.             INFOPÉDIA. Sistemas abertos, fechados e isolados (geologia). Disponível no website <https://www.infopedia.pt/apoio/artigos/$sistemas-abertos-fechados-e-isolados>. 

2.    GREENE, Brian. Até o fim do tempo. São Paulo: Companhia das Letras, 2021.

3.    ESALQ USP. Entropia dos seres vivos. Disponível no website <http://www.esalq.usp.br/lepse/imgs/conteudo_thumb/Entropia-dos-Seres-Vivos.pdf>. 

4.             SANTIAGO, Jhordan. A entropia é contrária à existência de seres humanos? Disponível no website <https://universoracionalista.org/a-entropia-e-contraria-a-existencia-de-seres-humanos/#>.

5.    NOGUEIRA. Vivian. Vida, morte e termodinâmicaDisponível no website <https://www.biologiaempauta.com/post/2018/11/05/vida-morte-e-termodin%C3%A2mica>. 

6.    Heitor, Antonio. A Terra, o cosmos e a entropia. Disponível no website <https://www.spf.pt/magazines/GFIS/407/article/1238/pdf>.  

7.    SABER ATUALIZADO. Morte Térmica do Universo? Disponível no website <https://www.saberatualizado.com.br/2017/03/morte-termica-do-universo.html>. 

8.    ALCOFORADO, Fernando. A escalada da ciência e tecnologia e sua contribuição à sobrevivência da humanidade. Curitiba: Editora CRV, 2022. 

9.    ALCOFORADO, Fernando. Mundo rumo à singularidade humana. Disponível no website <https://www.academia.edu/43517794/MUNDO_RUMO_%C3%80_SINGULARIDADE_HUMANA>.

10. ALCOFORADO, Fernando. Os desafios humanos da conquista do espaço e da colonização de outros mundos. Disponível no website <https://www.linkedin.com/pulse/os-desafios-humanos-da-conquista-do-espa%C3%A7o-e-de-alcoforado/?trk=pulse-article_more-articles_related-content-card&originalSubdomain=pt>.

11.          ALCOFORADO, Fernando. Rumo à colonização humana de outros mundos. Disponível no website <https://www.academia.edu/101560183/RUMO_%C3%80_COLONIZA%C3%87%C3%83O_HUMANA_DE_OUTROS_MUNDOS>. 

12.          ALCOFORADO, Fernando. A inteligência artificial na conquista humana do espaço, suas outras aplicações e seus riscos. Disponível no website <https://www.slideshare.net/Faga1939/a-inteligncia-artificial-na-conquista-humana-do-espao-suas-outras-aplicaes-e-seus-riscospdf>.  

13. ALCOFORADO, Fernando. O planeta Terra como um sistema que opera como um organismo vivo. Disponível no website <https://www.linkedin.com/pulse/o-planeta-terra-como-um-sistema-que-opera-organismo-vivo-alcoforado/?originalSubdomain=pt>.

* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

CONTRASTES ENTRE AMSTERDAM PLANIFIÉ AUX PAYS-BAS ET SÃO PAULO DÉGRADÉ AU BRÉSIL

Fernando Alcoforado*

Cet article vise à montrer les contrastes saisissants entre la ville d’Amsterdam, aux Pays-Bas, ville de référence mondiale en matière d’urbanisme, et la ville de São Paulo, au Brésil, exemple frappant de dégradation urbaine pour souligner l’impérieuse nécessité que la planification urbain rationnel être poursuivi, également, dans la plus grande ville brésilienne.

1. La planification urbain à Amsterdam aux Pays-Bas

La Hollande est aussi appelée les Pays-Bas car plus d’un quart du pays se trouve sous le niveau de la mer. Tout au long de son histoire, la lutte des Hollandais contre la géographie ingrate du pays a été très importante car jusqu’au XIVe siècle, une partie de ce qui est aujourd’hui la Hollande était submergée. Depuis 900 ans, les Hollandais construisent des digues pour se protéger des eaux des fleuves qui traversent le pays et des eaux de la mer du Nord. La menace hydrique ne vient pas seulement de la mer du Nord, mais aussi des fleuves qui traversent les Pays-Bas avant de se jeter dans la mer du Nord. En conséquence, la Hollande dispose désormais de milliers de kilomètres de digues qui assurent cette protection. C’est un exploit d’ingénierie impressionnant. Il est important de noter que la Hollande est le “réservoir d’eau de l’Europe” car à la fin de l’hiver, après la longue période de pluie et la fonte des neiges dans les montagnes, un énorme volume d’eau vient de Suisse, d’Allemagne, de France et de la Belgique descend le fleuve et entre en Hollande. Cette quantité colossale d’eau peut causer de sérieux problèmes. Par exemple, en février 1995, le volume d’eau des rivières du centre du pays a commencé à augmenter à tel point que les gens craignaient que la pression de l’eau rompe les digues. S’il y avait eu une brèche, tout le terrain derrière les digues aurait été recouvert de plusieurs pieds d’eau. Aujourd’hui, les millions de Néerlandais qui vivent sous le niveau de la mer peuvent dormir paisiblement la nuit grâce à une lutte constante contre les inondations.

Amsterdam n’existe que parce que c’est une ville planifiée. L’urbanisme d’Amsterdam est intégré à l’aménagement du territoire des Pays-Bas. La ville a été construite autour de la rivière Amstel, qui traverse les Pays-Bas d’est en ouest. Pour éviter d’inonder Amsterdam, et le reste du pays, les Hollandais ont décidé de trouver une solution qui est un système de canaux. Le système de canaux d’Amsterdam est le résultat d’un urbanisme réussi avec l’exécution d’ouvrages hydrauliques à des fins défensives et de transport depuis l’expansion de la ville au cours du XVIe siècle. La région d’Amsterdam était caractérisée par un sol détrempé et sablonneux qui devait être drainé pour que le terrain soit occupé. Avec l’évacuation de l’eau, le sol a été compacté et la hauteur de la ville a été abaissée par rapport au fleuve. De cette façon, Amsterdam se trouvait en dessous à la fois de la rivière Amstel et de la mer du Nord. D’où l’ancien besoin d’ouvrages d’aménagement et de génie hydraulique, qui existe depuis le milieu du XVIIe siècle. La ville d’Amsterdam a été construite en s’appuyant sur l’utilisation de digues et de barrages qui luttent contre les eaux et les envoient à la mer. Ainsi, les canaux d’Amsterdam ne sont pas seulement esthétiques car, en réalité, ils ont une utilité très importante [1].

Il est à noter que la Hollande était un pays avec une situation géographique privilégiée pour transporter des produits par voie maritime au Moyen Âge. C’était l’âge d’or de la Hollande, au milieu du XVIIe siècle, alors qu’elle était la plus grande puissance économique du monde. C’est à cette époque que fut construit le réseau de canaux circulaires d’Amsterdam, qui avait pour fonction de faire circuler l’eau à travers des réseaux sûrs jusqu’à la rivière Amstel, d’éviter les inondations et de créer un héritage architectural. Les canaux d’Amsterdam constituent l’un des plus beaux paysages du monde. Amsterdam est une ville avec des bâtiments de plus de 300 ans. A Amsterdam, l’espace public est intelligemment aménagé. Le côté coupé d’un côté à l’autre d’une rue ou d’une avenue comporte plusieurs voies, telles qu’un trottoir, une piste cyclable, une voie d’autobus, une voie de tramway (tramway électrique), une voie de train et une voie pour les voitures. Ceux qui sont à pied ont toujours un petit îlot entre chacune de ces voies pour être en sécurité lorsqu’ils traversent la rue. Amsterdam, ville de 850 000 habitants sur une superficie de 165,5 km², est depuis longtemps un leader mondial de l’urbanisme.

L’utilisation du vélo est répandue à Amsterdam et aux Pays-Bas. Parmi les raisons de la culture du vélo figurent le terrain plat de la ville et du pays dans son ensemble. Les cyclistes à Amsterdam ne portent pas de casque, considérant le vélo comme une simple extension de la marche en tant que piéton. Le fait que de nombreuses personnes roulent à vélo génère un cercle vertueux car plus de cyclistes dans les rues signifie plus de sécurité pour les autres cyclistes, et les conducteurs, qui sont également cyclistes, conduisent avec plus de prudence dans la direction de leurs véhicules automobiles. Aujourd’hui, 27 % des déplacements dans la ville sont effectués à vélo, contre 50 % dans le centre d’Amsterdam. Après la Seconde Guerre mondiale, Amsterdam a subi l’impact des automobiles, comme d’autres villes du monde. Des politiques ont été adoptées pour encourager l’utilisation de l’automobile, telles que la construction d’une rocade et l’occupation de l’espace public et des anciens trottoirs avec des espaces pour les véhicules. Le plan de mobilité Amsterdam 2025 a été élaboré conjointement par les services de la ville pour les transports, le logement et l’environnement. Plutôt que de créer plus de rues pour que plus de voitures puissent se déplacer, le plan visait à catégoriser les rues existantes en fonction de leurs fonctions.

Les fonctions des rues d’Amsterdam sont détaillées ci-dessous : 1) Rues résidentielles : elles n’ont pas d’espace pour les transports en commun, elles ne permettent que l’entrée des voitures et des motos de ceux qui y vivent. Libre circulation des vélos et des piétons ; 2) Petites rues commerçantes : elles sont faites pour être explorées à pied, mais peuvent avoir des transports en commun. Les trottoirs sont larges et il n’y a pas de stationnement pour les voitures qui, dans la plupart des cas, ne peuvent même pas circuler dans ces rues ; 3) Rues commerciales à fort trafic : zones commerçantes avec beaucoup de trafic automobile, stationnement dans les rues, mais sans transports en commun et parfois sans pistes cyclables ; 4) De larges avenues artérielles qui relient les quartiers et les zones importantes. Ce sont des autoroutes qui permettent l’utilisation de voitures et de motos et disposent de transports en commun et de pistes cyclables ; et, 5) Autoroutes intermunicipales : relient la ville aux municipalités avoisinantes et permettent la circulation de petits et gros véhicules.

Une fois ces fonctions établies pour les rues, il devient plus clair comment la ville d’Amsterdam doit agir pour empêcher la croissance de l’utilisation de la voiture, améliorer le réseau de transports publics et augmenter le nombre de déplacements à pied et à vélo. Aujourd’hui, la répartition modale de la ville est la suivante : 36 % des déplacements sont effectués en transports en commun, 33 % en voiture, 27 % en vélo et 4 % à pied. Pour décourager l’utilisation des véhicules privés, la solution consistait à réduire le nombre de stationnements dans les rues et à augmenter les taxes, tant sur l’achat de voitures que sur le carburant. Pour contrôler le trafic, les grandes artères qui relient les quartiers voient leurs infrastructures améliorées afin de concentrer tout le flux de voitures. De cette façon, les voitures passeront toujours par eux, jamais par les petites rues. Il n’y aura pas de gros investissements dans plus de trottoirs ou même de pistes cyclables.

Le Plan de Mobilité Amsterdam 2025 ne prévoit que de nouveaux tronçons de pistes cyclables périphériques jusqu’en 2025. Le métro gagnera une nouvelle ligne, qui traversera la ville du nord au sud. Le réseau « tram » (tramway électrique) sera également étendu. Ce réseau vise principalement à faciliter la vie des personnes qui se trouvent dans des quartiers extérieurs au centre, mais qui ont besoin d’accéder à la zone centrale de la ville. Les parkings du centre-ville cesseront pratiquement d’exister et seront concentrés dans les zones périphériques afin que le centre-ville soit décongestionné. La pire chose que l’on puisse faire pour une ville est de laisser circuler librement les voitures, car elles prennent de plus en plus de place. Cette mesure s’accompagnera d’une tentative de développement du confort urbain dans les zones périphériques de la ville, avec la création d’écoles, de pôles commerciaux et de services. En plus de faciliter les déplacements domicile-travail, des efforts sont déployés pour permettre aux personnes de vivre à proximité de leur lieu de travail.

Selon le site Ciclo Vivo, Amsterdam est considérée comme la ville la plus verte du monde, suivie de Vienne en Autriche, Singapour en Asie, Stockholm en Suède, Reykjavik en Islande, Paris en France, Berlin en Allemagne, Curitiba au Brésil, San Francisco en États-Unis et Washington aux États-Unis [2]. Outre les arbres, les énergies renouvelables, les transports durables et d’autres facteurs entrent dans les critères. En plus de nombreux attributs verts, la capitale des Pays-Bas a également des objectifs de développement durable ambitieux et une culture respectueuse de l’environnement qui englobe les repas sans viande, éliminant l’utilisation de plastique et réduisant les émissions de carbone. Avec de nombreux parcs et espaces verts, Amsterdam promeut une transition proactive vers une économie circulaire qui envisage la réutilisation des matériaux et des déchets résultant des activités humaines. L’un des objectifs d’Amsterdam est de réduire les émissions de dioxyde de carbone de la ville de 55 % d’ici 2030. La capitale néerlandaise veut également s’adapter au climat, utiliser tous les toits adaptés à l’énergie solaire et être la première ville d’Europe à avoir 95 % de émissions d’ici 2050.

Amsterdam est considérée comme la cinquième ville la plus intelligente du monde après Singapour en Asie, Helsinki en Finlande, Zurich en Suisse et Oslo en Norvège [3]. La magnifique ville d’Amsterdam est à la pointe de la technologie des villes intelligentes depuis 2009, avec plus de 170 opérations différentes à travers la ville. Ce qui distingue Amsterdam des autres villes, c’est son approche unique de l’innovation en matière de durabilité environnementale. L’utilisation d’énergie renouvelable pour les camions à ordures électriques et les arrêts de bus à énergie solaire ne sont que quelques exemples des efforts d’Amsterdam en faveur d’un mode de vie durable. De plus, il a construit des villages flottants comme alternative à la récupération des terres. La ville a mis en œuvre des avancées technologiques dans des milliers de foyers et d’entreprises avec des modifications telles que l’isolation éconergétique du toit, les interrupteurs d’éclairage automatisés, les compteurs intelligents et les lampes LED à très faible consommation d’énergie, ce qui a un impact significatif sur un avenir meilleur. Avec un engagement indéfectible envers la durabilité environnementale et des solutions innovantes aux divers problèmes de la ville, il n’est pas surprenant qu’Amsterdam ait assuré sa place parmi les sept villes les plus intelligentes au monde.

Actuellement, le projet Amsterdam Smart City lancé en 2009 [4] est en cours. Plusieurs actions ont été initiées afin de créer une ville plus durable et économe en énergie. Ces actions ont été subdivisées en quatre catégories : logement, mobilité, travail et espaces publics. Ses objectifs sont les suivants : 1) Logement : son objectif est de fournir de l’énergie à 8 000 foyers avec des énergies renouvelables, principalement grâce à la production éolienne ; 2) Mobilité : en plus des projets privilégiant le vélo et les transports en commun décarbonés, il existe un projet d’attribution distribuée de stations-service pour voitures électriques dans toute la ville, afin de privilégier l’utilisation de l’énergie électrique par rapport à le combustible fossile dans les véhicules à moteur de la ville ; 3) Travail : vise à promouvoir des activités communautaires pour induire une routine de consommation collaborative ; et, 4) Espaces publics : Smart School dans laquelle les enfants du primaire apprennent à économiser l’énergie dans le cadre d’un concours inter-écoles d’efficacité énergétique. Dans le projet Rua do Clima, la rue de la ville joue le rôle d’incubateur et d’espace de test d’innovations et d’expérimentations climatiques, afin de partager directement les avancées avec la ville.

Amsterdam, comme toutes les villes hollandaises, habituées à tout recommencer, s’est réinventée en centres d’ingéniosité environnementale. Les villes néerlandaises ont été les premières à construire des parkings pour lutter contre les inondations qui se transforment en réservoirs d’urgence, garantissant les conditions pour éviter le débordement des stations d’épuration provoqué par les inondations causées par les tempêtes qui doivent se produire tous les cinq à dix ans. Il a également installé des places, des jardins et des terrains de basket dans les quartiers pauvres qui fonctionnent également comme des bassins de rétention pour faire face aux inondations dans la ville. Pour les Néerlandais, une ville intelligente doit avoir une vision globale et holistique qui va bien au-delà de l’utilisation de digues et de vannes pour prévenir les inondations. Le défi de l’adaptation au climat comprend la sécurité, l’assainissement, le logement, les routes, les services d’urgence. Les Néerlandais sensibilisent le public et structurent la cyber-résilience car le prochain défi en matière de sécurité climatique concernera la sécurité sur Internet. Les Néerlandais considèrent qu’on ne peut pas avoir de systèmes vulnérables pour contrôler les vannes des digues, des ponts et des stations d’épuration.

2. L’absence d’une planification urbaine rationnel et la dégradation urbaine à São Paulo

Le génie des architectes dans l’urbanisme d’Amsterdam et des ingénieurs néerlandais dans l’aménagement territorial réussi des Pays-Bas et le rôle de l’ingénierie, notamment hydraulique, dans l’effort de dompter les eaux des fleuves et de la mer du Nord en Hollande est évident. Pendant ce temps, la ville de São Paulo, avec une population de 12 396 372 habitants et 1 521,11 km², se caractérise par l’absence d’une planification territoriale compétente dans l’État de São Paulo et d’une planification urbaine compétente dans la ville de São Paulo qui s’articulent entre si, qui se produit également dans tous les États et villes du Brésil. Contrairement à Amsterdam, São Paulo n’est pas une ville planifiée qui n’est pas intégrée dans la planification territoriale de l’État de São Paulo car celui-ci n’existe pas non plus. Contrairement à Amsterdam, qui classe ses rues en rues résidentielles, petites rues commerçantes, rues commerciales à fort trafic, larges avenues artérielles et autoroutes interurbaines, en précisant laquelle d’entre elles est autorisée à faire circuler les voitures, les motos, les vélos, les transports en commun, le transport de marchandises, etc, cela n’existe pas à São Paulo.

Contrairement à Amsterdam, où le conseil municipal agit pour empêcher la croissance de l’utilisation de la voiture, améliorer le réseau de transports en commun et augmenter le nombre de déplacements à pied et à vélo dans la ville, São Paulo est confronté à de graves problèmes de mobilité urbaine en raison de l’absence d’un intégration efficace entre les différents modes de transport (métro, bus, train) et congestion du trafic causée par le nombre excessif de voitures dans les rues de la ville. Contrairement à Amsterdam, São Paulo ne contrôle pas le trafic provoquant les grandes artères qui relient les quartiers ont leur infrastructure améliorée afin de concentrer l’ensemble des flux de véhicules automobiles. Contrairement à Amsterdam, São Paulo n’adopte pas de mesures qui font que les parkings du centre-ville cessent pratiquement d’exister et se concentrent dans les zones périphériques afin que le centre-ville soit exempt de congestion. Contrairement à Amsterdam et aux villes néerlandaises, São Paulo ne transforme pas les parkings en réservoirs d’urgence ou en grandes piscines, ainsi que les places, les jardins et les terrains de basket dans les quartiers pauvres qui fonctionnent également comme bassins de rétention pour faire face aux inondations dans la ville. L’absence de ces mesures signifie que São Paulo présente de graves problèmes de décès, d’inondations et de glissements de terrain causés par les pluies qui inondent d’importants corridors pour la circulation des véhicules, tels que les routes marginales des rivières Pinheiros et Tietê, provoquant le chaos de la circulation. Aux problèmes de mobilité urbaine et d’inondation s’ajoutent les problèmes de violence urbaine, de pollution de l’air, de nuisances sonores, de sans-abrisme et d’exclusion sociale d’une grande partie de la population [5].

Contrairement à Amsterdam, qui est considérée comme la ville la plus verte du monde, São Paulo n’a pas d’objectifs de développement durable et une culture écologique qui comprend l’élimination de l’utilisation du plastique et la réduction des émissions de carbone, en plus de ne pas adopter de mesures d’économie circulaire qui envisagent la réutilisation de matières et résidus résultant des activités humaines. Contrairement à Amsterdam, qui est considérée comme la cinquième ville la plus intelligente du monde, São Paulo n’adopte pas de mesures pour rendre la ville intelligente, comme, par exemple, l’utilisation d’énergies renouvelables pour les camions à ordures électriques, les arrêts de bus alimentés à l’énergie solaire, les transports publics transport à faible émission de carbone, l’approvisionnement en électricité des voitures électriques dans toute la ville, afin de privilégier l’utilisation de l’énergie électrique par rapport aux combustibles fossiles dans les véhicules à moteur de la ville, entre autres mesures.

Récemment, le conseil municipal de São Paulo a approuvé la révision du plan directeur de la ville, une loi qui guide la croissance de la ville et établit des règles générales pour la construction de bâtiments. Le schéma directeur de 2014 prévoyait déjà une plus grande verticalisation autour des couloirs de bus et des gares de métro et de train. Ces zones sont appelées Axes de Structuration et de Transformation Urbaines. La modification du schéma directeur de la ville facilite la mise à disposition de plus de places de stationnement pour les appartements plus grands à côté de ces axes, c’est-à-dire les transports en commun. Le Plan directeur de la ville fera vivre ses quartiers à l’ombre d’immenses immeubles, en plus de vivre dans des zones plus achalandées et polluées. Le texte final du plan directeur a exclu un article qui empêche la construction de bâtiments plus hauts que la tour d’observation de Mirante de Santana, la principale station météorologique de la ville de São Paulo. Cela signifie qu’il n’y a pas de limite à la hauteur des futurs gratte-ciel de São Paulo. Il est absurde qu’une ville comme São Paulo, qui est dominée par un grand nombre d’immeubles de grande hauteur ou de gratte-ciel et dont les rues sont congestionnées par les voitures, adopte un plan directeur qui contribue à une augmentation encore plus importante du nombre de gratte-ciel et de voitures sur le rues encombrées de São Paulo, compromettant le bien-être de sa population.

Un fait est évident : la révision du Master Plan de São Paulo contribuera à dégrader davantage la ville de São Paulo. La perception de tous ceux qui visitent le point culminant de Farol Santander, où se trouve un belvédère sur la ville, montre clairement que la ville de São Paulo est au service de la spéculation immobilière depuis de nombreuses années, responsable de la transformation de la ville dans une immense «jungle de béton armé». De la même manière, ceux qui se promènent dans la ville verront que São Paulo a été faite pour servir les automobiles, dont le nombre augmente chaque jour. Ces perceptions nous amènent à la triste conclusion que São Paulo n’était pas et ce n’est pas planifié pour favoriser le bien-être de sa population, mais pour servir la spéculation immobilière et les propriétaires de voitures. Rien de semblable à ce qui a été prévu à Amsterdam, ville de référence mondiale en matière d’urbanisme, n’est proposé pour la ville de São Paulo par la Municipalité de São Paulo.

São Paulo fait face à ce qu’on appelle la macrocéphalie urbaine, qui se caractérise par l’absence d’urbanisme rationnel dans la ville et le manque de planification rationnelle pour faire face aux agglomérations urbaines avec d’autres villes situées dans ses environs, en raison de la présence de très grandes régions du ville occupée de manière désordonnée, l’explosion démographique qui ne permet pas le développement d’un réseau d’emplois à la même échelle que la demande locale, la dégradation urbaine en périphérie de la ville, le manque d’intégration effective entre les modes de transport et l’existence de goulets d’étranglement dans la mobilité urbaine dus à la difficulté de transporter chaque jour des millions de personnes avec qualité, à un prix équitable et en toute sécurité, dans un flux aller-retour vers des régions à forte densité de population et l’aggravation des problèmes environnementaux avec le manque de services de l’assainissement de base qui pollue le sol et les rivières de la ville et la combustion des combustibles fossiles qui compromet la qualité de l’air et le manque d’espaces verts bordés d’arbres et de quelques places avec des zones de respiration. Le fait que São Paulo ait une population et une zone urbaine beaucoup plus importantes qu’Amsterdam n’empêche pas la ville de São Paulo d’adopter des mesures d’aménagement du territoire et d’urbanisme similaires à celles adoptées aux Pays-Bas et, en particulier, à Amsterdam.

LES RÉFÉRENCES

1.    GARCIA, Natália. Amsterdã: planejar é a regra, fluidez é a sensação. Disponible sur le site Web <http://www.oeco.org.br/reportagens/25343-amsterda-planejar-e-a-regra-fluidez-e-a-sensacao/>.

2.    OLSEN, Natasha. Ranking define as 10 cidades mais verdes do mundo. Disponible sur le site Web <https://ciclovivo.com.br/arq-urb/urbanismo/ranking-define-as-10-cidades-mais-verdes-do-mundo/>.

3.    ALVES, Damares. As 7 cidades inteligentes mais avançadas do mundo. Disponible sur le site Web <https://socientifica.com.br/as-7-cidades-inteligentes-mais-avancadas-do-mundo/>.

4.    INSTITUTO CIDADES SUSTENTÁVEIS. Amsterdã se destaca como cidade inteligente. Disponible sur le site Web <http://www.cidadessustentaveis.org.br/boas-praticas/amsterda-uma-cidade-inteligente>.

5.    INFRAROI. Conheça os 10 problemas urbanos de São Paulo. Disponible sur le site Web <http://infraroi.com.br/2018/07/26/conheca-os-10-problemas-urbanos-de-sao-paulo/>.  

* Fernando Alcoforado, 83, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, de la SBPC – Société Brésilienne pour le Progrès des Sciences et l’IPB – Institut Polytechnique de Bahia, ingénieur (Ingénierie, Économie et Administration) et docteur en Planification du Territoire et Développement Régional de l’Université de Barcelone, professeur d’Université (Ingénierie, Économie et Administration) et consultant dans les domaines de la planification stratégique, de la planification d’entreprise, planification du territoire et urbanisme, systèmes énergétiques, a été Conseiller du Vice-Président Ingénierie et Technologie chez LIGHT S.A. Entreprise de distribution d’énergie électrique de Rio de Janeiro, coordinatrice de la planification stratégique du CEPED – Centre de recherche et de développement de Bahia, sous-secrétaire à l’énergie de l’État de Bahia, secrétaire à la planification de Salvador, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), est l’auteur d’un chapitre du livre Flood Handbook (CRC Press, Boca Raton, Floride, États-Unis, 2022) et How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

CONTRASTS BETWEEN THE PLANNED AMSTERDAM IN THE NETHERLANDS AND THE DEGRADED SÃO PAULO IN BRAZIL

Fernando Alcoforado*

This article aims to show the striking contrasts between the city of Amsterdam, in the Netherlands, a world reference city in urban planning, and the city of São Paulo, in Brazil, a striking example of urban degradation to highlight the imperative need that rational urban planning be carried forward, also, in the largest city in the country.

1. Urban planning in Amsterdam in the Netherlands

Holland is also called the Netherlands because more than a quarter of the country is below sea level. Throughout its history, the struggle of the Dutch against the country’s ungrateful geography has been very important because until the fourteenth century, part of what is now Holland was submerged. For the last 900 years, the Dutch have been building dykes to protect themselves against the waters of the rivers that cross the country and the waters of the North Sea. The water threat does not only come from the North Sea, but also from the rivers that cross the Netherlands before flowing into the North Sea. As a result, Holland now has thousands of kilometers of dykes that provide this protection. This is an impressive feat of engineering. It is important to note that Holland is the “water tank of Europe” because at the end of winter, after the long period of rain and when the snow in the mountains melts, a huge volume of water comes from Switzerland, Germany, France and Belgium flows down the river and enters Holland. This colossal amount of water can cause serious problems. For example, in February 1995, the water volume of the rivers in the center of the country began to rise so much that people feared that the water pressure could break the dikes. Had there been any breach, all the land behind the dikes would have been covered with many feet of water. Today the millions of Dutch people who live below sea level are able to sleep peacefully at night due to a constant battle being waged against flooding.

Amsterdam only exists because it is a planned city. Amsterdam’s urban planning is integrated with the territorial planning of the Netherlands. The city was built around the Amstel River, which cuts the Netherlands from east to west. To avoid flooding Amsterdam, and the rest of the country, the Dutch decided to find a solution, which is a canal system. Amsterdam’s canal system is the result of successful urban planning with the execution of hydraulic engineering works for defensive and transport purposes since the city expanded during the 16th. The Amsterdam area was characterized by soggy, sandy soil that had to be drained for the land to be occupied. With the removal of water, the soil was compacted and the height of the city was lowered in relation to the river. In this way, Amsterdam was below both the Amstel River and the North Sea. Hence the ancient need for planning and hydraulic engineering works, which has existed since the middle of the 17th century. The city of Amsterdam was built relying on the use of dikes and dams that fight against the waters and send them to the sea. Thus, Amsterdam’s canals are not just aesthetic because, in reality, they have a very important utility [1].

It should be noted that Holland was a country with a privileged geographic location to transport products by sea in the Middle Ages. This was Holland’s golden age, in the mid-17th century, when it was the world’s greatest economic power. It was at that time that the network of circular canals was built in Amsterdam, which had the function of making water circulate through safe networks to the Amstel River, avoiding flooding, and creating an architectural legacy. Amsterdam’s canals make up one of the most beautiful landscapes in the world. Amsterdam is a city with buildings over 300 years old. In Amsterdam, public space is cleverly planned. The lateral cut from one side to the other of a street or avenue has several lanes, such as a sidewalk, a bicycle path, a bus lane, a tram track (electric tram), a train track and a lane for cars. Those who are on foot always have a small island between each of these lanes to be safe when crossing the street. Amsterdam, a city of 850,000 inhabitants in an area of 165.5 km², has long been a world leader in urban planning.

Bicycle use is widespread in Amsterdam and the Netherlands. Among the reasons for bicycle culture are the flat terrain of the city and the country as a whole. Cyclists in Amsterdam do not wear helmets, considering the bicycle a mere extension of walking as a pedestrian. The fact that many people ride bicycles generates a virtuous circle because more cyclists on the streets means more safety for other cyclists, and drivers, who are also cyclists, drive with greater care in the direction of their motor vehicles. Today, 27% of trips in the city are made by bicycle, rising to 50% in central Amsterdam. After World War II, Amsterdam suffered the impact of automobiles, as did other cities in the world. Policies were adopted to encourage the use of automobiles, such as the construction of a ring road and the occupation of public space and old sidewalks with spaces for vehicles. The Amsterdam 2025 mobility plan was drawn up jointly by the city’s departments for transport, housing and the environment. Rather than creating more streets for more cars to move around, the plan sought to categorize existing streets according to their functions.

The functions of the streets in Amsterdam are detailed below: 1) Residential streets: they do not have space for public transport, they only allow the entry of cars and motorcycles of those who live there. They have free circulation of bicycles and pedestrians; 2) Small shopping streets: they are made to be explored on foot, but may have public transport. The sidewalks are wide and there is no parking for cars that, in most cases, cannot even circulate on these streets; 3) Commercial streets with a lot of traffic: shopping areas with a lot of car traffic, parking on the streets, but without public transport and sometimes without bike lanes; 4) Wide arterial avenues that connect important neighborhoods and areas. They are expressways that allow the use of cars and motorcycles and have public transport and cycle paths; and, 5) Intermunicipal Highways: link the city to neighboring municipalities and have the circulation of small and large vehicles.

Once these functions have been established for the streets, it becomes clearer how the City of Amsterdam should act to prevent the growth of car use, improve the public transport network, and increase the number of trips on foot and by bicycle. Today the city’s modal split is: 36% of trips are made by public transport, 33% are by car, 27% by bicycle and 4% on foot. To discourage the use of private vehicles, the solution consisted of reducing the number of parking lots on the streets and increasing taxation, both on the purchase of cars and fuel. To control traffic, the large arterial avenues that connect neighborhoods have their infrastructure improved so that they concentrate all the flow of cars. Those way cars will always pass through them, never through the smaller streets. There will not be big investments in more sidewalks or even bike lanes.

The Amsterdam 2025 Mobility Plan foresees only new stretches of peripheral bike lanes until 2025. The subway will gain a new line, which will cross the city from north to south. The “tram” (electric tram) network will also be expanded. This network mainly aims to facilitate the lives of people who are in districts outside the center, but need to access the central area of the city. Parking lots in the city center will practically cease to exist and will be concentrated in peripheral areas so that the city center is free of congestion. The worst thing you can do for a city is to let cars circulate freely, because they take up more and more space. This measure will be combined with the attempt to develop urban comforts in the peripheral areas of the city, with the creation of schools, commercial centers and services. In addition to facilitating commuting, efforts are being made to enable people to live close to their workplaces.

According to the Ciclo Vivo website, Amsterdam is considered the greenest city in the world, followed by Vienna in Austria, Singapore in Asia, Stockholm in Sweden, Reykjavik in Iceland, Paris in France, Berlin in Germany, Curitiba in Brazil, San Francisco in United States and Washington in the United States [2]. In addition to trees, renewable energy, sustainable transport and other factors come into the criteria. In addition to many green attributes, the capital of the Netherlands also has ambitious sustainable development goals and an eco-friendly culture that embraces meatless dining, eliminating the use of plastic and reducing carbon emissions. With many parks and green areas, Amsterdam promotes a proactive shift towards a circular economy that contemplates the reuse of materials and waste resulting from human activities. One of Amsterdam’s goals is to reduce the city’s carbon dioxide emissions by 55% by 2030. The Dutch capital also wants to adapt to the climate, use all roofs suitable for solar energy and be the first city in Europe to be 95 percent free of emissions by 2050.

Amsterdam is considered the fifth smartest city in the world after Singapore in Asia, Helsinki in Finland, Zurich in Switzerland and Oslo in Norway [3]. The magnificent city of Amsterdam has been at the forefront of smart city technology since 2009, with over 170 different operations across the city. What sets Amsterdam apart from other cities is its unique approach to environmental sustainability innovation. The use of renewable energy for electric garbage trucks and solar-powered bus stops are just a few examples of Amsterdam’s efforts towards sustainable living. In addition, it built floating villages as an alternative to land recovery. The city has implemented technological advances in thousands of homes and businesses with modifications such as energy-efficient roof insulation, automated light switches, smart meters and ultra-low-energy LED lights, making a significant impact on a better future. With an unwavering commitment to environmental sustainability and innovative solutions to a number of city issues, it is no surprise that Amsterdam has secured its place as one of the top seven smartest cities in the world.

Now, the Amsterdam Smart City project started in 2009 [4] is ongoing. Several actions were initiated in order to create a more sustainable and energy efficient city. These actions were subdivided into four categories: housing, mobility, work and public spaces. Its objectives are the following: 1) Housing: its objective is to supply energy to 8000 households with renewable energy, mainly through wind generation; 2) Mobility: in addition to the projects with preference given to bicycles and low-carbon public transport, there is a project for the distributed allocation of electric car filling stations throughout the city, in order to prioritize the use of electric energy in relation to the fossil fuel in the city’s motor vehicles; 3) Work: aims to promote community activities to induce a collaborative consumption routine; and, 4) Public Spaces: Smart School in which primary school children learn to save energy in an inter-school competition scheme in energy efficiency. In the Street of Clima project, the city street plays the role of an incubator and testing space for climate innovations and experiments, in order to directly share advances with the city.

Amsterdam, like all Dutch cities, accustomed to starting over, has reinvented itself as centers of environmental ingenuity. Dutch cities were the first to build parking lots to fight floods that turn into emergency reservoirs, ensuring conditions to avoid the overflow of sewage treatment plants caused by floods caused by storms that must occur every five to ten years. It also installed squares, gardens and basketball courts in poor neighborhoods that also function as retention ponds to deal with flooding in the city. For the Dutch, a smart city has to have a comprehensive and holistic vision that goes far beyond the use of dikes and floodgates to prevent flooding. The challenge of climate adaptation includes security, sanitation, housing, roads, and emergency services. The Dutch raise public awareness and structure for cyber resilience because the next challenge in terms of climate security will have to do with internet security. The Dutch consider that you cannot have vulnerable systems to control the floodgates of dikes, bridges and treatment plants.

2. The absence of rational urban planning and urban degradation in São Paulo

The genius of the architects in the urban planning of Amsterdam and of the Dutch engineers in the successful territorial planning of the Netherlands and the role of Engineering, especially hydraulics, in the effort to tame the waters of the rivers and the North Sea in Holland is evident. Meanwhile, the city of São Paulo, with a population of 12,396,372 inhabitants and 1,521.11 km², is characterized by the absence of competent territorial planning in the State of São Paulo and competent urban planning in the city of São Paulo that are articulated between them, which also occurs in all states and cities in Brazil. Unlike Amsterdam, São Paulo is not a planned city that is not integrated into the territorial planning of the State of São Paulo because this, too, does not exist. Unlike Amsterdam, which classifies its streets into residential streets, small shopping streets, commercial streets with a lot of traffic, wide arterial avenues and intercity highways, specifying which of them is allowed to circulate cars, motorcycles, bicycles, public transport, cargo transport, etc., this does not exist in São Paulo.

Unlike Amsterdam, where the City Hall acts to prevent the growth of car use, improve the public transport network, and increase the number of trips on foot and by bicycle in the city, São Paulo faces serious urban mobility problems due to the lack of an effective integration between the different modes of transport (metro, bus, train) and traffic congestion caused by the excessive number of cars on the city’s streets. Unlike Amsterdam, São Paulo does not control traffic, so the large arterial avenues that connect neighborhoods have their infrastructure improved so that they concentrate the entire flow of motor vehicles. Unlike Amsterdam, São Paulo does not adopt measures that make parking lots in the city center practically cease to exist and concentrate in peripheral areas so that the city center is free of congestion. Unlike Amsterdam and Dutch cities, São Paulo does not transform parking areas into emergency reservoirs or swimming pools, as well as squares, gardens and basketball courts in poor neighborhoods that also function as retention ponds to deal with floods in the city. The absence of these measures means that São Paulo presents serious problems of deaths, floods and landslides caused by the rains that flood important corridors for vehicle flow, such as the marginal roads of the Pinheiros and Tietê rivers, causing traffic chaos. Added to the problems of urban mobility and flooding, the problems of urban violence, air pollution, noise pollution, homelessness and social exclusion of large portions of the population [5].

Unlike Amsterdam, which is considered the greenest city in the world, São Paulo has no sustainability goals and an eco-friendly culture that includes eliminating plastic use and reducing carbon emissions. , in addition to not adopting circular economy measures that envisage the reuse of materials and residues resulting from human activities. Unlike Amsterdam, which is considered the fifth smartest city in the world, São Paulo does not adopt measures to make the city smart, such as, for example, the use of renewable energies for electric garbage trucks, solar-powered bus stops, public transport low-carbon transportation, power supply for electric cars throughout the city, to prioritize the use of electric power over fossil fuels in city motor vehicles, among other measures.

Recently, the City Council of São Paulo approved the revision of the city’s Master Plan, a law that guides the city’s growth and establishes general rules for the construction of buildings. The 2014 Master Plan already provided for greater verticalization around the bus corridors and subway and train stations. These areas are called Urban Structuring and Transformation Axes. The change in the city’s Master Plan facilitates the provision of more parking spaces for larger apartments next to these axes, that is, public transport. The city’s Master Plan will make its neighborhoods live in the shadow of huge buildings, in addition to living in areas with more traffic and pollution. The final text of the Master Plan excluded an article that prevents the construction of buildings taller than the observation tower at Mirante de Santana, the main meteorological station in the city of São Paulo. This means that there is no limit to the height of future skyscrapers in São Paulo. It is absurd that a city like São Paulo, which is dominated by a large number of tall buildings or skyscrapers and has its streets congested by cars, adopts a Master Plan that contributes to an even greater increase in the number of skyscrapers and cars on the congested streets of São Paulo, compromising the well-being of its population.

One fact is evident: the revision of the Master Plan of São Paulo will contribute to further degrade the city of São Paulo. The perception of everyone who visits the highest point of Farol Santander, where there is a lookout point over the city, makes it clear that the city of São Paulo has been at the service of real estate speculation for many years, responsible for transforming the city into an immense “jungle of reinforced concrete”. In the same way, those who travel around the city will see that São Paulo was made to serve automobiles, whose number grows every day. These perceptions lead us to the sad conclusion that São Paulo was not and is not planned to promote the well-being of its population, but to serve real estate speculation and car owners. Nothing similar to what has been planned in Amsterdam, a world reference city in urban planning, is being proposed for the city of São Paulo by the City Hall of São Paulo.

São Paulo faces what is called urban macrocephaly, which is characterized by the absence of rational urban planning in the city and lack of rational planning to deal with urban conurbations with other cities located in its surroundings, due to the presence of very large regions of the city occupied in a disorderly way, the demographic explosion that does not allow the development of a network of jobs on the same scale as local demand, the urban degradation on the outskirts of the city, the lack of effective integration between modes of transport and the existence of bottlenecks in urban mobility due to the difficulty in transport millions of people every day with quality, at a fair price and safely, in a flow to and from regions with high population density and the worsening of environmental problems with the lack of basic sanitation that pollutes the soil and the city’s rivers and fossil fuel burning that compromises air quality and the lack of tree-lined green areas and few squares with breathing areas. The fact that São Paulo has a much larger population and city area than Amsterdam is not a reason for the city of São Paulo not to adopt similar territorial and urban planning measures similar to those adopted in the Netherlands and, particularly in Amsterdam.

REFERENCES

1.    GARCIA, Natália. Amsterdã: planejar é a regra, fluidez é a sensação. Available on the website <http://www.oeco.org.br/reportagens/25343-amsterda-planejar-e-a-regra-fluidez-e-a-sensacao/>.

2.    OLSEN, Natasha. Ranking define as 10 cidades mais verdes do mundo. Available on the website <https://ciclovivo.com.br/arq-urb/urbanismo/ranking-define-as-10-cidades-mais-verdes-do-mundo/>.

3.    ALVES, Damares. As 7 cidades inteligentes mais avançadas do mundo. Available on the website <https://socientifica.com.br/as-7-cidades-inteligentes-mais-avancadas-do-mundo/>.

4.    INSTITUTO CIDADES SUSTENTÁVEIS. Amsterdã se destaca como cidade inteligente. Available on the website <http://www.cidadessustentaveis.org.br/boas-praticas/amsterda-uma-cidade-inteligente>.

5.    INFRAROI. Conheça os 10 problemas urbanos de São Paulo. Available on the website  <http://infraroi.com.br/2018/07/26/conheca-os-10-problemas-urbanos-de-sao-paulo/>.

* Fernando Alcoforado, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, of the SBPC- Brazilian Society for the Progress of Science and of IPB- Polytechnic Institute of Bahia, engineer and doctor in Territorial Planning and Regional Development from the University of Barcelona, college professor (Engineering, Economy and Administration) and consultant in the areas of strategic planning, business planning, regional planning, urban planning and energy systems, was Advisor to the Vice President of Engineering and Technology at LIGHT S.A. Electric power distribution company from Rio de Janeiro, Strategic Planning Coordinator of CEPED- Bahia Research and Development Center, Undersecretary of Energy of the State of Bahia, Secretary of Planning of Salvador, is the author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), a chapter in the book Flood Handbook (CRC Press, Boca Raton, Florida United States, 2022) and How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).  

OS CONTRASTES ENTRE A PLANEJADA AMSTERDÃ NA HOLANDA E A DEGRADADA SÃO PAULO NO BRASIL

Fernando Alcoforado* 

Este artigo tem por objetivo mostrar os contrastes flagrantes entre a cidade de Amsterdã, na Holanda, cidade referência mundial em planejamento urbano e a cidade de São Paulo, no Brasil, exemplo marcante de degradação urbana para evidenciar a necessidade imperiosa de que o planejamento urbano racional seja levado avante, também, na maior cidade brasileira.

1.    O planejamento urbano de Amsterdã na Holanda

A Holanda é chamada também de Países Baixos porque mais de um quarto do país está abaixo do nível do mar. Ao longo de sua história, tem sido muito importante a luta dos holandeses contra a ingrata geografia do país porque até o século XIV, parte do que é hoje a Holanda estava submersa. Nos últimos 900 anos, os holandeses vêm construindo diques para se protegerem contra as águas dos rios que atravessam o país e as águas do mar do Norte. A ameaça da água não vem apenas do mar do Norte, mas também dos rios que atravessam a Holanda antes de desaguar no mar do Norte. Em resultado disso, a Holanda conta agora com milhares de quilômetros de diques que lhe dão essa proteção. Trata-se de um feito impressionante de engenharia. É importante observar que a Holanda é a “caixa d´água da Europa” porque no fim do inverno, após o longo período de chuvas e quando a neve das montanhas derrete, um volume enorme de água vindo da Suíça, Alemanha, França e Bélgica jorra rio abaixo e entra na Holanda. Essa quantidade colossal de água pode causar graves problemas. Por exemplo, em fevereiro de 1995, o volume das águas dos rios no centro do país começaram a subir tanto, que as pessoas temiam que a pressão da água pudesse romper os diques. Se houvesse uma brecha qualquer, toda a terra que fica atrás dos diques teria sido coberta com muitos metros de água. Hoje os milhões de holandeses que vivem abaixo do nível do mar conseguem dormir tranquilamente à noite devido a uma constante batalha que é travada contra as inundações.

Amsterdã só existe porque é uma cidade planejada. O planejamento urbano de Amsterdã está integrado ao planejamento territorial da Holanda. A cidade foi construída em volta do Rio Amstel, que corta a Holanda de leste a oeste. Para evitar a inundação de Amsterdã, e do resto do país, os holandeses decidiram encontrar uma solução que é um sistema de canais. O sistema de canais de Amsterdã é o resultado de um planejamento urbano bem sucedido com a execução de obras de engenharia hidráulica com fins defensivos e de transporte desde que a cidade se expandiu durante o século 16. A área de Amsterdã tinha como característica um solo encharcado e arenoso que precisou ser drenado para que a terra fosse ocupada. Com a remoção da água, o solo ficou compactado e a altura da cidade foi baixando em relação ao rio. Desta forma, Amsterdã ficou abaixo tanto do Rio Amstel quanto do mar do Norte. Daí a necessidade antiga de planejamento e de obras de engenharia hidráulica, que já existe desde meados do século 17. A cidade de Amsterdã foi construída contando com o uso de diques e barragens que lutam contra as águas e as enviam ao mar. Assim, os canais de Amsterdã não são apenas estéticos porque, na realidade, eles têm uma utilidade muito importante [1].  

É preciso observar que a Holanda era um país com uma localização geográfica privilegiada para transportar produtos pelo mar na Idade Média. Essa foi a época de ouro da Holanda, em meados do século 17, quando era a maior potência econômica do mundo. Foi nessa época que foi construída a rede de canais circulares em Amsterdã que tinha por funções fazer com que a água circulasse por redes seguras até o Rio Amstel, evitando alagamentos, e criar um legado arquitetônico. Os canais de Amsterdã compõem uma das paisagens mais belas do mundo. Amsterdã é uma cidade com construções de mais de 300 anos. Em Amsterdã, o espaço público é inteligentemente planejado. O corte lateral de um lado ao outro de uma rua ou avenida possui diversas faixas, como calçada, ciclovia, faixa de ônibus, trilho de “tram” (bonde elétrico), trilho de trem e faixa para carros. Quem está à pé tem sempre uma pequena ilha entre cada uma dessas faixas para ficar seguro ao atravessar a rua. Amsterdã, uma cidade de 850 mil habitantes em uma área de 165,5 km², é líder mundial em planejamento urbano há muito tempo.

O uso da bicicleta é generalizado em Amsterdã e na Holanda. Entre os motivos da cultura da bicicleta estão o terreno plano da cidade e do país como um todo. Ciclistas em Amsterdã não usam capacete, considerando a bicicleta uma mera extensão de transitar como um pedestre. O fato de muita gente andar de bicicleta gera um círculo virtuoso porque mais ciclistas nas ruas gera mais segurança para outros ciclistas, e motoristas, que também são ciclistas, dirigem com cuidado maior na direção de seus veículos automotores. Hoje 27% dos deslocamentos na cidade são realizados de bicicleta, aumentando para 50% na região central de Amsterdã. Depois da II Guerra Mundial, Amsterdã sofreu o impacto dos automóveis, assim como outras cidades do mundo. Políticas foram adotadas para incentivar o uso do automóvel como a construção de anel viário e a ocupação do espaço público e das antigas calçadas com vagas para veículos. O plano de mobilidade Amsterdã 2025 foi elaborado em conjunto pelas secretarias de transportes, habitação e meio ambiente da cidade. Ao invés de criar mais ruas para que mais carros possam se locomover, o plano procurou categorizar as ruas já existentes de acordo com suas funções.

As funções das ruas de Amsterdã estão discriminadas a seguir: 1) Ruas residenciais: não possuem espaço para transporte público, só permitem a entrada de carros e motos dos que lá habitam. Possuem livre circulação de bicicletas e pedestres; 2) Ruas de compras pequenas: são feitas para serem percorridas a pé, mas podem ter transporte público. As calçadas são largas e não há estacionamento para carros que, na maioria dos casos, nem podem circular nessas ruas; 3) Ruas comerciais com muito trânsito: áreas de shopping com grande circulação de carros, estacionamento nas ruas, mas sem transporte público e algumas vezes sem ciclovias; 4) Avenidas largas arteriais que ligam bairros e áreas importantes. São vias expressas que permitem o uso de carros e motos e possuem transporte público e ciclovias; e, 5) Rodovias intermunicipais: ligam a cidade aos municípios vizinhos e possuem circulação de veículos pequenos e grandes.

Estabelecidas essas funções para as ruas, fica mais claro como a prefeitura de Amsterdã deve agir para impedir o crescimento do uso de carros, melhorar a rede de transportes públicos, e aumentar o número de deslocamentos a pé e de bicicleta. Hoje a divisão modal da cidade é: 36% das viagens são feitas de transporte público, 33% são de carro, 27% de bicicletas e 4% a pé. Para desencorajar o uso de veículos particulares, a solução consistiu em diminuir o número de estacionamentos nas ruas e aumentar a tributação, tanto na compra dos carros quanto dos combustíveis. Para controlar o trânsito, as grandes avenidas arteriais que ligam bairros têm suas infraestruturas melhoradas para que concentrem todo o fluxo de automóveis. Assim os carros sempre passarão por elas, nunca pelas ruas menores. Não haverá grandes investimentos em mais calçadas ou mesmo ciclovias.

O plano de mobilidade Amsterdã 2025 prevê apenas novos trechos de ciclovia periféricos até 2025. Já o metrô ganhará uma nova linha, que cruzará a cidade de norte a sul. A rede de “tram” (bonde elétrico) também será ampliada. Essa rede tem como objetivo facilitar principalmente a vida das pessoas que estão nos distritos fora do centro, mas precisam acessar a área central da cidade. Os estacionamentos do centro da cidade praticamente deixarão de existir e se concentrarão em zonas periféricas para que o centro da cidade fique livre de congestionamentos. A pior coisa que se pode fazer por uma cidade é deixar os carros circularem livremente, porque eles ocupam espaços cada vez maiores. Essa medida será combinada com a tentativa de desenvolver os confortos urbanos nas áreas periféricas da cidade, com a criação de escolas, centros comerciais e serviços. Além de facilitar os deslocamentos, busca-se fazer com que as pessoas possam morar perto dos locais de trabalho.

De acordo com o website Ciclo Vivo, Amsterdã é considerada a cidade mais verde do mundo seguida de Viena na Áustria, Cingapura na Ásia, Estocolmo na Suécia, Reiquiavique na Islândia, Paris na França, Berlim na Alemanha, Curitiba no Brasil, São Francisco nos Estados Unidos e Washington nos Estados Unidos [2]. Além de árvores, entram nos critérios energia renovável, transporte sustentável e outros fatores. Além de muitos atributos verdes, a capital da Holanda também tem metas ambiciosas de desenvolvimento sustentável e uma cultura ecológica que adota refeições sem carne, eliminando o uso de plástico e reduzindo as emissões de carbono. Com muitos parques e áreas verdes, Amsterdã promove uma mudança proativa em direção a uma economia circular que contempla o reuso de materiais e de resíduos resultantes das atividades humanas. Uma das metas de Amsterdã é reduzir as emissões de dióxido de carbono na cidade em 55% até 2030. A capital holandesa também quer se adaptar ao clima, usar todos os telhados adequados para energia solar e ser a primeira cidade da Europa a ter 95 por cento livre de emissões até 2050.

Amsterdã é considerada a quinta cidade mais inteligente do mundo depois de Cingapura na Ásia, Helsinque na Finlândia, Zurique na Suíça e Oslo na Noruega [3]. A magnífica cidade de Amsterdã está na vanguarda da tecnologia de cidade inteligente desde 2009, com mais de 170 operações diferentes em toda a cidade. O que diferencia Amsterdã de outras cidades é sua abordagem única à inovação em sustentabilidade ambiental. O uso de energia renovável para caminhões de lixo elétricos e pontos de ônibus movidos a energia solar são apenas alguns exemplos dos esforços de Amsterdã em direção a uma vida sustentável. Além disso, construiu aldeias flutuantes como alternativa à recuperação de terras. A cidade implementou avanços tecnológicos em milhares de residências e empresas com modificações como isolamento de telhados com eficiência energética, interruptores de luz automatizados, medidores inteligentes e luzes LED de ultra baixo consumo de energia, causando um impacto significativo em um futuro melhor. Com um compromisso inabalável com a sustentabilidade ambiental e soluções inovadoras para vários problemas da cidade, não é surpresa que Amsterdã garanta seu lugar como uma das sete principais cidades mais inteligentes do mundo.

No momento, está em andamento o projeto Amsterdã Cidade Inteligente (Amsterdã Smart City) iniciado em 2009 [4]. Foram iniciadas diversas ações a fim de criar uma cidade mais sustentável e energeticamente eficiente. Essas ações foram subdivididas em quatro categorias: habitação, mobilidade, trabalho e espaços públicos. Seus objetivos são os seguintes: 1) Habitação: tem como objetivo fornecer energia para 8000 domicílios com energia renovável, principalmente através de geração eólica; 2) Mobilidade: além dos projetos com preferência dada à bicicleta e ao transporte público de baixo carbono, existe um projeto para alocação distribuída de estações de abastecimento de carros elétricos por toda a cidade, de forma a priorizar o uso de energia elétrica em relação ao combustível fóssil nos veículos automotores da cidade; 3) Trabalho: visa promover atividades de forma comunitária para induzir uma rotina de consumo colaborativo; e, 4) Espaços públicos: Escola Inteligente na qual crianças de escola primária aprendem a economizar energia num esquema de competição interescolar em eficiência energética. Já no projeto Rua do Clima, a rua da cidade tem o papel de incubadora e espaço de testes para inovações e experimentos climáticos, de forma a compartilhar os avanços com a cidade de forma direta.

Amsterdã como todas as cidades holandesas, acostumadas a recomeçar, se reinventaram como centros da engenhosidade ambiental. As cidades holandesas foram as primeiras na construção de estacionamentos para combater inundações que se transformam em reservatórios de emergência, garantindo condições de evitar o transbordamento das estações de tratamento de esgoto causado por inundações provocadas por tempestades que devem ocorrer a cada cinco ou dez anos. Instalou, também, praças, jardins e quadras de basquete em bairros carentes que também funcionam como lagoas de retenção para lidar com inundações na cidade. Para os holandeses, uma cidade inteligente tem que ter uma visão abrangente e holística que vai muito além do uso dos diques e comportas para evitar inundações. O desafio da adaptação ao clima inclui segurança, saneamento, moradia, estradas, serviços de emergência. Os holandeses conscientizam o público e se estruturam para haver resiliência cibernética porque o próximo desafio em termos de segurança climática vai ter a ver com a segurança da internet. Os holandeses consideram que não se pode ter sistemas vulneráveis para controlar as comportas dos diques, as pontes e as estações de tratamento.

2.    A ausência de planejamento urbano racional e a degradação urbana em São Paulo 

É evidente a genialidade dos arquitetos no planejamento urbano de Amsterdã e dos engenheiros holandeses no planejamento territorial bem sucedido da Holanda e do papel da Engenharia, sobretudo a hidráulica, no esforço de domar as águas dos rios e do mar do Norte na Holanda. Enquanto isto, a cidade de São Paulo com uma população de 12.396.372 de habitantes e 1.521,11 km², se caracteriza pela ausência de competente planejamento territorial do Estado de São Paulo e de competente planejamento urbano da cidade de São Paulo que sejam articulados entre si, que ocorre, também, em todos os estados e cidades no Brasil. Diferentemente de Amsterdã, São Paulo não é uma cidade planejada que não está integrada ao planejamento territorial do Estado de São Paulo porque este, também, não existe. Diferentemente de Amsterdã que classifica suas ruas em ruas residenciais, ruas de compras pequenas, ruas comerciais com muito trânsito, avenidas largas arteriais e rodovias intermunicipais especificando em quais delas é permitida a circulação de carros, motos, bicicletas, transporte público, transporte de carga, etc, isto não existe em São Paulo.

Diferentemente de Amsterdã em que a prefeitura age para impedir o crescimento do uso de carros, melhorar a rede de transportes públicos, e aumentar o número de deslocamentos a pé e de bicicleta na cidade, São Paulo enfrenta sérios problemas de mobilidade urbana devido à falta de uma efetiva integração entre os diversos modais de transporte (metrô, ônibus, trem) e aos congestionamentos de trânsito causados pela quantidade excessiva de automóveis nas ruas da cidade. Diferentemente de Amsterdã, São Paulo não controla o trânsito fazendo com que as grandes avenidas arteriais que ligam bairros tenham suas infraestruturas melhoradas para que concentrem todo o fluxo de veículos automotores. Diferentemente de Amsterdã, São Paulo não adota medidas que façam com que os estacionamentos do centro da cidade praticamente deixem de existir e se concentrem em zonas periféricas para que o centro da cidade fique livre de congestionamentos. Diferentemente de Amsterdã e das cidades holandesas, São Paulo não transforma áreas de estacionamentos em reservatórios de emergência ou piscinões, bem como praças, jardins e quadras de basquete em bairros carentes que funcionem, também, como lagoas de retenção para lidar com inundações na cidade. A ausência dessas medidas fazem com que São Paulo apresente sérios problemas de mortes, inundações e deslizamentos provocados pelas chuvas que alagam corredores importantes de escoamento de veículos, como as marginais dos rios Pinheiros e Tietê e provocam caos no trânsito. Acresce-se aos problemas de mobilidade urbana e de inundações, os problemas de violência urbana, poluição do ar, poluição sonora, falta de moradia e exclusão social de grandes parcelas da população [5].  

Diferentemente de Amsterdã que é considerada a cidade mais verde do mundo, São Paulo não tem metas de desenvolvimento sustentável e uma cultura ecológica que contemple a eliminação do uso do plástico e a redução das emissões de carbono, além de não adotar medidas de economia circular que contemple o reuso de materiais e de resíduos resultantes das atividades humanas. Diferentemente de Amsterdã que é considerada a quinta cidade mais inteligente do mundo, São Paulo não adota medidas para tornar a cidade inteligente como, por exemplo, o uso de energia renovável para caminhões de lixo elétricos, pontos de ônibus movidos a energia solar, transporte público de baixo carbono, abastecimento de eletricidade de carros elétricos por toda a cidade, de forma a priorizar o uso de energia elétrica em relação ao combustível fóssil nos veículos automotores da cidade, entre outras medidas.

Recentemente, a Câmara Municipal de São Paulo aprovou a revisão do Plano Diretor da cidade, lei que orienta o crescimento da cidade e estabelece regras gerais para a construção de edifícios. O Plano Diretor de 2014 já previa maior verticalização no entorno dos corredores de ônibus e das estações de metrô e trem. Essas áreas são chamadas de Eixos de Estruturação e Transformação Urbana. A mudança no Plano Diretor da cidade facilita a oferta de mais vagas de garagem para apartamentos mais amplos ao lado desses eixos, isto é, do transporte público. O Plano Diretor da cidade vai fazer com que seus bairros vivam à sombra de prédios enormes, além de conviverem em áreas com mais trânsito e poluição. O texto final do Plano Diretor excluiu um artigo que impede a construção de prédios mais altos do que a torre de observação do Mirante de Santana, principal estação meteorológica da cidade de São Paulo. Isto significa dizer que não há limite para a altura dos futuros arranha-céus de São Paulo. Trata-se de uma absurdo que uma cidade como a de São Paulo que é dominada por grande quantidade de edifícios altos ou arranha-céus e tem suas ruas congestionadas por automóveis, se adote um Plano Diretor que contribui para o aumento ainda maior do número de arranha-céus e de automóveis nas ruas congestionadas de São Paulo comprometendo o bem estar de sua população.

Um fato é evidente: a revisão do Plano Diretor de São Paulo vai contribuir para degradar ainda mais a cidade de São Paulo. A percepção de todos que visitam o ponto mais alto do Farol Santander onde se encontra um mirante da cidade permite perceber que a cidade São Paulo está há muitos anos a serviço da especulação imobiliária responsável por transformar a cidade em uma imensa “selva de concreto armado”. Da mesma forma, quem circula pela cidade, constata que São Paulo foi feita para servir aos automóveis cujo número cresce a cada dia. Essas percepções nos conduzem à triste conclusão de que São Paulo não foi e não é planejada para propiciar o bem estar de sua população e sim para atender a especulação imobiliária e aos proprietários de automóveis. Nada similar ao que tem sido planejado em Amsterdã, cidade mundial referência em planejamento urbano, está sendo proposto para a cidade de São Paulo pela Prefeitura de São Paulo.

São Paulo enfrenta o que se denomina macrocefalia urbana que se caracteriza pela ausência de planejamento urbano racional da cidade e falta de planejamento racional para lidar com as conurbações urbanas com outras cidades situadas no seu entorno, por apresentar regiões da cidade muito grandes ocupadas de modo desordenado, pela explosão demográfica que não permite o desenvolvimento de uma rede de empregos na mesma escala da demanda local, pela degradação urbana da periferia da cidade, pela falta de efetiva integração entre os modais de transporte e a existência de gargalos na mobilidade urbana pela dificuldade em transportar com qualidade, a um preço justo e em segurança, milhões de pessoas todos os dias, em um fluxo de ida e de volta para as regiões com alta densidade populacional e pelo agravamento dos problemas ambientais com a carência de saneamento básico que polui o solo e os rios da cidade e a queima de combustível fóssil que compromete a qualidade do ar e pela carência de áreas verdes arborizadas e de poucas praças com áreas de respiro. O fato de São Paulo ter população e área da cidade bastante superior à de Amsterdã não é justificativa para que a cidade de São Paulo não adote medidas similares de planejamento territorial e urbano similares às adotadas na Holanda e, particularmente em Amsterdã.

REFERÊNCIAS 

1.    GARCIA, Natália.  Amsterdã: planejar é a regra, fluidez é a sensação. Disponível no website <http://www.oeco.org.br/reportagens/25343-amsterda-planejar-e-a-regra-fluidez-e-a-sensacao/>.

2.    OLSEN, Natasha. Ranking define as 10 cidades mais verdes do mundo. Disponível no website <https://ciclovivo.com.br/arq-urb/urbanismo/ranking-define-as-10-cidades-mais-verdes-do-mundo/>.

3.    ALVES, Damares. As 7 cidades inteligentes mais avançadas do mundo. Disponível no website <https://socientifica.com.br/as-7-cidades-inteligentes-mais-avancadas-do-mundo/>.

4.    INSTITUTO CIDADES SUSTENTÁVEIS. Amsterdã se destaca como cidade inteligente. Disponível no website <http://www.cidadessustentaveis.org.br/boas-praticas/amsterda-uma-cidade-inteligente>.

5.    INFRAROI. Conheça os 10 problemas urbanos de São Paulo. Disponível no website  <http://infraroi.com.br/2018/07/26/conheca-os-10-problemas-urbanos-de-sao-paulo/>.

* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

A INDEPENDÊNCIA DO BRASIL E A UNIDADE NACIONAL FORAM CONQUISTADAS NA BAHIA EM 2 DE JULHO DE 1823

Fernando Alcoforado*   

Em 7 de setembro de 2022, o Brasil comemorou o bicentenário da proclamação de sua independência e, em 2 de julho de 2023, comemora o bicentenário da conquista de sua independência e da unidade nacional que foram realizadas pelo heroico povo baiano com a luta revolucionária que empreendeu da qual resultou a expulsão definitiva das tropas portuguesas da Bahia e do Brasil em 2 de julho de 1823. Vários fatores contribuíram para a Independência do Brasil de Portugal como as ideias iluministas, que serviram de base à Revolução Americana de 1776, à Revolução Francesa de 1789 e à Revolução Haitiana de 1791 contra o sistema colonial escravista que conduziu a colônia francesa de São Domingos à independência, e as independências ocorridas na América Inglesa (Revolução Americana ou Guerra de Independência dos Estados Unidos) e na América Espanhola (Simon Bolívar liderou uma campanha militar na Venezuela, na Colômbia e no Equador, enquanto San Martín liderou o levante na Argentina e no Peru até a rendição dos espanhóis) que serviram de referenciais para muitos movimentos emancipatórios ocorridos na época. Outros fatores que contribuíram para a Independência do Brasil de Portugal foi a morte, em 1816, da rainha de Portugal, D. Maria, que fez com que seu filho D. João se tornasse rei, sendo aclamado como D. João VI. Em 1820, a Revolução Liberal do Porto em Portugal, que ameaçava a monarquia portuguesa, fez D. João VI voltar para Portugal quando transferiu para D. Pedro, seu filho, a regência do Brasil. Em seguida, várias medidas vindas de Portugal pressionaram D. Pedro a regressar a Portugal e manter o Brasil como colônia de Portugal. As notícias repercutiram como uma declaração de guerra, provocando tumultos e manifestações de desagrado no Brasil.  

D. Pedro foi pressionado para ficar no Brasil, pois sua partida representaria sua divisão territorial. D. Pedro recebe, também, duas cartas, uma de José Bonifácio e outra da Imperatriz Leopoldina aconselhando que não aceitasse a ordem vinda de Portugal. Dom Pedro acata esses conselhos e corta os vínculos políticos de submissão do Brasil que ainda restavam com Portugal. O Dia do Fico (9 de janeiro de 1822) por D. Pedro foi um passo importante para o rompimento definitivo do Brasil com Portugal. O Grito de Independência do Brasil em 7 de setembro de 1822 às margens do riacho Ipiranga resultou deste processo. Os acontecimentos desencadearam uma crise no governo e os ministros fiéis às Cortes portuguesas se demitiram. O príncipe D. Pedro formou um novo ministério, sob a liderança de José Bonifácio, um dos principais partidários da emancipação política brasileira. Com a independência, o Brasil deixou de ser uma colônia portuguesa dando um passo decisivo para o início da organização do estado brasileiro e a manutenção de sua unidade territorial para evitar seu fracionamento em vários países como ocorreu nas colônias espanholas. D. Pedro manteve a unidade do território do Brasil, agradando aos interesses dos grupos econômicos que dominavam a colônia. Houve, entretanto, dois fatos deploráveis relativos à Independência do Brasil: 1) ela não resultou da luta do povo brasileiro por sua libertação, mas sim da vontade do príncipe D. Pedro; e, 2) Portugal foi indenizado em 2 milhões de libras esterlinas para aceitar a Independência do Brasil.  

É oportuno observar que a Proclamação da Independência do Brasil por D. Pedro em 7 de setembro de 1822 não produziu efeitos imediatos em províncias como a Cisplatina (atual Uruguai), Maranhão, Grão‑Pará e Bahia. No momento em que D Pedro declarou a independência do Brasil, os governos e tropas de algumas províncias foram levadas a expressar sua incondicional fidelidade ao governo lusitano. A opressão exercida pelos militares portugueses aumentou e foi preciso muita luta para expulsá‑los do Brasil. Com a decisão de Dom Pedro de ficar no Brasil, em desafio às determinações da Corte portuguesa, Portugal passou a concentrar seus esforços militares em Salvador. Ao menos 2.500 homens vieram de Portugal para reforçar os contingentes que estavam na Bahia. O propósito da Corte portuguesa era o de manter sua dominação no Norte e Nordeste do Brasil já que o restante do País era controlado por D. Pedro. Na Bahia, os militares portugueses contaram com o apoio de grandes comerciantes, quase todos oriundos de Portugal e latifundiários nascidos no Brasil que produziam açúcar e tabaco à custa do trabalho escravo, que temiam os movimentos emancipacionistas, que àquela altura defendiam ideias progressistas, como a autonomia política do Brasil, a implantação da República, o fim da escravidão e a abolição dos privilégios sociais. A guerra de Independência da Bahia durou 21 meses, entre fevereiro de 1822 e novembro de 1823. Em 1823, o clima era de ódio na Bahia contra o colonizador português. O povo baiano em bandos atacavam os militares portugueses a pedradas em locais como a Baixa dos Sapateiros quebrando vidraças e lanternas nas ruas, conforme conta o escritor Laurentino Gomes, autor do livro 1822.  O escritor Laurentino Gomes afirma que a resistência baiana foi decisiva para a manutenção da unidade nacional sem a qual o território do Brasil seria dividido em duas partes.

O brigadeiro Inácio Luís Madeira de Melo foi nomeado pela Corte portuguesa como novo comandante das Armas da Bahia que, logo ao assumir este posto bombardeou o Forte de São Pedro em Salvador onde militares do Regimento de Artilharia partidários da independência nacional estavam aquartelados os quais se viram forçados a fugir para organizar a resistência na cidade de Cacheira no interior.  Salvador virou uma praça de guerra, com confrontos violentos no bairro das Mercês, na Praça da Piedade e no Campo da Pólvora. O caos se estabeleceu na cidade. Tumultos, saques e quebra‑quebras obrigaram moradores a abandonarem Salvador com suas famílias. Em poucos dias, o restante da Bahia aderiu em peso à Independência do Brasil, formando um cinturão de isolamento aos portugueses encastelados em Salvador, relata o escritor Laurentino Gomes no livro 1822. Os ânimos se acirraram entre os nativos e os portugueses. A pretexto de perseguir “revoltosos”, em 19 de fevereiro de 1823, militares portugueses invadiram o Convento da Lapa atrás de revoltosos. Ao tentar impedi‑los de entrar, soror Joana Angélica foi morta a golpes de baioneta, transformando‑se na grande mártir da guerra pela independência do Brasil na Bahia. 

Na guerra de Independência do Brasil na Bahia, milhares de pessoas perderam a vida em roças, morros, mares e nos rios em que se travou o conflito, conta Laurentino Gomes, no livro 1822. Cachoeira passou a atrair retirantes de Salvador e de municípios como Santo Amaro da Purificação e se transformou no centro da resistência aos portugueses. Na cidade de Cachoeira, um ato público que declarava lealdade a D. Pedro foi interrompido a tiros por uma escuna portuguesa que subia o rio Paraguaçu, em cujas margens se situa a cidade. Revoltada, a população atacou a embarcação. Este conflito durou três dias, ao fim dos quais foi criada uma junta para defender a cidade de Cachoeira. Várias pessoas perderam a vida, mas Cachoeira resistiu ao ataque. A chegada à Bahia do general francês Pierre Labatut e do almirante inglês Thomas Cochrane foi fundamental porque eles organizaram as tropas brasileiras. Marco da luta pela independência do Brasil na Bahia, a Batalha de Pirajá é considerada a maior batalha militar das Américas pelo historiador baiano Cid Teixeira. O confronto, decisivo para o desfecho da guerra, contou com uma grande participação de negros, caboclos e índios, que se infiltravam à noite pela floresta e ao amanhecer se levantavam com flechas para atacar os portugueses.

Madeira de Melo tentou romper o cerco a Salvador atacando Itaparica, mas encontrou resistência de soldados que haviam chegado de Alagoas e de um grupo de mulheres lideradas por Maria Felipa de Oliveira, uma negra marisqueira que se engajara na luta contra os portugueses desde que as notícias do Grito do Ipiranga chegaram à Bahia. Várias embarcações lusitanas foram incendiadas por aquelas mulheres, entre elas a Canhoneira Dez de Fevereiro, na praia de Manguinhos, e a Barca Constituição, na praia do Convento. Armadas de peixeiras e galhos de cansanção, elas surravam os portugueses que ousavam desembarcar na ilha para, depois, atear fogo aos barcos usando tochas de palha de coco e chumbo. Houve muitos casos em que as mulheres lutaram corpo a corpo, como no caso da batalha de Itaparica, quando um grupo de mulheres impediu o desembarque de portugueses, conforme conta o historiador baiano Luís Henrique Dias Tavares em seu livro Independência do Brasil na Bahia.

Sem suprimentos e abatido pelo fracasso nas batalhas de Pirajá e de Itaparica, Madeira de Melo deixa Salvador, na madrugada de 2 de julho de 1823, à frente de uma frota de 78 embarcações portuguesas. Escoltados por 13 navios de guerra, 4.500 militares portugueses singram os mares em direção a Portugal, perseguidos por uma força naval comandada por João Francisco de Oliveira, o João das Botas. Na manhã do dia 2 de julho de 1823, entram em Salvador 8.700 homens acompanhados por mais de mil mulheres, que os ajudaram nos combates e em serviços de enfermagem e cozinha, para consolidar a libertação da Bahia e a Independência do Brasil do colonizador português. O 2 de julho de 1823 é um grande marco na luta do povo baiano pela Independência do Brasil porque consolidou a libertação do País da dominação do colonizador português ao expulsar de nosso território as últimas tropas portuguesas que não aceitavam a emancipação do Brasil. O 2 de julho de 1823 consolidou a Independência do Brasil proclamada em 7 de setembro de 1822 por D. Pedro, graças à luta do povo baiano que, em armas, derrotou militarmente e expulsou de nosso território as tropas portuguesas. A luta do povo baiano em 1823 representou a continuidade das lutas realizadas pelo povo brasileiro na Bahia como a abortada Conjuração Baiana ou Revolta dos Alfaiates ocorrida em Salvador em 1798 que tinha como objetivos separar o Brasil de Portugal, abolir a escravatura e atender às reivindicações das camadas pobres da população.

A proclamação da Independência do Brasil em 7 de setembro de 1822 diferiu da experiência dos demais países das Américas porque não apresentou as características de um típico processo revolucionário nacional-libertador que só se manifestou efetivamente em 2 de julho de 1823 quando as tropas portuguesas foram expulsas da Bahia graças à luta revolucionária do povo baiano. A luta heroica do povo baiano em 1823 foi motivada pelos ideais do liberalismo e das grandes revoluções de fins do século XVIII. Apesar da luta heroica do povo baiano em 1823, a Independência do Brasil de Portugal foi uma “independência sem revolução econômica e social” porque não houve mudanças na base econômica do País. O Estado que nasce da Independência do Brasil manteve o execrável latifúndio que perdura até hoje e intensificou a não menos execrável escravidão que durou mais de 300 anos fazendo desta o suporte da restauração que realiza quanto às estruturas econômicas herdadas do período colonial. Apesar de não ter havido avanços econômicos e sociais, o heroísmo do povo baiano deveria servir de inspiração para todos os patriotas brasileiros que buscam a conquista da libertação do Brasil dos entraves atuais ao progresso político, econômico e social do País e o 2 de julho de 1823 deveria ser celebrado nacionalmente e não apenas na Bahia como vem acontecendo até o presente momento porque a Independência do Brasil só foi conquistada e a unidade nacional foi assegurada graças ao heroísmo do povo baiano.  

* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

L’INTELLIGENCE ARTIFICIELLE DANS LA CONQUÊTE HUMAINE DE L’ESPACE, SES AUTRES APPLICATIONS ET SES RISQUES

Fernando Alcoforado*

Cet article vise à présenter comment l’Intelligence Artificielle est et pourrait être utilisée par le secteur spatial dans la conquête humaine de l’espace, l’utilisation de l’Intelligence Artificielle et de la Robotique dans l’Industrie Aérospatiale et Défense dans le monde et les risques de la Superintelligence Artificielle et la nécessité à sa réglementation pour éviter ses conséquences néfastes. Le terme « intelligence artificielle » (IA) a été inventé en 1956 par John McCarthy, lors d’une conférence aux États-Unis au Dartmouth College. L’intelligence artificielle comprend toutes les techniques qui permettent aux ordinateurs d’imiter l’intelligence humaine. Au 20ème siècle, le développement de l’IA a fait des progrès significatifs avec l’émergence de l’ère numérique et des premiers systèmes informatisés. L’IA est devenue un domaine dominant de recherche et de développement avec l’émergence d’ordinateurs dotés de hautes capacités de traitement et de stockage de données. Actuellement, l’IA a un impact significatif sur de nombreux secteurs de la société, de la santé, de l’éducation, de la finance, de l’industrie et de l’aérospatiale, entre autres. Malgré sa croissance rapide, l’IA reste un domaine en évolution rapide avec beaucoup plus à développer [1].

L’intelligence artificielle peut également être réalisée via l’apprentissage automatique (ML- Machine Learning). L’apprentissage automatique permet aux machines de devenir autonomes et d’apprendre par elles-mêmes. L’apprentissage automatique est un moyen de rendre un algorithme plus complexe. Pour que cela soit possible, d’énormes quantités de données sont insérées dans l’algorithme, qui s’ajuste et s’améliore au fil du temps. Plus l’algorithme collecte de temps et de données, plus il devient intelligent et les machines traitent les informations de la même manière que les humains, en développant des réseaux de neurones artificiels appelés L’apprentissage en profondeur (Deep Learning-DL) [1].

L’apprentissage en profondeur (DL) est une technique spécialisée de L’apprentissage automatique, dans laquelle la machine s’entraîne en effectuant des tâches complexes en utilisant plusieurs couches de réseaux de neurones. Un réseau de neurones d’un système d’Intelligence Artificielle est capable d’analyser plus d’un milliard de données en quelques secondes, étant un outil incroyable pour accompagner un décideur au sein d’une organisation publique ou privée, garantissant ainsi la meilleure option parmi les possibles. Comme les données collectées sont constamment mises à jour, les systèmes d’Intelligence Artificielle mettent également à jour leurs résultats, permettant aux gestionnaires d’avoir accès à des informations récentes sur les variations de l’économie d’un pays et du marché dans lequel une entreprise opère [2].

L’apprentissage automatique est un domaine de l’informatique qui donne aux ordinateurs la capacité d’apprendre sans être explicitement programmés. L’apprentissage automatique est étroitement lié aux statistiques informatiques, qui se concentrent également sur la création de prédictions grâce à l’utilisation d’ordinateurs. Il a des liens étroits avec l’optimisation mathématique, qui fournit des méthodes, une théorie et des domaines d’application sur le terrain. Dans l’analyse de données, l’apprentissage automatique est une méthode utilisée pour concevoir des modèles et des algorithmes complexes qui se prêtent à la prédiction. Dans le cadre d’une utilisation commerciale, on parle d’analyse prédictive. Ces modèles analytiques permettent aux chercheurs, aux scientifiques des données, aux ingénieurs et aux analystes de “produire des décisions et des résultats fiables et reproductibles” et de découvrir des “idées cachées” en apprenant les relations historiques et les tendances des données [2].

L’apprentissage en profondeur (DL) peut se faire par apprentissage supervisé (par exemple, dans le secteur spatial, alimentant le système avec des images de la Terre et de la Lune ou d’autres objets célestes jusqu’à ce que l’algorithme puisse identifier avec succès les deux ou plusieurs types d’objets célestes) ou un apprentissage non supervisé, où le réseau trouve la structure par lui-même. De bons exemples d’apprentissage en profondeur sont les archives d’images, les services de traduction en ligne et les systèmes de navigation pour les voitures ou les engins spatiaux autonomes. Dans l’industrie spatiale, il est de plus en plus courant que les chefs de projet et les ingénieurs système intègrent des systèmes d’intelligence artificielle dans les missions spatiales. La première utilisation de l’Intelligence Artificielle dans l’exploration spatiale a eu lieu avec la sonde Deep Space 1, en 1998 [1]. La sonde Deep Space 1 était la première d’une série de missions de recherche dans l’espace lointain et en orbite terrestre visant à expérimenter de nouvelles technologies dans l’espace. Son principal objectif était d’évaluer 12 nouvelles technologies au cours de la phase primaire de sa mission. Il réussit assez bien dans son entreprise et dans sa phase étendue. Il rencontra la comète Borrely et obtint les meilleures images de cette comète [9].

L’Intelligence Artificielle dans le secteur spatial

Les applications d’intelligence artificielle (IA) les plus prometteuses pour l’industrie spatiale sont les suivantes [1] :

1) Exploitation des satellites : l’IA est utilisée en particulier pour faciliter l’exploitation de grandes constellations de satellites et minimiser les erreurs humaines et les coûts d’exploitation du personnel. Des agences spatiales telles que la NASA et l’ESA ont développé de nouvelles procédures d’automatisation basées sur l’IA pour réduire la charge de travail des opérateurs. L’automatisation des segments terrestres et spatiaux réduira le besoin d’intervention humaine, en particulier pour les grandes constellations et les voyages interplanétaires, tels que les systèmes de manœuvre automatisés pour éviter les collisions.

2) Traitement des données d’observation de la Terre : Les satellites d’observation de la Terre ont aujourd’hui la capacité de capturer un grand volume de données. Cependant, ce facteur augmente la demande sur les systèmes de gestion, de stockage et de traitement des données. Le processus de liaison descendante (signal de télécommunications ou informations qu’il transmet) des données satellitaires vers les stations au sol se heurte encore dans une certaine mesure à des limites, allant des limites fondamentales du nombre de fois qu’un satellite peut survoler un emplacement spécifique, à la couverture des stations au sol et même limites d’interopérabilité entre les systèmes du segment au sol et les applications des utilisateurs finaux. Ce qui est très courant de nos jours, c’est la formation de modèles d’IA pour détecter les nuages et corriger les images qu’ils recouvrent. De plus, ces modèles sont également formés pour analyser facilement un grand nombre de données et identifier des objets.

3) Voyage interplanétaire : Les rovers lancés le plus récemment pour explorer Mars ont des ordinateurs de bord équipés d’IA qui leur permettent d’être autonomes pour naviguer et de pouvoir prendre des décisions s’ils n’ont pas de communication ou de commandes humaines pendant un certain temps.

Les missions robotiques de la NASA et d’autres agences spatiales utilisent déjà l’intelligence artificielle pour obtenir une plus grande efficacité et des résultats de meilleure qualité dans leurs recherches. A titre d’exemple, on peut citer les rovers (avec une capacité de locomotion, pour analyser une plus grande surface d’une planète ou d’une lune) et les atterrisseurs (qui se posent sur une planète ou une lune pour l’analyser in loco) qui examinent les cratères martiens et les sondes et télescopes spatiaux dédiés à la découverte et à l’analyse des exoplanètes (mondes existant dans d’autres systèmes stellaires). Les technologies employées dans le programme Artemis sont également équipées d’algorithmes d’apprentissage automatique spécifiques, des instruments les plus élémentaires aux combinaisons qui seront utilisées par les astronautes lors de missions habitées vers la Lune, notamment en ce qui concerne les ressources de survie [3]. Le programme Artemis développé par la NASA vise à ramener les humains à la surface de la Lune. Le programme vise à approfondir la recherche sur notre satellite naturel et le système solaire, en plus d’augmenter la durée de séjour des astronautes dans l’espace en tant qu’élément important de la préparation d’une prochaine grande mission qui a pour destination la planète Mars.

Déjà présente dans plusieurs missions d’exploration spatiale, l’Intelligence Artificielle peut rendre possible la vie humaine sur d’autres planètes. Pour que les êtres humains puissent vivre et, surtout, survivre n’importe où en dehors de la Terre, le monde choisi doit fournir des conditions égales ou au moins similaires à celles de notre planète (telles que l’atmosphère, la température, la topographie, etc.). Mars, cependant, et toute autre planète du système solaire n’est même pas semblable à la Terre, c’est pourquoi, afin de rendre sa colonisation possible, il est nécessaire de la “terraformer”, c’est-à-dire de reproduire à cet endroit une environnement qui offre les prémisses minimales pour la survie de l’espèce humaine. La terraformation sera l’une des avancées de la nouvelle ère de l’exploration spatiale, avec une participation fondamentale de l’Intelligence Artificielle. La terraformation (adapter l’atmosphère, la température, la topographie et l’écologie d’une planète ou d’un satellite naturel pour le rendre capable de soutenir un écosystème avec des êtres terrestres) n’est qu’une des avancées attendues pour la nouvelle ère de l’exploration spatiale, en plus de la l’augmentation des nouveaux matériaux et la production de fusées à propulsion complexes à la pointe de la technologie. L’Intelligence Artificielle est présente dans toutes les filières de l’industrie spatiale. Sans elle, il est impossible d’avancer [3].

Il convient de noter que l’intelligence artificielle dans l’exploration spatiale entraîne l’évolution et l’utilisation de différentes technologies sur Terre. L’exploration spatiale favorise une avancée marquée de la science, notamment dans la recherche de nouveaux matériaux et procédés. L’Intelligence Artificielle est utilisée dans toutes les filières de l’industrie spatiale. Sans elle, impossible d’avancer. Par exemple, appliquer un modèle biochimique dans l’espace est totalement différent de le faire sur Terre. Cela ouvre la voie au développement de nouveaux médicaments et traitements. Les défis humains de la conquête de l’espace conduisent à la résolution de problèmes complexes, au bénéfice de toute l’humanité. Avec l’avancement de l’informatique quantique (qui utilise la mécanique quantique pour résoudre des problèmes complexes plus rapidement que les ordinateurs traditionnels) indispensable pour des voyages spatiaux plus complexes, l’humanité connaîtra très probablement l’avènement de la 5e révolution industrielle qui se produira dans l’espace [3].

Dans le but de rendre les satellites artificiels plus réactifs, agiles et autonomes, l’Agence spatiale européenne (ESA) a lancé la campagne “Cognitive Cloud Computing in Space”, un programme de financement de projets pour explorer le potentiel d’application des derniers développements de l’intelligence artificielle ( IA) et les paradigmes informatiques avancés [4]. Le Cognitive Cloud Computing est l’utilisation de techniques informatisées qui utilisent les disciplines scientifiques du traitement du signal et de l’intelligence artificielle (IA) pour aider les humains dans des situations critiques, où les résultats peuvent être incertains et ambigus [10]. Selon une déclaration de l’ESA, cela pourrait conduire à de nouvelles applications pratiques pour l’étude de la vie sur Terre et l’exploration d’autres planètes. En septembre 2020, l’agence a lancé le premier satellite d’observation de la Terre artificiellement intelligent appelé ɸ-sat (prononcé phi-sat) qui embarque une puce accélératrice d’IA qui supprime automatiquement les images nuageuses et ne sélectionne que les données utiles. L’application de techniques informatiques modernes, telles que le traitement des données directement à bord des satellites, pourrait révolutionner les activités spatiales et l’économie spatiale au cours de la prochaine décennie. Rendre les satellites artificiels plus intelligents offre des avantages significatifs pour les futures missions spatiales et les modèles commerciaux [4].

L’appel à idées était motivé par la vision de l’Agenda 2025 de l’Agence spatiale européenne (ESA), qui appelle l’Europe à renforcer son rôle dans l’espace, à soutenir la commercialisation et à contribuer à la création de nouveaux marchés spatiaux. L’informatique cognitive dans l’espace avec des langages de programmation développés par le besoin de programmer, c’est-à-dire de guider une machine pour effectuer une action, offre un potentiel commercial substantiel pour les marchés spatiaux. Les idées sélectionnées impliquent de nouvelles technologies développées en dehors du secteur spatial, notamment la blockchain (livre d’enregistrements, partagé et immuable, qui facilite le processus d’enregistrement des transactions et de suivi des actifs dans un réseau d’entreprise, l’edge computing (traitement, analyse et stockage des données plus près de l’endroit où ils sont générés pour permettre une analyse et des réponses rapides, en temps quasi réel) et l’informatique neuromorphique (développement d’ordinateurs qui se comportent de la même manière que le cerveau humain). Les idées concernant des applications incroyables dans le domaine spatial, y compris la détection précoce du méthane et des catastrophes naturelles, des rovers autonomes sur la Lune, la surveillance spatiale et le suivi afin que l’information soit traitée plus efficacement. Ces études aideront l’ESA à explorer plus avant comment l’informatique cognitive peut remodeler l’avenir des missions spatiales [3].

L’intelligence artificielle pourra contribuer de manière décisive aux avancées scientifiques et technologiques, visant à fournir à l’humanité les ressources nécessaires pour que les êtres humains développent des technologies capables de les emmener vers de nouveaux habitats dans le système solaire et au-delà, à la recherche de leur survie face à d’événements catastrophiques tels que les menaces d’éruption de volcans qui pourraient entraîner l’extinction de la vie sur la planète Terre comme cela s’est produit dans le passé, le refroidissement du noyau terrestre avec l’altération du champ magnétique terrestre qui nous protège des menaces provenant de l’espace, la collision d’astéroïdes, de comètes, de planètes du système solaire et de planètes orphelines avec la planète Terre, l’émission de rayons gamma avec l’explosion d’étoiles supernova qui pourrait conduire à l’extinction de la vie sur Terre comme cela s’est déjà produit dans le passé, la distanciation continue de la Lune par rapport à la Terre et ses conséquences catastrophiques sur le climat terrestre, la mort du Soleil, la collision entre les galaxies d’Andromède et de la Voie lactée, et la fin de l’Univers. Avec des machines plus intelligentes que les humains, la superintelligence artificielle se produira. L’humanité pourra utiliser la Superintelligence artificielle pour résoudre des problèmes scientifiques et technologiques qui assurent la survie de l’espèce humaine même avec la fin de l’Univers dans lequel nous vivons en ouvrant la voie à des univers parallèles [6].

L’intelligence artificielle et la robotique et leur utilisation dans l’industrie aérospatiale et de la défense

L’intelligence artificielle et la robotique ont leur application sur le marché de l’industrie aérospatiale et de la défense dont les revenus sont illustrés à la figure 1. On peut voir sur la figure 1 que les revenus les plus élevés se produisent plus largement avec son application à des fins militaires suivie de l’aviation commerciale et, à un dans une moindre mesure, niveau dans le secteur spatial. Cela signifie que les plus grandes applications de l’intelligence artificielle et de la robotique se produisent à des fins militaires.

Figure 1 – Revenus de l’intelligence artificielle et de la robotique sur le marché de l’industrie aérospatiale et de la défense

No alt text provided for this image

 Source : https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market

Le marché de l’intelligence artificielle et de la robotique dans les secteurs de l’aérospatiale et de la défense est segmenté par l’approvisionnement (matériel, logiciel et service), l’application (militaire, aviation commerciale et spatiale) et la géographie (Amérique du Nord, Europe, Asie-Pacifique et reste du monde). L’industrie aérospatiale et de la défense adopte des technologies robotiques alimentées par des technologies sophistiquées basées sur l’IA pour améliorer l’efficacité globale des équipements et le rendement du premier passage en production. Le marché de l’intelligence artificielle et de la robotique dans l’aérospatiale et la défense est très fragmenté, avec un certain nombre d’acteurs présents, y compris les fabricants de robots et ceux qui proposent des produits et des solutions intégrant du matériel et des logiciels d’IA pour les utilisateurs finaux de l’aérospatiale et de la défense. Le marché de l’intelligence artificielle et de la robotique dans le secteur de l’aérospatiale et de la défense est sur le point d’enregistrer un taux de rendement requis pour qu’un investissement se développe, supérieur à 8 % au cours de la période de prévision 2022 – 2027 [5].

Certains des principaux acteurs du marché de l’intelligence artificielle et de la robotique sur le marché de l’aérospatiale et de la défense sont The Boeing Company, Lockheed Martin Corporation, Airbus SE, IBM Corporation et Thales Group. Ces entreprises s’associent à des équipementiers de l’aérospatiale et de la défense (Original Equipment Manufacturers) pour développer de nouvelles solutions avancées basées sur l’IA qui augmenteront la sécurité et l’efficacité des opérations tout en simplifiant l’efficacité des missions. Il convient de noter qu’un OEM (Original Equipment Manufacturer) est une entreprise dont les produits sont utilisés comme composants dans les produits d’une autre entreprise, qui vend ensuite l’article fini aux utilisateurs. En octobre 2021, IBM et Raytheon Technologies ont signé un accord de partenariat pour développer des solutions avancées d’intelligence artificielle, de cryptographie et d’informatique quantique pour les industries de l’aérospatiale, de la défense et du renseignement. Les systèmes intégrés aux technologies d’intelligence artificielle (IA) et d’informatique quantique devraient disposer de réseaux de communication plus sécurisés et de processus de prise de décision améliorés pour les clients de l’aérospatiale et du gouvernement. Les équipementiers de défense collaborent au développement de capacités autonomes et de capteurs acoustiques et d’imagerie sophistiqués (tels que des caméras, des radars, des sonars, des GPS, etc.) [5].

Les risques de la Superintelligence Artificielle et la nécessité de sa régulation

Il est probable que les cerveaux artificiels dépasseront l’intelligence des cerveaux humains d’ici 2050 avec l’avènement de la superintelligence artificielle, de sorte que cette nouvelle superintelligence pourrait devenir très puissante. Le destin de l’humanité deviendrait donc dépendant des actions de ces machines super intelligentes. Même si la superintelligence artificielle produit des avantages pour l’humanité, il y a un risque qu’elle soit davantage utilisée pour le mal et non pour le bien de l’humanité avec la tendance à sa plus grande application à des fins militaires, c’est-à-dire pour la cyberguerre dans la course aux armements dans le monde. Avec la superintelligence artificielle, un large éventail de conséquences pourraient se produire, y compris des conséquences extrêmement bonnes et des conséquences aussi mauvaises que l’extinction de l’espèce humaine si elle se retourne contre les humains [7]. La superintelligence artificielle pourrait représenter l’extinction de la race humaine, selon le scientifique Stephen Hawking qui a publié un article traitant de cette question le 1er mai 2014 dans le journal The Independent. Hawking a déclaré que les technologies se développent à un rythme si vertigineux qu’elles deviendront incontrôlables au point de mettre en danger l’humanité. Hawking conclut : aujourd’hui, il serait temps de s’arrêter ; demain serait trop tard. Le développement aveugle d’une intelligence artificielle pourrait signifier la fin de l’humanité. A l’occasion du décès de Stephen Hawking, en mars 2018, cette célèbre citation de l’astrophysicien a trouvé un écho dans la presse et sur les réseaux sociaux [11].

Des centaines d’éminents scientifiques et chercheurs en intelligence artificielle ont averti que la technologie présente un risque d’extinction pour l’humanité, et plusieurs personnalités éminentes, dont le président de Microsoft Brad Smith et le PDG d’OpenAI Sam Altman, ont appelé à une plus grande réglementation [8]. Longtemps reléguée dans les annales de la science-fiction, la peur de l’intelligence artificielle s’est ancrée dans le débat public depuis quelques années, associée à la fois à l’automatisation massive du secteur productif et au chômage de masse et à la perspective de contribuer à la production de plus en plus des armes meurtrières et la production non moins terrifiante de robots tueurs [11]. Cette situation impose la nécessité de développer des mécanismes de contrôle pour la Superintelligence Artificielle et les systèmes intelligents en général. Il est nécessaire que, dans le développement de la Superintelligence Artificielle, le Principe du Bien Commun soit intégré dans tous les projets d’Intelligence Artificielle à long terme. Il s’agit d’une technologie unique qui doit être développée exclusivement pour le bien commun de l’humanité [7]. Récemment, l’Union européenne a franchi une étape importante en établissant des règles – les premières au monde – sur la manière dont les entreprises peuvent utiliser l’intelligence artificielle [8]. C’est une décision qui ouvre la voie à des normes mondiales pour une technologie utilisée partout. Qu’une réglementation similaire soit adoptée dans le monde entier.

LES RÉFÉRENCES

1.    MELO, Eldrige. Inteligência Artificial na Gestão de Projectos Espaciais. Disponible sur le site Web <https://pti.ao/inteligencia-artificial-na-gestao-de-projectos-espaciais/>.

2.    ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

3.    CORREIA, Flavia. Inteligência Artificial na exploração espacial pode ajudar a colonizar outros planetas. Disponible sur le site Web <https://olhardigital.com.br/2023/04/19/ciencia-e-espaco/inteligencia-artificial-na-exploracao-espacial-pode-ajudar-a-colonizar-outros-planetas/>.

4.    CORREIA, Flavia. ESA financia projetos de Inteligência Artificial para aprimoramento de satélites. Disponible sur le site Web <https://olhardigital.com.br/2022/05/12/ciencia-e-espaco/esa-financia-projetos-de-inteligencia-artificial-para-aprimoramento-de-satelites/>.

5.    MORDOR INTELLIGENCE. Inteligência artificial e robótica no mercado aeroespacial e de defesa – crescimento, tendências, impacto do covid-19 e previsões 2023/2028. Disponible sur le site Web <https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market>.

6.    ALCOFORADO, Fernando. Os desafios humanos da conquista do espaço e da colonização de outros mundos. Disponible sur le site Web <https://www.academia.edu/103359413/OS_DESAFIOS_HUMANOS_DA_CONQUISTA_DO_ESPA%C3%87O_E_DA_COLONIZA%C3%87%C3%83O_DE_OUTROS_MUNDOS>.

7.    ALCOFORADO, Fernando. O advento da superinteligência artificial e seus impactos.  Disponible sur le site Web <https://www.academia.edu/42148676/O_ADVENTO_DA_SUPERINTELIG%C3%8ANCIA_ARTIFICIAL_E_SEUS_IMPACTOS>.

8.    ZIADY, Hanna. Europa lidera corrida para regulamentar a inteligência artificial; entenda como. Disponible sur le site Web <https://www.cnnbrasil.com.br/tecnologia/europa-lidera-corrida-para-regulamentar-a-inteligencia-artificial-entenda-como/>.

9.    WIKIPEDIA. Deep Space 1. Disponible sur le site Web <https://pt.wikipedia.org/wiki/Deep_Space_1>.

10. ARGUELHES, Ricardo. Computação em Nuvem Cognitiva, a próxima fronteira.  Disponible sur le site Web <https://inforchannel.com.br/2020/11/27/computacao-em-nuvem-cognitiva-a-proxima-fronteira/>.

11. ALCOFORADO, Fernando. Os benefícios e os riscos da singularidade tecnológica baseada na superinteligência artificial. Disponible sur le site Web <https://www.portalsaudenoar.com.br/os-beneficios-e-os-riscos-da-singularidade-tecnologica-baseada-na-superinteligencia-artificial/>.

* Fernando Alcoforado, 83, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, de la SBPC – Société Brésilienne pour le Progrès des Sciences et l’IPB – Institut Polytechnique de Bahia, ingénieur (Ingénierie, Économie et Administration) et docteur en Planification du Territoire et Développement Régional de l’Université de Barcelone, professeur d’Université (Ingénierie, Économie et Administration) et consultant dans les domaines de la planification stratégique, de la planification d’entreprise, planification du territoire et urbanisme, systèmes énergétiques, a été Conseiller du Vice-Président Ingénierie et Technologie chez LIGHT S.A. Entreprise de distribution d’énergie électrique de Rio de Janeiro, coordinatrice de la planification stratégique du CEPED – Centre de recherche et de développement de Bahia, sous-secrétaire à l’énergie de l’État de Bahia, secrétaire à la planification de Salvador, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017),  Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), est l’auteur d’un chapitre du livre Flood Handbook (CRC Press, Boca Raton, Floride, États-Unis, 2022) et How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

ARTIFICIAL INTELLIGENCE IN THE HUMAN CONQUEST OF SPACE, ITS OTHER APPLICATIONS AND ITS RISKS

Fernando Alcoforado*

This article aims to present how Artificial Intelligence is being and could be used by the space sector in the human conquest of space, the use of Artificial Intelligence and Robotics in the Aerospace and Defense Industry in the world and the risks of Artificial Superintelligence and the need to its regulation to avoid its harmful consequences. The term “Artificial Intelligence” (AI) was coined in 1956 by John McCarthy, during a conference in the United States at Dartmouth College. Artificial Intelligence comprises all the techniques that allow computers to mimic human intelligence. In the 20th century, AI development made significant advances with the emergence of the digital age and the first computerized systems. AI has become a dominant area of research and development with the emergence of computers with high processing and data storage capabilities. Currently, AI has a significant impact on many sectors of society, from healthcare, education, finance, industrial and aerospace, among others. Despite its rapid growth, AI remains a rapidly evolving field with much more to be developed [1].

Artificial Intelligence can also be performed through Machine Learning (ML). Machine Learning enables machines to become autonomous and learn by themselves. Machine Learning is a way to make an algorithm more complex. For this to be possible, huge amounts of data are inserted into the algorithm, which adjusts and improves over time. The more time and more data the algorithm collects, the smarter it becomes and so machines process information in a similar way to humans, developing artificial neural networks called Deep Learning (DL) [1].

Deep Learning (DL) is a specialized Machine Learning technique, in which the machine trains itself by performing complex tasks using several layers of neural networks. A neural network of an Artificial Intelligence system is capable of analyzing more than a billion data in a few seconds, being an incredible tool to support a decision maker within a public or private organization, thus guaranteeing the best option among the possible. As the data collected is constantly updated, Artificial Intelligence systems also always update their results, enabling managers to have access to recent information on variations in the economy of a country and in the market in which a company operates [2].

Machine Learning is a field of computer science that gives computers the ability to learn without being explicitly programmed. Machine learning is closely related to computational statistics, which also focuses on creating prediction with computers. It has strong ties to mathematical optimization, which provides methods, theory, and application domains to the field. In data analysis, machine learning is a method used to design complex models and algorithms that lend themselves to prediction. In commercial use, this is known as predictive analytics. These analytical models enable researchers, data scientists, engineers, and analysts to “produce reliable, repeatable decisions and results” and uncover “hidden insights” by learning about historical relationships and trends in data [2].

Deep learning (DL) can happen through supervised learning (e.g. in the space sector, feeding the system with images of Earth and Moon or other celestial objects until the algorithm can successfully identify the two or more object types celeste) or unsupervised learning, where the network finds the structure by itself. Good examples of deep learning are image archives, online translation services, and navigation systems for self-driving cars or spacecraft. In the Space Industry, it is increasingly common for project managers and system engineers to integrate Artificial Intelligence systems into space missions. The first use of Artificial Intelligence in space exploration occurred with the probe Deep Space 1, in 1998 [1]. The Deep Space 1 probe was the first in a series of deep space and Earth orbit research missions aimed at experimenting with new technologies in space. Its main objective was to evaluate 12 new technologies during the primary phase of its mission. It was quite successful in its endeavor and in its extended phase. It met with comet Borrely and obtained the best images of this comet [9].

Artificial Intelligence in the space sector

The most promising Artificial Intelligence (AI) applications for the Space Industry are the following [1]:

1) Satellite Operations: AI is used in particular to aid the operation of large satellite constellations and minimize human error and personnel operating costs. Space agencies such as NASA and ESA have been developing new AI-based automation procedures to reduce operators’ workload. The automation of terrestrial and space segments will reduce the need for human intervention, especially for large constellations and interplanetary travel, such as automated maneuvering systems to prevent collisions.

2) Earth Observation data processing: Earth observation satellites nowadays have the capacity to capture a high volume of data. However, this factor increases the demand on data management, storage and processing systems. The process of downlinking satellite data (telecommunication signal or the information it transmits) to ground stations still faces limitations to some extent, ranging from fundamental limits on the number of times a satellite can fly over a specific location, to ground station coverage and even interoperability limitations between ground segment systems and end-user applications. What has been very common nowadays is the training of AI models to detect clouds and correct images covered by them. Furthermore, these models are also trained to easily analyze a high number of data and identify objects.

3) Interplanetary travel: The rovers launched most recently to explore Mars have onboard computers equipped with AI that enable them to be autonomous to navigate and be able to make decisions if they do not have communication or commands from humans for some time.

Robotic missions from NASA and other space agencies already use Artificial Intelligence to obtain greater efficiency and better quality results in their research. As an example, we can mention rovers (with locomotion capacity, to analyze a larger area of a planet or moon) and landers (that land on a planet or moon to analyze it in loco) that examine the martian craters and space probes and telescopes that are dedicated to the discovery and analysis of exoplanets (worlds existing in other star systems). The technologies employed in the Artemis Program are also equipped with specific machine learning algorithms, from the most basic instruments to the suits that will be used by astronauts on manned missions to the Moon, especially with regard to life support resources [3] . The Artemis Program developed by NASA aims to take humans once again to the surface of the Moon. The program aims to deepen research on our natural satellite and the Solar System, in addition to increasing the time astronauts stay in space as an important part of preparing for a next large mission that has the planet Mars as its destination.

Already present in several space exploration missions, Artificial Intelligence can make human life on other planets possible. For human beings to be able to live and, mainly, survive anywhere outside the Earth, the chosen world must provide conditions equal to, or at least similar to, those of our planet (such as atmosphere, temperature, topography, etc.). Mars, however, and any other planet in the Solar System is not even remotely similar to Earth, which is why, in order to make its colonization possible, it is necessary to “terraforming” it, that is, to reproduce in that place an environment that offers the minimum premises for the survival of the human species. Terraforming will be one of the advances of the new era of space exploration, with a fundamental participation of Artificial Intelligence. Terraforming (adaptation of the atmosphere, temperature, topography and ecology of a planet or a natural satellite to make it capable of sustaining an ecosystem with Earth beings) is just one of the advances expected for the new era of space exploration, in addition to the increase in new materials and the production of complex cutting-edge propulsion rockets. Artificial Intelligence is present in all space industry chains. Without it , it is impossible to advance [3].

It should be noted that Artificial Intelligence in space exploration drives the evolution and use of different technologies on Earth. Space exploration is promoting a marked advance in science, particularly in the search for new materials and processes. Artificial Intelligence is used in all space industry chains. Without it, it is impossible to move forward. For example, applying a biochemical model in space is totally different from doing it on Earth. This paves the way for the development of new drugs and treatments. The human challenges of conquering space lead to the resolution of complex problems, benefiting all humanity. With the advancement of quantum computing (which uses quantum mechanics to solve complex problems faster than traditional computers) indispensable for more complex space travel, humanity will most likely experience the advent of the 5th industrial revolution that will occur in space [3].

With the aim of making artificial satellites more reactive, agile and autonomous, the European Space Agency (ESA) has launched the “Cognitive Cloud Computing in Space” campaign, a project funding program to explore the application potential of the latest developments in Artificial Intelligence (AI) and advanced computing paradigms [4]. Cognitive Cloud Computing is the use of computerized techniques that use scientific disciplines of signal processing and Artificial Intelligence (AI) to help humans in critical situations, where the results can be uncertain and ambiguous [10]. According to an ESA statement, this could lead to new practical applications for the study of life on Earth and the exploration of other planets. In September 2020, the agency launched the first artificially intelligent Earth observation satellite called ɸ-sat (pronounced phi-sat) that carries an AI accelerator chip that automatically discards cloudy images and selects only useful data. The application of modern computing techniques, such as processing data directly on board satellites, could revolutionize space activities and the space economy in the next decade. Making artificial satellites smarter offers significant benefits for future space missions and business models [4].

The call for ideas was driven by the vision of the European Space Agency’s (ESA) Agenda 2025, which calls for Europe to step up its role in space, support commercialization and help create new space markets. Cognitive computing in space with programming languages developed by the need to program, that is, to guide a machine to perform an action, offers substantial commercial potential for space markets. The selected ideas involve new technologies developed outside the space sector including blockchain (book of records, shared and immutable, which facilitates the process of recording transactions and tracking assets in a business network, edge computing (processing, analysis and storage of data closer to where they are generated to enable fast, near real-time analysis and responses) and neuromorphic computing (development of computers that behave similarly to the human brain). The ideas address incredible applications across the spatial domain, including early detection of methane gas and natural disasters, autonomous rovers on the Moon, space surveillance and tracking so that information is processed more efficiently. These studies will help ESA further explore how cognitive computing can reshape the future of space missions [3].

Artificial Intelligence will be able to contribute decisively to scientific and technological advances, aiming to provide humanity with the necessary resources for human beings to develop technologies capable of taking them to new habitats in the solar system and beyond, in search of their survival in the face of catastrophic events such as the threats of eruption of volcanoes that could lead to the extinction of life on planet Earth as it has happened in the past, cooling of the Earth’s core with the impairment of the terrestrial magnetic field that protects us from threats coming from space, collision of asteroids, comets, planets of the solar system and orphan planets with the planet Earth, emission of gamma rays with the explosion of supernova stars that could lead to the extinction of life on Earth as it has already occurred in the past, the continuous distancing of the Moon in relation to the Earth and its catastrophic consequences about Earth’s climate, the death of the Sun, the collision between the Andromeda and Milky Way galaxies, and the end of the Universe. With machines smarter than humans, Artificial Superintelligence will occur. Humanity will be able to use Artificial Superintelligence to solve scientific and technological problems that ensure the survival of the human species even with the end of the Universe we live in by opening the way to parallel universes [6].

Artificial Intelligence and Robotics and their use in the Aerospace and Defense Industry

Artificial Intelligence and Robotics have their application in the Aerospace and Defense Industry Market whose revenue is shown in Figure 1. It can be seen from Figure 1 that the highest revenue occurs more widely with its application for military purposes followed by commercial aviation and, to a lesser extent, level in the space sector. This means that the greatest applications of artificial intelligence and robotics occur for military purposes.

Figure 1- Revenue from Artificial Intelligence and Robotics in the World Market for the Aerospace and Defense Industry

No alt text provided for this image

Source: https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market

Artificial Intelligence and Robotics world market in Aerospace and Defense sectors is segmented by Supply (Hardware, Software and Service), Application (Military, Commercial Aviation and Space) and Geography (North America, Europe, Asia Pacific and Rest of World). The aerospace and defense industry is embracing robotic technologies powered by sophisticated AI-driven technologies to improve overall equipment efficiency and first-pass throughput in production. The market for artificial intelligence and robotics in aerospace and defense is highly fragmented, with a number of players present, including robot manufacturers and those offering products and solutions incorporating AI hardware and software for aerospace and defense end users. The Artificial Intelligence and Robotics market in Aerospace and Defense is poised to record a required rate of return for an investment to grow, of over 8% during the forecast period, 2022 – 2027 [5].

Some of the major players in the artificial intelligence and robotics market in the aerospace and defense market are The Boeing Company, Lockheed Martin Corporation, Airbus SE, IBM Corporation and Thales Group. These companies are partnering with aerospace and defense OEMs (Original Equipment Manufacturers) to develop new and advanced AI-based solutions that will increase the safety and efficiency of operations while simplifying mission effectiveness. It should be noted that an OEM (Original Equipment Manufacturer) is a company whose products are used as components in another company’s products, which then sells the finished item to users. In October 2021, IBM and Raytheon Technologies signed a partnership agreement to develop advanced artificial intelligence, cryptography and quantum computing solutions for the aerospace, defense and intelligence industries. Systems integrated with Artificial Intelligence (AI) and quantum computing technologies are expected to have more secure communication networks and improved decision-making processes for aerospace and government customers. Defense OEMs are collaborating on the development of autonomous capabilities and sophisticated acoustic and imaging sensors (such as cameras, radar, sonar, GPS, etc.) [5].

The risks of Artificial Superintelligence and the need for its regulation

It is likely that artificial brains will surpass the intelligence of human brains by 2050 with the advent of Artificial Superintelligence, so this new superintelligence could become very powerful. The fate of humanity would therefore become dependent on the actions of these superintelligent machines. Even if Artificial Superintelligence produces benefits for humanity, there is a risk that it will be used more for the evil and not for the good of humanity with the trend of its greater application for military purposes, that is, for cyber warfare in the race armaments in the world. With Artificial Superintelligence, a wide range of consequences could occur, including extremely good consequences and consequences as bad as the extinction of the human species if it turns against humans [7]. Artificial Superintelligence may represent the extinction of the human race, according to scientist Stephen Hawking who published an article addressing this issue on May 1, 2014 in The Independent newspaper. Hawking stated that technologies develop at such a dizzying pace that they will become uncontrollable to the point of endangering humanity. Hawking concludes: today, there would be time to stop; tomorrow would be too late. The indiscriminate development of an artificial intelligence could signal the end of humanity. On the occasion of the death of Stephen Hawking, in March 2018, this famous quote by the astrophysicist echoed in the press and on social networks [11].

Hundreds of leading artificial intelligence scientists and researchers have warned that the technology poses an extinction risk to humanity, and several prominent figures, including Microsoft chairman Brad Smith and OpenAI CEO Sam Altman, have called for greater regulation [8]. For a long time relegated to the records of science fiction, the fear of artificial intelligence has been rooted in public debate for some years, associated both with the massive automation of the productive sector and mass unemployment and with the perspective of contributing to the production of weapons more and more deadly and the no less terrifying production of killer robots [11]. This situation imposes the need to develop control mechanisms for Artificial Superintelligence and intelligent systems in general. It is necessary that, in the development of Artificial Superintelligence, the Principle of the Common Good be incorporated in all long-term Artificial Intelligence projects. This is a unique technology that needs to be developed exclusively for the common good of humanity [7]. Recently, the European Union took a big step by establishing rules – the first in the world – on how companies can use Artificial Intelligence. It is a move that paves the way for global standards for a technology used in everything. That similar regulation be adopted all over the world.

REFERENCES

1.    MELO, Eldrige. Inteligência Artificial na Gestão de Projectos Espaciais. Available on the website <https://pti.ao/inteligencia-artificial-na-gestao-de-projectos-espaciais/>.

2.    ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

3.    CORREIA, Flavia. Inteligência Artificial na exploração espacial pode ajudar a colonizar outros planetas. Available on the website <https://olhardigital.com.br/2023/04/19/ciencia-e-espaco/inteligencia-artificial-na-exploracao-espacial-pode-ajudar-a-colonizar-outros-planetas/>.

4.    CORREIA, Flavia. ESA financia projetos de Inteligência Artificial para aprimoramento de satélites. Available on the website <https://olhardigital.com.br/2022/05/12/ciencia-e-espaco/esa-financia-projetos-de-inteligencia-artificial-para-aprimoramento-de-satelites/>.

5.    MORDOR INTELLIGENCE. Inteligência artificial e robótica no mercado aeroespacial e de defesa – crescimento, tendências, impacto do covid-19 e previsões 2023/2028. Available on the website <https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market>.

6.    ALCOFORADO, Fernando. Os desafios humanos da conquista do espaço e da colonização de outros mundos. Available on the website <https://www.academia.edu/103359413/OS_DESAFIOS_HUMANOS_DA_CONQUISTA_DO_ESPA%C3%87O_E_DA_COLONIZA%C3%87%C3%83O_DE_OUTROS_MUNDOS>.

7.    ALCOFORADO, Fernando. O advento da superinteligência artificial e seus impactos.  Available on the website <https://www.academia.edu/42148676/O_ADVENTO_DA_SUPERINTELIG%C3%8ANCIA_ARTIFICIAL_E_SEUS_IMPACTOS>.

8.    ZIADY, Hanna. Europa lidera corrida para regulamentar a inteligência artificial; entenda como. Available on the website <https://www.cnnbrasil.com.br/tecnologia/europa-lidera-corrida-para-regulamentar-a-inteligencia-artificial-entenda-como/>.

9.    WIKIPEDIA. Deep Space 1. Available on the website <https://pt.wikipedia.org/wiki/Deep_Space_1>.

10. ARGUELHES, Ricardo. Computação em Nuvem Cognitiva, a próxima fronteira.  Available on the website <https://inforchannel.com.br/2020/11/27/computacao-em-nuvem-cognitiva-a-proxima-fronteira/>.  

11. ALCOFORADO, Fernando. Os benefícios e os riscos da singularidade tecnológica baseada na superinteligência artificial. Available on the website <https://www.portalsaudenoar.com.br/os-beneficios-e-os-riscos-da-singularidade-tecnologica-baseada-na-superinteligencia-artificial/>.

* Fernando Alcoforado, awarded the medal of Engineering Merit of the CONFEA / CREA System, member of the Bahia Academy of Education, of the SBPC- Brazilian Society for the Progress of Science and of IPB- Polytechnic Institute of Bahia, engineer and doctor in Territorial Planning and Regional Development from the University of Barcelona, college professor (Engineering, Economy and Administration) and consultant in the areas of strategic planning, business planning, regional planning, urban planning and energy systems, was Advisor to the Vice President of Engineering and Technology at LIGHT S.A. Electric power distribution company from Rio de Janeiro, Strategic Planning Coordinator of CEPED- Bahia Research and Development Center, Undersecretary of Energy of the State of Bahia, Secretary of Planning of Salvador, is the author of the books Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), a chapter in the book Flood Handbook (CRC Press, Boca Raton, Florida United States, 2022) and How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).  

A INTELIGÊNCIA ARTIFICIAL NA CONQUISTA HUMANA DO ESPAÇO, SUAS OUTRAS APLICAÇÕES E SEUS RISCOS

Fernando Alcoforado*

Este artigo tem por objetivo apresentar como a Inteligência Artificial está sendo e poderá ser utilizada pelo setor espacial na conquista humana do espaço, o uso da Inteligência Artificial e Robótica na Indústria Aeroespacial e de Defesa no mundo e os riscos da Superinteligência Artificial e a necessidade de sua regulação para evitar sua maléficas consequências. O termo “Inteligência Artificial” (IA) foi criado em 1956 por John McCarthy, durante uma conferência nos Estados Unidos no Dartmouth College. Inteligência Artificial compreende todas as técnicas que permitem que os computadores imitem a inteligência humana. No século 20, o desenvolvimento de IA teve avanços significativos com o surgimento da era digital e dos primeiros sistemas computadorizados. A IA tornou-se uma área dominante de pesquisa e desenvolvimento com o surgimento de computadores com alta capacidade de processamento e armazenamento de dados. Atualmente, a IA tem um impacto significativo em muitos setores da sociedade, desde saúde, educação, finanças, industrial e aeroespacial, entre outros. Apesar do seu rápido crescimento, a IA continua a ser um campo em rápida evolução, com muito mais a ser desenvolvido [1].

A Inteligência Artificial também pode ser realizada por meio de Machine Learning (ML) ou Aprendizado de Máquina. Machine Learning possibilita que as máquinas se tornem autônomas e aprendam por si mesmas. Machine Learning é uma forma de fazer com que um algoritmo se torne mais complexo. Para isso ser possível, enormes quantidades de dados são inseridos no algoritmo, que vai se ajustando e aprimorando com o tempo. Quanto mais tempo e mais dados o algoritmo recolhe mais inteligente ele se torna e assim as máquinas processam informações de maneira semelhante aos humanos, desenvolvendo redes neurais artificiais denominada Deep Learning (DL) ou Aprendizagem Profunda [1].

A Aprendizagem Profunda (DL) é uma técnica especializada de Machine Learning, em que a máquina se treina executando tarefas complexas utilizando várias camadas de redes neurais. Uma rede neural de um sistema de Inteligência Artificial é capaz de analisar mais de um bilhão de dados em poucos segundos, sendo uma ferramenta incrível para apoiar um tomador de decisões dentro de uma organização pública ou privada, garantindo, assim, a melhor opção dentre as possíveis. Como os dados coletados são constantemente atualizados, os sistemas de Inteligência Artificial sempre atualizam, também, seus resultados, viabilizando que os gestores tenham acesso a informações recentes de variações ocorridas na economia de um país e no mercado de atuação de uma empresa [2].

O aprendizado de máquina (Machine Learning) é um campo de ciência da computação que dá aos computadores a capacidade de aprender sem serem explicitamente programados. O aprendizado de máquina está intimamente relacionado com as estatísticas computacionais, que também se concentra na criação de previsão através do uso de computadores. Tem fortes laços com a otimização matemática, que fornece métodos, teoria e domínios de aplicação ao campo. Na análise de dados, o aprendizado de máquina é um método usado para conceber modelos e algoritmos complexos que se prestam à predição. Em uso comercial, isso é conhecido como análise preditiva. Esses modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros e analistas “produzam decisões e resultados confiáveis e repetíveis” e descobrem “insights ocultos” através da aprendizagem de relacionamentos históricos e tendências nos dados [2].

O aprendizado profundo (DL) pode acontecer por meio de aprendizado supervisionado (por exemplo, no setor espacial, alimentar o sistema com imagens da Terra e da Lua ou outros objetos celestes até que o algoritmo possa identificar com sucesso os dois ou mais tipos de objeto celeste) ou aprendizado não supervisionado, em que a rede encontra a estrutura por si mesma. Bons exemplos de aprendizado profundo são arquivos de imagens, serviços de tradução online e sistemas de navegação para carros autônomos ou naves espaciais. Na Indústria Espacial, é cada vez mais comum gestores de projeto e engenheiros de sistema integrarem sistemas de Inteligência Artificial nas missões espaciais. O primeiro caso de utilização de Inteligência Artificial na exploração espacial deu-se com a sonda Deep Space 1, em 1998 [1].  A sonda Deep Space 1 foi a primeira de uma série de missões de pesquisa do espaço profundo e de órbita terrestre visando experimentar novas tecnologias no espaço. Seu objetivo principal foi o de avaliar 12 novas tecnologias durante a fase primária de sua missão. Teve bastante sucesso em sua empreitada e na sua fase estendida. Ele se encontrou com o cometa Borrely e obteve as melhores imagens deste cometa [9].

A Inteligência Artificial no setor espacial 

As aplicações de Inteligência Artificial (IA) mais promissoras para a Indústria Espacial são as seguintes [1]:  

1) Operações de satélite: IA é utilizada em particular para auxiliar a operação de grandes constelações de satélites e minimizar o erro humano e custos de operação com pessoal. Agências espaciais como a NASA e ESA têm desenvolvido novos procedimentos de automatização baseados em IA para reduzir a carga de trabalho dos operadores. A automação dos segmentos terrestre e espacial reduzirá a necessidade de intervenção humana, especialmente para grandes constelações e viagens interplanetárias como, por exemplo, os sistemas de manobras automatizadas para prevenir colisões.

2) Processamento de dados de Observação da Terra: os satélites de observação da Terra, hoje em dia, têm a capacidade de capturar um volume alto de dados. No entanto, este fator aumenta a demanda nos sistemas de gestão, armazenamento e processamento de dados. O processo de downlinking (sinal de telecomunicações ou a informação que ele transmite) de dados de satélite para as estações terrestres até certo ponto ainda enfrenta limitações, que variam desde os limites fundamentais do número de vezes que um satélite pode sobrevoar um local específico, a cobertura de estações terrestres e até limitações de interoperabilidade entre sistemas de segmentos terrestres e aplicativos de utilizador final. O que tem sido muito comum hoje em dia, é o treinamento de modelos de IA para detectar nuvens e corrigir imagens por elas cobertas. Além disso, esses modelos também são treinados para facilmente analisar um número alto de dados e identificar objetos.

3) Viagens interplanetárias: Os rovers lançados mais recentemente para explorar Marte têm os computadores de bordo equipados com IA que os possibilita a serem autônomos para navegar e conseguirem tomar decisões caso não tenham comunicação ou comandos de humanos por algum tempo.

Missões robóticas da NASA e de outras agências espaciais já usam a Inteligência Artificial para obter maior eficiência e resultados de melhor qualidade em suas pesquisas. Como exemplo, podem ser citados os rovers (com capacidade de locomoção, para analisar uma área maior de um planeta ou lua) e landers (que pousam sobre um planeta ou lua para analisá-lo in loco) que examinam as crateras marcianas e as sondas e telescópios espaciais que se dedicam à descoberta e análise de exoplanetas (mundos existentes em outros sistemas estelares). As tecnologias empregadas no Programa Artemis também são dotadas de algoritmos específicos de aprendizado de máquinas, desde os instrumentos mais básicos até os trajes que serão usados pelos astronautas nas missões tripuladas à Lua, especialmente no que diz respeito aos recursos de suporte à vida [3]. O Programa Artemis desenvolvido pela NASA visa levar o ser humano mais uma vez para a superfície da Lua. O programa visa a aprofundar as pesquisas a respeito do nosso satélite natural e do Sistema Solar, além de aumentar o tempo de permanência dos astronautas no espaço como parte importante da preparação para uma próxima missão de grande porte que tem como destino o planeta Marte.

Já presente em diversas missões de exploração espacial, a Inteligência Artificial pode tornar possível a vida humana em outros planetas. Para que os seres humanos consigam viver e, principalmente, sobreviver em qualquer lugar fora da Terra, é preciso que o mundo escolhido proporcione condições iguais ou, pelo menos, semelhantes às do nosso planeta (como atmosfera, temperatura, topografia etc.). Marte, no entanto, e qualquer outro planeta do Sistema Solar não é nem de longe parecido com a Terra, motivo pelo qual, para tornar possível sua colonização, é necessário “terraformá-lo”, ou seja, reproduzir naquele lugar um ambiente que ofereça as premissas mínimas de sobrevivência da espécie humana. A terraformação será um dos avanços da nova era da exploração espacial, com participação fundamental da Inteligência Artificial. A terraformação (adaptação da atmosfera, da temperatura, da topografia e da ecologia de um planeta ou um satélite natural para deixá-lo em condições de sustentar um ecossistema com seres da Terra) é apenas um dos avanços esperados para a nova era da exploração espacial, além do incremento de novos materiais e da produção de complexos foguetes de propulsão de ponta. A Inteligência Artificial está presente em todas as cadeias da indústria espacial. Sem ela é impossível avançar [3].

É preciso observar que a Inteligência Artificial na exploração espacial impulsiona a evolução e aproveitamento de diferentes tecnologias na Terra. A exploração espacial está promovendo um acentuado avanço na ciência, particularmente na pesquisa de novos materiais e processos. A Inteligência Artificial é utilizada em todas as cadeias da indústria espacial. Sem ela é impossível seguir adiante. Por exemplo, a aplicação de um modelo bioquímico no espaço é totalmente diferente de ser feito na Terra. Isso abre caminho para a elaboração de novos medicamentos e tratamentos. Os desafios humanos de conquista do espaço levam à resolução de problemas complexos, beneficiando a toda a humanidade. Com o avanço da computação quântica (que utiliza a mecânica quântica para resolver problemas complexos mais rapidamente do que em computadores tradicionais) indispensável para viagens espaciais mais complexas, a humanidade vivenciará muito provavelmente o advento da 5ª revolução industrial que ocorrerá no espaço [3].  

Com o objetivo de tornar os satélites artificiais mais reativos, ágeis e autônomos, a Agência Espacial Europeia (ESA) lançou a campanha “Computação em Nuvem Cognitiva no Espaço”, um programa de financiamento de projetos para explorar o potencial de aplicação dos mais recentes desenvolvimentos em Inteligência Artificial (IA) e paradigmas avançados de computação [4]. A Computação em Nuvem Cognitiva é a utilização de técnicas computadorizadas que usam disciplinas científicas de processamento de sinais e Inteligência Artificial (IA) para ajudar os humanos em situações críticas, em que os resultados podem ser incertos e ambíguos [10]. Segundo um comunicado da ESA, isso poderia gerar novas aplicações práticas para o estudo da vida na Terra e a exploração de outros planetas. Em setembro de 2020, a agência lançou o primeiro satélite de observação da Terra artificialmente inteligente chamado ɸ-sat (pronuncia-se phi-sat) que carrega um chip acelerador de IA que descarta automaticamente imagens nubladas e seleciona apenas dados úteis. A aplicação de técnicas modernas de computação como, por exemplo, o processamento de dados diretamente a bordo de satélites poderia revolucionar as atividades espaciais e a economia espacial na próxima década. Tornar os satélites artificiais mais inteligentes oferece benefícios significativos para futuras missões espaciais e modelos de negócios [4].

O apelo por ideias foi impulsionado pela visão da agenda 2025 da Agência Espacial Europeia (ESA), que exige que a Europa intensifique seu papel no espaço, apoie a comercialização e ajude a criar novos mercados espaciais. A computação cognitiva no espaço com linguagens de programação desenvolvidas pela necessidade de programar, ou seja, orientar uma máquina a executar uma ação, oferece um potencial comercial substancial para os mercados espaciais. As ideias selecionadas envolvem novas tecnologias desenvolvidas fora do setor espacial incluindo blockchain (livro de registros, compartilhado e imutável, que facilita o processo de gravação de transações e rastreamento de ativos em uma rede de negócios, computação de borda (processamento, análise e armazenamento de dados mais próximos de onde eles são gerados para permitir análises e respostas rápidas, quase em tempo real) e computação neuromórfica (desenvolvimento de computadores que se comportem de forma semelhante ao cérebro humano). As ideias abordam aplicações incríveis em todo o domínio espacial, incluindo detecção precoce de gás metano e desastres naturais, rovers autônomos na Lua, vigilância espacial e rastreamento para que as informações sejam processadas de forma mais eficiente. Esses estudos ajudarão a ESA a explorar ainda mais como a computação cognitiva pode remodelar o futuro das missões espaciais [3].

A Inteligência Artificial poderá contribuir decisivamente para o avanço científico e tecnológico visando dotar a humanidade dos recursos necessários para os seres humanos desenvolverem tecnologias capazes de levá-los para novos habitats no sistema solar e fora dele em busca de sua sobrevivência no enfrentamento de eventos catastróficos como as ameaças de erupção de vulcões que possa levar à extinção da vida no planeta Terra como já ocorreu no passado, esfriamento do núcleo da Terra com o comprometimento do campo magnético terrestre que nos protege de ameaças vindas do espaço, colisão de asteroides, cometas, planetas do sistema solar e de planetas órfãos com o planeta Terra, emissão de raios gama com a explosão de estrelas supernovas que possa levar à extinção da vida na Terra como já ocorreu no passado, o contínuo afastamento da Lua em relação à Terra e suas catastróficas consequências sobre o clima da Terra, a morte do Sol, a colisão entre as galáxias Andrômeda e Via Láctea e o fim do Universo. Com máquinas mais inteligentes do que os humanos ocorrerá a Superinteligência Artificial. A humanidade poderá se utilizar da Superinteligência Artificial para solucionar problemas científicos e tecnológicos que assegurem a sobrevivência da espécie humana até mesmo com o fim do Universo em que vivemos ao abrir caminho para universos paralelos [6].  

Inteligência Artificial e Robótica e seu uso na Indústria Aeroespacial e de Defesa

Inteligência Artificial e Robótica têm sua aplicação no Mercado Mundial da Indústria Aeroespacial e de Defesa cujo faturamento está apresentado na Figura 1. Percebe-se pela Figura 1 que o maior faturamento ocorre mais amplamente com sua aplicação para fins militares seguido da aviação comercial e, em menor nível, no setor espacial. Isto significa dizer que as maiores aplicações da inteligência artificial e robótica ocorrem para fins militares. 

Figura 1- Faturamento da Inteligência Artificial e Robótica no Mercado Mundial da Indústria Aeroespacial e Defesa

No alt text provided for this image

Fonte: https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market

O mercado de Inteligência Artificial e Robótica nos setores Aeroespacial e de Defesa é segmentado por Oferta (Hardware, Software e Serviço), Aplicativo (Militar, Aviação Comercial e Espacial) e Geografia (América do Norte, Europa, Ásia-Pacífico e Resto do Mundo). A indústria aeroespacial e de defesa está adotando tecnologias robóticas alimentadas por sofisticadas tecnologias orientadas por Inteligência Artificial para melhorar a eficiência geral do equipamento e o rendimento de primeira passagem na produção. O mercado de inteligência artificial e robótica no setor aeroespacial e de defesa é altamente fragmentado, com a presença de vários players, incluindo fabricantes de robôs e os que oferecem produtos e soluções que incorporam hardware e software de IA para usuários finais aeroespaciais e de defesa. O mercado de Inteligência artificial e robótica no setor aeroespacial e de defesa está prestes a registrar uma taxa de retorno necessária para um investimento crescer, de mais de 8% durante o período de previsão, 2022 – 2027 [5].

Alguns dos principais players do mercado de inteligência artificial e robótica no mercado aeroespacial e de defesa são The Boeing Company, Lockheed Martin Corporation, Airbus SE, IBM Corporation e Thales Group. Estas empresas estão fazendo parcerias com OEMs (Fabricantes Originais de Equipamentos) aeroespaciais e de defesa, para desenvolver soluções novas e avançadas baseadas em IA que aumentarão a segurança e a eficiência das operações, simplificando a eficácia da missão. Cabe observar que uma OEM (Original Equipment Manufacturer- Fabricante Original do Equipamento) é uma empresa cujos produtos são usados como componentes nos produtos de outra empresa, que depois vende o item acabado aos usuários. Em outubro de 2021, A IBM e a Raytheon Technologies assinaram um acordo de parceria para desenvolver soluções avançadas de inteligência artificial, criptográfica e computação quântica para os setores aeroespacial, de defesa e de inteligência. Espera-se que os sistemas integrados às tecnologias de Inteligência Artificial (IA) e computação quântica tenham redes de comunicação mais seguras e processos de tomada de decisão aprimorados para clientes aeroespaciais e governamentais. Os OEMs de defesa estão colaborando no desenvolvimento de recursos autônomos e sofisticados sensores acústicos e de imagem (como câmeras, radar, sonar, GPS etc.) [5].    

Os riscos da Superinteligência Artificial e a necessidade de sua regulação 

É provável que os cérebros artificiais superarão a inteligência dos cérebros humanos em 2050 com o advento da Superinteligência Artificial, então esta nova superinteligência pode se tornar muito poderosa. O destino da humanidade se tornaria, portanto, dependente das ações destas máquinas superinteligentesMesmo que a Superinteligência Artificial produza benefícios para a humanidade, há o risco de que ela seja mais utilizada para o mal e não para o bem da humanidade com a tendência de sua maior aplicação para fins militares, isto é, para a guerra cibernética na corrida armamentista no mundo. Com a Superinteligência Artificial, uma ampla gama de consequências poderá ocorrer, incluindo consequências extremamente boas e consequências tão ruins quanto a extinção da espécie humana se ela se voltar contra os seres humanos [7]A Superinteligência Artificial pode representar a extinção da raça humana, segundo o cientista Stephen Hawking que publicou artigo abordando esta questão em 1º de maio de 2014 no jornal The Independent. Hawking afirmou que as tecnologias se desenvolvem em um ritmo tão vertiginoso que elas se tornarão incontroláveis ao ponto de colocar a humanidade em perigo. Hawking conclui: hoje, haveria tempo de parar; amanhã seria tarde demais. O desenvolvimento indiscriminado de uma inteligência artificial poderia indicar o fim da humanidade. Por ocasião da morte de Stephen Hawking, em março de 2018, essa famosa citação do astrofísico ecoou na imprensa e nas redes sociais [11].

Centenas dos principais cientistas e pesquisadores de inteligência artificial alertaram que a tecnologia representa um risco de extinção para a humanidade, e várias figuras proeminentes, incluindo o presidente da Microsoft, Brad Smith, e o CEO da OpenAI, Sam Altman, pediram maior regulamentação [8]. Durante muito tempo relegado aos registros da ficção científica, o medo da inteligência artificial está enraizado há alguns anos no debate público, associado tanto à automatização maciça do setor produtivo e ao desemprego em massa quanto à perspectiva de contribuir para a produção de armas cada vez mais mortíferas e a não menos aterrorizante produção de robôs assassinos [11]. Esta situação impõe a necessidade de que sejam desenvolvidos mecanismos de controle da Superinteligência Artificial e dos sistemas inteligentes em geral. É preciso que, no desenvolvimento da Superinteligência Artificial, seja incorporado o Princípio do Bem Comum em todos os projetos de Inteligência Artificial de longo prazo. Esta é uma tecnologia única que precisa ser desenvolvida exclusivamente para o bem comum da humanidade [7]Recentemente, a União Europeia deu um grande passo ao estabelecer regras – as primeiras do mundo – sobre como as empresas podem usar a Inteligência Artificial [8]. É um movimento que abre caminho para padrões globais de uma tecnologia usada em tudo. Que regulamentação similar seja adotada em todo o mundo.

REFERÊNCIAS

1.    MELO, Eldrige. Inteligência Artificial na Gestão de Projectos Espaciais. Disponível no website <https://pti.ao/inteligencia-artificial-na-gestao-de-projectos-espaciais/>.

2.    ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

3.    CORREIA, Flavia. Inteligência Artificial na exploração espacial pode ajudar a colonizar outros planetas. Disponível no website <https://olhardigital.com.br/2023/04/19/ciencia-e-espaco/inteligencia-artificial-na-exploracao-espacial-pode-ajudar-a-colonizar-outros-planetas/>.

4.    CORREIA, Flavia. ESA financia projetos de Inteligência Artificial para aprimoramento de satélites. Disponível no website <https://olhardigital.com.br/2022/05/12/ciencia-e-espaco/esa-financia-projetos-de-inteligencia-artificial-para-aprimoramento-de-satelites/>.

5.    MORDOR INTELLIGENCE. Inteligência artificial e robótica no mercado aeroespacial e de defesa – crescimento, tendências, impacto do covid-19 e previsões 2023/2028. Disponível no website <https://www.mordorintelligence.com/pt/industry-reports/artificial-intelligence-market>.

6.    ALCOFORADO, Fernando. Os desafios humanos da conquista do espaço e da colonização de outros mundos. Disponível no website <https://www.academia.edu/103359413/OS_DESAFIOS_HUMANOS_DA_CONQUISTA_DO_ESPA%C3%87O_E_DA_COLONIZA%C3%87%C3%83O_DE_OUTROS_MUNDOS>.

7.    ALCOFORADO, Fernando. O advento da superinteligência artificial e seus impactos.  Disponível no website <https://www.academia.edu/42148676/O_ADVENTO_DA_SUPERINTELIG%C3%8ANCIA_ARTIFICIAL_E_SEUS_IMPACTOS>.

8.    ZIADY, Hanna. Europa lidera corrida para regulamentar a inteligência artificial; entenda como. Disponível no website <https://www.cnnbrasil.com.br/tecnologia/europa-lidera-corrida-para-regulamentar-a-inteligencia-artificial-entenda-como/>.

9.    WIKIPEDIA. Deep Space 1. Disponível no website <https://pt.wikipedia.org/wiki/Deep_Space_1>.

10. ARGUELHES, Ricardo. Computação em Nuvem Cognitiva, a próxima fronteira.  Disponível no website <https://inforchannel.com.br/2020/11/27/computacao-em-nuvem-cognitiva-a-proxima-fronteira/>.

11. ALCOFORADO, Fernando. Os benefícios e os riscos da singularidade tecnológica baseada na superinteligência artificial. Disponível no website <https://www.portalsaudenoar.com.br/os-beneficios-e-os-riscos-da-singularidade-tecnologica-baseada-na-superinteligencia-artificial/>.

* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

THE HUMAN CHALLENGES OF CONQUERING SPACE AND COLONIZING OTHER WORLDS

Fernando Alcoforado*

This article aims to present the human challenges of the conquest of space and the human colonization of other worlds. These challenges are described below:

1- Production of rockets that reach speeds close to that of light to travel to the limits of the Universe

2- Production of technologies capable of protecting human beings in space travel

3- Identification of other Earth-like worlds capable of being habitable by humans

4- Enabling human beings to survive in space and in habitable places outside Earth

1- Production of rockets that reach speeds close to that of light to travel to the limits of the Universe

The first great human challenge is the production of rockets that are capable of reaching speeds close to the speed of light (300.000 Km/s), given the need to promote intergalactic travel by human beings to the limits of the Universe and even to parallel universes. This action is imposed due to the need for human beings to colonize other worlds in the solar system or outside it and, even in parallel universes, to avoid their extinction with the occurrence of catastrophic events such as the eruption of volcanoes that could lead to the extinction of human beings. as has already occurred in the past, the cooling of the Earth’s core with the impairment of the Earth’s magnetic field that protects us from threats from space, the collision of asteroids, comets, planets in the solar system and orphan planets with planet Earth, the emission of gamma rays by supernova stars that may lead to the extinction of life on Earth as it has already occurred in the past, the continued distancing of the Moon from the Earth and its catastrophic consequences on the Earth’s climate, the death of the Sun, the collision between the Andromeda and Milky Way galaxies and the end of the Universe.

Humanity’s great scientific and technological challenge is represented by the need to carry out space and interstellar travel at speeds corresponding to the speed of light (300,000 km/s). At this speed level, it would be possible to reach the Moon in 1.3 s, the Sun in 8min20s, Pluto in 5h21s and it would take 100,000 years to go from end to end in our galaxy, 163,000 years to go to the nearest galaxy and 93 billion years to traverse the visible Universe. For that purpose, we would need a spacecraft traveling at an insanely high speed to reach our neighbors – something close to the speed of light. In addition to not having rocket technology that develop speeds close to that of light, interstellar travel would be unfeasible even if we had these rockets because with speed close to that of light there would be negative consequences for the lives of human beings and the spacecraft themselves [5].

What would happen to a person’s body on a trip at the speed of light? For every cubic centimeter of interstellar space, scientists believe there are about two atoms of hydrogen. This scarce gas can harm humans traveling close to the speed of light. Based on Albert Einstein’s theory of relativity, it is believed that hydrogen in interstellar space would be transformed into intense radiation that could, in seconds, kill the crew/passengers of the spacecraft and destroy electronic equipment. Since hydrogen atoms have only one proton in the nucleus, they could expose the spacecraft’s crew/passengers to dangerous ionizing radiation that would break chemical bonds and damage DNA. The fatal dose of radiation for humans is 6 Sieverts. The crew of a spacecraft close to the speed of light would receive the equivalent of 10,000 Sieverts in just one second, which would also weaken the structure of the spacecraft and damage electronic equipment [5].

The speed of 300,000 km per second would greatly facilitate space exploration. It would take four years and three months to reach the Alpha Centauri system, the closest planetary system to Earth. At first, these trips will be made by probes and robots, due to man’s physical and psychological limitations. A journey at that speed to another habitable planet would take tens of thousands of years. Even if the traveler survived, the psychological impact of long isolation could drive him insane. This means that manned missions would still be restricted to our immediate “neighborhood”, that is, the solar system. Einstein proved that the faster someone moves, the smaller the flow of time for the traveler will be because there would be a contraction of time. Minutes for a person traveling at the speed of light can equal years for someone on Earth. If a person travels at the speed of light and reaches a star that is 150 light years away, the problem is that when he returns to Earth, more than 300 years will have passed here. This is one of the main dilemmas of interstellar travel [5].

The space rocket currently used is a machine that moves by expelling a stream of gas at high speed behind it. Its purpose is to send objects (especially artificial satellites, space probes and rovers) and/or spacecraft and men into outer space with a speed greater than 40,320 km/h to overcome the Earth’s gravitational attraction and reach altitudes greater than 100 km. above sea level. A rocket consists of a structure, a jet propulsion engine and a payload. The structure serves to house the fuel and oxidizer tanks and the payload. These rockets also need to carry an oxidizer to react with the fuel. This mixture of superheated gases is then expanded into a diverging tube, the Laval Tube, also known as the Bell Tube, to direct the expanding gas backwards and thus propel the rocket forward [1]. Under current conditions, for every 2 kilograms of people and objects or payload, 130 kilograms of rocket are needed, which restricts the amount of astronauts and material sent on each flight and exponentially increases the cost of missions. Most current rockets carry a payload of 1.5% of their full size. By payload we mean people and objects [4].

A new engine under development by two American engineers, however, proposes an alternative to optimize the amount of oxidants carried by rockets and reduce the cost of launches. This is the Fernis air-aspiration propulsion system, a technology that combines characteristics of a conventional rocket engine and a jet engine. There are, however, other types of rocket engines, such as thermal nuclear engines, which overheat a gas to high temperatures, using the heat generated by nuclear reactions, especially through the process of nuclear fission, where nuclear fuel is bombarded with neutrons, leading to the fission of the nucleus of atoms. That gas is then expanded in the Laval Tube just like in chemical rockets. This type of rocket was developed and tested in the United States during the 1960s, but was never used. The gases expelled by this type of rocket can be radioactive, which discourages its use within the Earth’s atmosphere, but can be used outside it. This type of rocket has the advantage of allowing efficiencies that are much higher than those of conventional chemical rockets are, since they allow accelerating the exhaust gases to much higher speeds. Currently, it is Russia that stands out in the development of thermal nuclear engines [1] [2] [3].

NASA’s space shuttles were the first reusable space vehicles in history. They replaced the gigantic Apollo rockets and, for 30 years, were the most sophisticated man-made spacecraft. The orbiter vehicle (OV) looked like an airplane, it had wings, tail, landing gear and 3 powerful RS-25 engines. With 37 meters in length and 18 meters in wingspan, it weighed 78 tons and was capable of carrying 7 astronauts and up to 27.5 tons of cargo (for low orbit). To get it all off the ground and into orbit, the space shuttle had a gigantic external fuel tank with 760 tons of liquid hydrogen and oxygen, and two auxiliary rockets with 500 tons of solid fuel each. It was launched vertically, like a conventional rocket. The space shuttle’s 3 engines and two auxiliary rockets operated together to overcome the first kilometers of atmosphere. After the initial boost, the booster rockets were ejected and parachuted into the ocean to be rescued and reused. Shortly afterwards, the external tank was also ejected, but it was not reused, as it burned on atmospheric re-entry. After carrying out its missions in orbit, the space shuttle returned to Earth in spectacular fashion. The space shuttle had two additional thrusters at the back of the vehicle. With the ship turned in the opposite direction of displacement, these thrusters were activated to reduce its orbital speed and force re-entry into the atmosphere. The vehicle was then repositioned at a specific angle (40°) in order to generate the necessary drag to brake it. A heat shield, at the bottom of the structure, protected the craft from the heat of re-entry, which could reach nearly 2,000 degrees. After the critical phase, the space shuttle glided like an airplane, making zigzag maneuvers to further reduce its speed until the moment of soft landing on one of NASA’s airstrips. During most of the process, the astronauts on board were just passengers. The on-board computer controlled the entire process automatically. Only at the last moment of landing did the pilot take action to land the spacecraft [8].

In all, NASA has developed 6 space shuttles: Enterprise, Columbia, Challenger, Discovery, Atlantis and Endeavor. Enterprise was used only for testing and did not reach Earth orbit. The others completed nearly 32,000 hours of missions and took 355 astronauts from 16 countries into space. During the time they were in operation, between 1981 and 2011, the space shuttles performed 135 missions. They put the Hubble Telescope into orbit, participated in the construction and maintenance of the International Space Station, launched numerous satellites, and conducted scientific experiments in Earth orbit. But, unfortunately, two of these missions did not end successfully. An accident on Challenger’s launch in 1986, and another on Columbia’s reentry in 2003, claimed the lives of 14 people and put NASA’s space shuttle program in jeopardy. It had become the deadliest space program in history. Eight years later, on July 21, 2011, Atlantis soared into the American sky and landed at the John Kennedy Space Center for the last time. It was the end of the glorious era of the space shuttle. With the retirement of the Space Shuttle, NASA decided to outsource its launches. That opened up a market for private companies like SpaceX, Virgin Galactic and Blue Origin [8].

A revolutionary engine that could advance astronautical technology is the Scramjet engine that is capable of hypersonic speeds of up to 15 times the speed of sound. NASA successfully tested such an engine in 2004. Another possible advance in rocket engine technology is the use of nuclear propulsion, in which a nuclear reactor heats a gas, producing a jet that is used to produce thrust. Another idea is to build a sail-shaped rocket that would be accelerated by the solar wind that would allow greater speed and travel greater distances. The European Space Agency (ESA) decided to bet on a technology that has been dreamed of since the beginning of space exploration. It is a spacecraft capable of taking off from an airport, like an ordinary plane, becoming a traditional rocket as soon as it overcomes the limits of the denser atmosphere and enters orbit. The concept spacecraft was named Skylon, and the hybrid engine that will equip it is called Saber, which is an unprecedented hybrid engine capable of “breathing” air while in the atmosphere, like a jet engine, becoming a rocket when reaches the space [1] [2] [3].

For humans to carry out long-distance space missions, it is necessary to find more advanced forms of rocket propulsion to reach distances of hundreds or thousands of light-years, given that, according to scientists, current chemical rockets are limited by their maximum speed of the exhaust gases. Other alternatives proposed by scientists would consist of the use of nuclear thermal propulsion, of a solar/ion engine as a new form of rocket propulsion, as well as the creation of a fusion reactor in which a rocket extracts hydrogen from interstellar space and liquefies it . NASA wants to test a nuclear-powered rocket by 2027. Advanced nuclear thermal propulsion technology will allow the spacecraft to be faster, have a shorter travel time, and will also enable more agile cargo delivery to a new lunar base and robotic missions even more distant. With the help of this technology, astronauts will be able to travel to and from deep space faster than ever before. The new propulsion has the potential to enable manned missions to Mars. According to NASA, a thermal rocket powered by nuclear energy can be three to four times more efficient than conventional ones and reduce the travel time to the red planet, that is, from 8 months to 2 months [4].

Ion engine took a ship to the edge of the Solar System. The probe is the first space exploration mission to use an ion engine instead of conventional thrusters, powered by chemical reactions. The ion propulsion system will be adopted in the next generation of NASA spacecraft. The thruster uses electrical energy to create magnetically charged fuel particles, usually in the form of xenon gas, and accelerates these particles to extremely high speeds. Whether energy from the Sun or from the atom, it would be used to ionize (or positively charge) an inert gas such as xenon or krypton. The accelerated ions would be pushed out of the thruster, propelling the spacecraft forward. If at first the spacecraft would advance slowly, over time the acceleration would be gradual and inexorable, reaching a speed close to that of light, making it possible for a human being to reach nearby stars, such as Alpha Centauri, 4.3 light years away [4] .

Bussard propulsion is another method of propulsion for spacecraft that could accelerate to close to the speed of light, and would be a very efficient type of craft. The most obvious fuel source, which was proposed by Bussard, is hydrogen fusion, as hydrogen is believed to be the most common component element of interstellar gas. An electromagnetic field could attract positive ions from the interstellar medium and force them into the ramjet engine. Superfast space travel close to the speed of light would, however, be fatal for humans according to a publication by Edelstein and Edelstein in Natural Science which reports that the hydrogen in any aircraft capable of traveling at the speed of light would also prevent it from making the trip to that speed because, as the ship’s speed approached the speed of light, interstellar hydrogen H would transform into intense radiation that would quickly kill passengers and destroy electronic instruments. Furthermore, the loss of energy from the ionizing radiation passing through the outside of the spacecraft would represent an increasing increase in heat that would require large energy dumps to cool the spacecraft. Even if it is possible to create a ship capable of traveling at speeds close to the speed of light, it would not be able to transport people. There is a natural speed limit imposed by safe levels of radiation due to hydrogen, which means that humans cannot travel at more than half the speed of light unless they want a quick, immediate death [4].

The theory of general relativity places severe restrictions on interstellar travel. One of them is the most obvious: nothing can be accelerated to speeds above the speed of light, which is about 300,000 km/s. Even if we could travel at that speed, it would still take us a long time to reach other stars and their respective planetary systems. The theory of general relativity opened up new fields of science and allowed for ideas such as creating a warp drive to travel to any corner of the universe. The concept of space warp is not new. It is a kind of engine that allows the spacecraft to travel faster than the speed of light. It is a technology that would create a “bubble” in space-time. This bubble could create a kind of bridge between two points in space. Travel to destinations located light-years away from Earth will still remain out of our reach, but a space warp technology, if it ever exists, could be the solution to realize interstellar travel [5].

2- Production of technologies capable of protecting human beings in space travel

The second major human challenge is the production of technologies capable of protecting human beings in space travel. NASA is developing technologies to protect humans on Mars, as well as powerful propulsion systems to get them to Mars and back to Earth faster. These technologies to protect humans on Mars are as follows: 1) Inflatable heat shield for landing astronauts on other planets. The largest rover to land on Mars is the size of a car, and sending humans to Mars will require a much larger spacecraft. New technologies will allow heavier spacecraft to enter the Martian atmosphere, get closer to the surface and land close to where astronauts want to explore; 2) High-tech Martian spacesuits. Spacesuits are essentially customized spaceships for astronauts. NASA’s latest spacesuit is so high-tech that its modular design is designed to be evolved for use anywhere in space; 3) Martian house and laboratory on wheels. To reduce the number of items needed to land on the surface of Mars, NASA will combine the first Martian home and rover into a single rover complete with breathable air; 4) Uninterrupted power. Just as we use electricity to charge our devices on Earth, astronauts will need a reliable power supply to explore Mars. The system will need to be lightweight and able to function regardless of its location or the climate on the Red Planet; and, 5) Laser communications to send more information back to Earth. Human missions to Mars can use lasers to stay in contact with Earth. A laser communication system on Mars could send massive amounts of information and data in real time, including high-definition imagery and video feeds. These technologies can mean the beginning of a process of development of new technologies for the protection of human beings in space travel [4].

These technologies are not enough to protect humans in space travel to Mars and other parts of the Universe. Astronauts will face three types of gravity fields during a mission to Mars. The first six months of travel between Earth and Mars will be in zero gravity. On the Martian surface, gravity will be approximately one-third of that experienced on Earth. This transition in the acceleration of gravity affects spatial orientation, motor and visual coordination and compromises the bone and muscle structure of space travelers. Without gravity, the heart starts to work more slowly and bones lose minerals at a much faster rate than on Earth -1% per month in space versus 1% per year on Earth. In addition, due to the lack of gravity, body fluids tend to be “pushed” to the head. With increased pressure, vision problems can be common. Dehydration and altered calcium concentration can also increase the risk of kidney stones [6].

Although psychological pressures, distance from home and stressful work are considered the main villains in changing the behavior of astronauts, research also indicates that some skills, such as attention, physical coordination and ability to solve problems, are compromised in space by issues directly linked to the behavior of the brain in space. For the specialist in psychology and neuroscience Vaughan Bell, from University College London and columnist for the English newspaper “The Guardian”, one of the possibilities for this slowness is that our blood supply evolved to function in the gravity suffered on Earth. Thus, in space travel, with zero gravity, the efficiency with which oxygen is delivered to the brain is affected. Research carried out by the Laboratory of Neuropsychology and Biomechanics of Movement, at the Free University of Brussels observed something similar: the brain seems to work differently when it is in orbit. The fall in the astronauts’ mental capacity is not serious, but it exists, according to the data [6].

According to NASA, microbes can change their characteristics in space, and microorganisms that naturally live on your body are more easily transferred from person to person in indoor environments like space stations. With hormone levels elevated due to stress, astronauts’ immunity drops and there is a greater propensity for allergies and other illnesses. Finally, one of the most dangerous aspects of traveling to Mars is space radiation. Only inside the space stations, astronauts are exposed to ten times more radiation than on Earth, since here, the magnetic field and the atmosphere protect us. Radiation exposure can increase the risk of cancer, damage the central nervous system, cause nausea, vomiting and fatigue. Furthermore, it can cause degenerative diseases such as cataracts, heart and circulatory problems. Human beings traveling to Mars as well as traveling to the ends of the Universe need to be protected from all the threats described [6].

3 – Identification of other Earth-like worlds capable of being habitable by humans

The third great human challenge is to identify other Earth-like worlds capable of being habitable by human beings, designing and sending space probes to carry out research in possible locations inside and outside the solar system. So far there is no evidence that there is another place inside or outside the solar system conducive to Earth-like life. Currently, there are efforts to colonize the planet Mars. However, from what is known about Mars, this planet does not present the necessary conditions for human beings to inhabit it because it does not have a magnetic field or atmosphere and biosphere similar to those of Earth, as well as an average gravitational acceleration of about 38% at of Earth harmful to human life. There is no evidence on Mars of having a structured global magnetic field similar to Earth’s that protects us from cosmic rays and solar winds and this absence may have been largely responsible for the loss of the Martian atmosphere. Mars lost its magnetosphere 4 billion years ago, but has locally induced magnetism spots. Mars does not have a global magnetic field to guide charged particles entering the atmosphere, but it does have multiple umbrella-shaped magnetic fields, mostly in the southern hemisphere, that are remnants of a global magnetic field that decayed billions of years ago. Compared to Earth, Mars’ atmosphere is very thin. Martian soil is slightly alkaline and contains elements such as magnesium, sodium, potassium and chlorine that are nutrients found on Earth and necessary for plant growth [4].

Surface temperatures on Mars range from −143 °C (in winter on the polar ice caps) to maximums of +35 °C (in equatorial summer). Mars has the biggest dust storms in the Solar System. These can range from a storm over a small area to massive storms covering the entire planet. They tend to occur when Mars is closest to the Sun as its global temperature increases. It is also known that liquid water cannot exist on the surface of Mars due to the low atmospheric pressure, which is about 100 times weaker than that of Earth. The two Martian ice caps appear to be made largely of water. The volume of water frozen in the south polar ice sheet, if melted, would be enough to cover the entire surface of the planet to a depth of 11 meters. There was the detection of the mineral jarosite (hydrated sulfate of iron and potassium formed by the oxidation of iron sulfides), which forms only in the presence of acidic water, demonstrating that water once existed on Mars. The loss of water from Mars to space results from the transport of water into the upper atmosphere, where it is dissociated to hydrogen and escapes the planet due to its weak gravity. Mars has Earth-like seasons due to the similar inclinations of the two planets’ rotation axes. The lengths of Martian seasons are about twice as long as those on Earth, as Mars is farther away from the Sun, which makes the Martian year about two Earth years long. The attempt to colonize the planet Mars may mean the beginning of the process of developing space colonies for use by humans outside Earth [4].

4- Enabling human beings to survive in space travel and in habitable places outside Earth

The fourth great human challenge is that of enabling human beings to survive in space and in habitable places outside the Earth. In item 1 (Production of rockets that reach speeds close to that of light to travel through the ends of the Universe) it was evidenced that, even if it is possible to create a ship capable of traveling at speeds close to that of light, it would not be able to transport people because there is a natural speed limit imposed by safe levels of radiation due to hydrogen which means that human beings cannot travel more than half the speed of light because there would be a quick, immediate death. In item 2 (Production of technologies capable of protecting human beings in space travel) it was evidenced that astronauts will face three types of gravity fields during a mission to Mars. The first six months of travel between planets Earth and Mars will be zero gravity, and on Mars the gravity will be approximately one third of that experienced on Earth which seriously affect the health of space travelers. One of the most dangerous aspects of traveling to Mars is space radiation because on space stations, astronauts are exposed to ten times more radiation than on Earth, since over here, the magnetic field and atmosphere protect us. Radiation exposure can increase the risk of cancer, damage the central nervous system, cause nausea, vomiting and fatigue. Furthermore, it can cause degenerative diseases such as cataracts, heart and circulatory problems.

According to NASA, sending humans on missions to Mars by 2030 faces major challenges. The first challenge would be the difficulty for humans to stay on the surface of Mars due to the almost non-existent atmosphere on Mars which, as a result of cosmic radiation and solar wind, would be unprotected and could develop cancer. An alternative would be for humans to stay underground on Mars. The second challenge is that the geology of Mars makes it difficult to plant the plant species necessary for human survival. The third challenge to human life on Mars is that there is too much fine dust from frequent dust storms. Those who live underground on Mars have to go to the surface to clean the dust on the rovers from time to time, because sandstorms prevent the batteries from being recharged using solar energy. In addition, this dust, due to its extremely fine thickness, easily infiltrates space suits and can affect the lives of astronauts. The fourth challenge to human life on Mars is represented by the fact that the trip to this planet still takes about eight months, which implies a large amount of fuel, food and support material for the mission teams, unlike the Moon, for example. , which only takes 3 days. The fifth challenge requires astronauts to be meticulously tested and chosen to withstand the physical and social challenges that this trip entails. Finally, the sixth challenge results from the fact that Mars always has a negative temperature that would require thinking about creating a human genome capable of making human beings capable of withstanding extreme conditions and surviving on Mars. There are no organic organisms on the surface of Mars, but there may be in the subsoil and there is no guarantee that they will not compete with the organisms that can be sent there from Earth [4].

The fact that there is no life on Mars demonstrates that the conditions for human beings to survive there are not yet met. Mars 2030 still seems a distant reality and before thinking about living there, we have to know more about this planet. The colonization of Mars and other worlds in the Universe indicates that there is an extreme need to create more biologically evolved human beings with the use of science and technology to make them challenge the limits imposed by nature and survive as a species today and in the future. It is necessary to make the formation of supermen and superwomen occur, which can be achieved from the use of science and technology (biotechnology, nanotechnology and neurotechnology) to increase the cognitive capacity and overcome the physical and psychological limitations of human beings. This situation can be achieved through transhumanism, which is a philosophy that proposes to eradicate in any way the suffering caused by disease, aging or even death of human beings, as well as to reach the maximum potential in terms of human development [7].

With transhumanism what is sought is to make human beings capable of transforming themselves with the use of science and technology to acquire abilities so greatly expanded from the natural condition, in order to deserve the post-human label, leaving in the background biological evolution. The idea of increasing the capacity of the human body through science and technology is as old as humanity itself. From the moment that human beings created tools and learned to use fire and promoted scientific and technological advances over time, humanity has gone beyond its biological limitations. Evolution gave humanity the most sophisticated intelligence of any animal on the planet that enabled human beings to use it to, with the knowledge of science and technology acquired, overcome their biological limitations. As an example of the use of science and technology in this direction, we have the genetic manipulation of the human species that is possible with the creation in the laboratory of new genes that can modify the genetic code to be able, for example, to block the replication of viruses, making our cells immune to attack [7].

Another example of the use of science and technology to overcome the biological limitations of human beings is the use of artificial intelligence linked to computing that can transfer the content of our mind (with memories of the past and traits of our personality) to a hard disk, method known as mind uploading. As computing technologies advance alongside biotechnology, there is a growing convergence between the two in the form of neural interfaces that in the future may open the door to connecting the human mind directly to an Artificial Intelligence in order to facilitate greater learning, mental transfer and overcome neurological conditions. This is the idea of transhumanism, a theory that believes that the use of science and technology can not only overcome the biological limitations of the human species, but also help to create a new category of evolved human beings even with the conquest of immortality [7].

In the contemporary era, there is a belief that it is possible to defeat death with the use of science and technology. The belief that, if it is not possible to defeat death, it would be possible to prolong life is based on the fact that man’s life expectancy evolved from 30 years in 1500, 37 years in 1800, 45 years in 1900, 46.5 years in 1950 and 80 years in 2012. The achievement of a longer existence in the 20th century resulted from the improvement of sanitary conditions in cities and the creation of public health services. In addition, science discovered vaccines and antibiotics that made it possible to prevent diseases and control epidemics. The increase in the educational level and income also contributed to improve the quality of life and further increase longevity in the third or – perhaps we can say – fourth age. The year 2045 will mark the beginning of an era in which medicine will be able to offer humanity the possibility of living for a time never seen in history. Organs that are not working can be exchanged for other, better ones, created especially for us. Parts of the heart, lungs and even the brain could be replaced. Tiny computer circuits will be implanted in the body to control chemical reactions that take place inside cells. We will be just a few steps away from immortality. This is the prediction of a group of scientists known for being at the forefront of research that permeates topics such as computer science, biology and biotechnology. Among them are George Church, a professor at Harvard University, in the United States, Aubrey de Gray, a gerontologist and biomedical specialist in anti-aging, and engineer Raymond Kurzweil, from the Massachusetts Institute of Technology (MIT). They are the leaders of a kind of new philosophy, called the Singularity [7].

In medicine, the heralds of immortality claim that it is nothing more than a real consequence of an ongoing revolution that is already triggering the increase in human life expectancy at unprecedented speed. Considering the speed of innovations, a person born in 2050 will have a 95% chance of living a thousand years, according to Aubrey de Grey. At this time, the aforementioned group of scientists is involved in the growth of the Singularity University, already installed in Silicon Valley, in the United States. The certainty of this group of researchers in the success of their research is supported by the advances already obtained and those that will certainly come. In the opinion of these researchers, based on the resources we currently have, a child born today could live at least until he is 150 years old. One of the fields in which advances have been most notable is stem cells. In the field of cardiology, experiments with 16 patients with heart failure, all of whom had.

With transhumanism what is sought is to make human beings capable of transforming themselves with the use of science and technology to acquire abilities so greatly expanded from the natural condition, in order to deserve the post-human label, leaving in the background biological evolution. The idea of increasing the capacity of the human body through science and technology is as old as humanity itself. From the moment that human beings created tools and learned to use fire and promoted scientific and technological advances over time, humanity has gone beyond its biological limitations. Evolution gave humanity the most sophisticated intelligence of any animal on the planet that enabled human beings to use it to, with the knowledge of science and technology acquired, overcome their biological limitations. As an example of the use of science and technology in this direction, we have the genetic manipulation of the human species that is possible with the creation in the laboratory of new genes that can modify the genetic code to be able, for example, to block the replication of viruses, making our cells immune to attack [7].

Another example of the use of science and technology to overcome the biological limitations of human beings is the use of artificial intelligence linked to computing that can transfer the content of our mind (with memories of the past and traits of our personality) to a hard disk, method known as mind uploading. As computing technologies advance alongside biotechnology, there is a growing convergence between the two in the form of neural interfaces that in the future may open the door to connecting the human mind directly to an Artificial Intelligence in order to facilitate greater learning, mental transfer and overcome neurological conditions. This is the idea of transhumanism, a theory that believes that the use of science and technology can not only overcome the biological limitations of the human species, but also help to create a new category of evolved human beings even with the conquest of immortality [7].

In the contemporary era, there is a belief that it is possible to defeat death with the use of science and technology. The belief that, if it is not possible to defeat death, it would be possible to prolong life is based on the fact that man’s life expectancy evolved from 30 years in 1500, 37 years in 1800, 45 years in 1900, 46.5 years in 1950 and 80 years in 2012. The achievement of a longer existence in the 20th century resulted from the improvement of sanitary conditions in cities and the creation of public health services. In addition, science discovered vaccines and antibiotics that made it possible to prevent diseases and control epidemics. The increase in the educational level and income also contributed to improve the quality of life and further increase longevity in the third or – perhaps we can say – fourth age. The year 2045 will mark the beginning of an era in which medicine will be able to offer humanity the possibility of living for a time never seen in history. Organs that are not working can be exchanged for other, better ones, created especially for us. Parts of the heart, lungs and even the brain could be replaced. Tiny computer circuits will be implanted in the body to control chemical reactions that take place inside cells. We will be just a few steps away from immortality. This is the prediction of a group of scientists known for being at the forefront of research that permeates topics such as computer science, biology and biotechnology. Among them are George Church, a professor at Harvard University, in the United States, Aubrey de Gray, a gerontologist and biomedical specialist in anti-aging, and engineer Raymond Kurzweil, from the Massachusetts Institute of Technology (MIT). They are the leaders of a kind of new philosophy, called the Singularity [7].

In medicine, the heralds of immortality claim that it is nothing more than a real consequence of an ongoing revolution that is already triggering the increase in human life expectancy at unprecedented speed. Considering the speed of innovations, a person born in 2050 will have a 95% chance of living a thousand years, according to Aubrey de Grey. At this time, the aforementioned group of scientists is involved in the growth of the Singularity University, already installed in Silicon Valley, in the United States. The certainty of this group of researchers in the success of their research is supported by the advances already obtained and those that will certainly come. In the opinion of these researchers, based on the resources we currently have, a child born today could live at least until he is 150 years old. One of the fields in which advances have been most notable is stem cells. In the field of cardiology, experiments with 16 patients with heart failure, all of whom had part of the heart tissue regenerated with stem cells taken from the organ itself. The replacement of diseased organs by healthy ones is another of the reasons given by scientists to justify the belief in a spectacularly long life. A trachea, bladder, urethra and blood vessels have already been created and implanted in human beings. And there are experiences with the implantation of more organs, including the heart and the liver [7].

Transhumanism must contribute, not only in the sense of eradicating any form of suffering caused by disease, aging or even death, but, above all, achieving the maximum potential in terms of human development for humanity to survive by carrying out space travel in search of their survival as a species in the Universe in which we live. Transhumanism associated with artificial superintelligence are the resources that would enable humanity to achieve this goal. Humanity needs to be prepared to acquire sufficient biological capacity with the use of scientific and technological resources to live outside the Earth and carry out space travel within the solar system, to reach another habitable planet outside the solar system and, also, to seek a way out of a parallel universe before the end of our Universe occurs. The ability of human beings to defy the limits imposed by nature is absolutely necessary to ensure our survival as a species today and in the future. Both immediate and future threats will not be successfully faced without the advancement of science and technology, which is the passport for the survival of humanity [7].

REFERENCES

1. ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

2. ALCOFORADO, Fernando. How to protect human beings from threats to their existence and avoid the extinction of humanity. Chișinău: Generis Publishing, 2023.

3. ALCOFORADO, Fernando. A humanidade ameaçada e as estratégias para sua sobrevivência. São Paulo: Editora Dialética, 2021. 

4. ALCOFORADO, Fernando.  Rumo à colonização humana de outros mundos. Available on the website <https://www.academia.edu/101560183/RUMO_%C3%80_COLONIZA%C3%87%C3%83O_HUMANA_DE_OUTROS_MUNDOS>.

5. ALCOFORADO, Fernando. Os cinco grandes desafios humanos para realizarem viagens espaciais e interestelares. Available on the website <https://www.academia.edu/53287851/OS_CINCO_GRANDES_DESAFIOS_HUMANOS_PARA_REALIZAREM_VIAGENS_ESPACIAIS_E_INTERESTELARES>.

6. BAIO, Cintia. Clique Ciência: O que acontece com o corpo de quem for para Marte. Available on the website <https://www.uol.com.br/tilt/ultimas-noticias/redacao/2017/06/13/clique-ciencia-que-mudancas-podem-ocorrer-no-corpo-de-quem-for-a-marte.htm>.

7. ALCOFORADO, Fernando. Mundo rumo à singularidade humana. Disponível no website <https://www.academia.edu/43517794/MUNDO_RUMO_%C3%80_SINGULARIDADE_HUMANA>.

8. LUCENA, André. Há 10 anos se encerrava a gloriosa era dos ônibus espaciais. Disponível no website <https://olhardigital.com.br/2021/07/26/colunistas/ha-10-anos-se-encerrava-a-gloriosa-era-dos-onibus-espaciais/>.