L’ÉVOLUTION DE LA PLUS GRANDE INVENTION DE L’HUMANITÉ, L’ORDINATEUR, ET SON AVENIR

Fernando Alcoforado*

Cet article vise à présenter comment l’ordinateur, la plus grande invention de l’humanité, a évolué et quel sera son avenir le plus probable. L’ordinateur est la plus grande invention de l’humanité car le réseau informatique mondial a rendu possible l’utilisation d’Internet en tant que technologie qui a le plus changé le monde avec l’avènement de la société de l’information. Il y a ceux qui disent que c’est Charles Babbage qui a créé, au 19ème siècle, une machine analytique qui, grosso modo, est comparée à l’ordinateur actuel avec mémoire et programmes. Avec cette invention, Babbage est considéré comme le “père de l’informatique”. Bien que de nombreux concepts de Babbage soient utilisés aujourd’hui, la formalisation des composants, qui deviendraient une machine polyvalente et de nouvelles abstractions, n’ont été consolidées qu’à partir des années 1930, grâce à John Von Neumann, l’un des développeurs de l’ENIAC, et à l’Alan Turing. Le premier ordinateur électronique à grande échelle, développé sans pièces mécaniques ou hybrides, n’est apparu qu’en 1945, après la Seconde Guerre mondiale [2]. IBM a développé l’ordinateur central à partir de 1952, avec le premier ordinateur basé sur des tubes à vide, bientôt remplacé par la série 7000, qui utilisait déjà des transistors. En 1964, l’IBM 360 apparaît, qui connaît un immense succès commercial jusqu’au début des années 1980 [1]. Les ordinateurs centraux étaient de grandes machines qui effectuaient des calculs et stockaient des informations. En général, son utilisation avait des fins scientifiques, commerciales et gouvernementales.

Dans les années 1970, la domination des ordinateurs centraux a commencé à être remise en question par l’émergence des microprocesseurs. La puce 4004, introduite par Intel en 1971, était une unité centrale de traitement et le premier microprocesseur disponible dans le commerce. Les innovations ont grandement facilité la tâche de développer et de fabriquer des ordinateurs plus petits – alors appelés mini-ordinateurs – qui pouvaient également utiliser des périphériques (disques, imprimantes, moniteurs) produits par des tiers. Les premiers mini-ordinateurs coûtaient le dixième du prix d’un ordinateur central et n’occupaient qu’une fraction de l’espace requis. En 1976, le microprocesseur Intel 8080 est lancé, ce qui donne naissance aux premiers micro-ordinateurs. La puce a été successivement améliorée et la version 8088 a été utilisée par la plupart des fabricants de micro-ordinateurs. Les microprocesseurs ont changé la façon dont les ordinateurs ont été conçus. Il n’était plus nécessaire de produire l’ensemble du système, y compris le processeur, les terminaux et les logiciels tels que le compilateur et le système d’exploitation. Le développement de l’Apple II en 1977, mené par les jeunes Steve Jobs et Steve Wosniak, a montré que les nouvelles technologies simplifiaient radicalement le processus de développement et l’assemblage des équipements. Les coûts d’un système à base de micro-ordinateurs ne représentaient qu’une fraction de ceux pratiqués par les fabricants de mainframes et de mini-ordinateurs, permettant ainsi le développement de serveurs. Interconnectés en réseaux locaux, les micro-ordinateurs ont favorisé la diffusion de l’informatique [1].

L’existence de l’ordinateur a fourni les conditions de l’avènement d’Internet, qui est sans aucun doute l’une des plus grandes inventions du XXe siècle, dont le développement a eu lieu en 1965, lorsque Lawrence G. Roberts, dans le Massachusetts, et Thomas Merrill, en Californie , connecté un ordinateur sur une ligne téléphonique bas débit commutée. L’expérience a été un succès et a été marquée comme l’événement qui a créé le premier WAN (Wide Area Network) de l’histoire. L’histoire d’Internet s’est poursuivie en 1966 lorsque Lawrence G. Roberts a rejoint la DARPA (Defense Advanced Research Projects Agency) et a créé le plan de l’ARPANET (Advanced Research Projects Agency Network) pour développer le premier réseau à commutation de paquets. Bien que le premier prototype d’un réseau décentralisé à commutation de paquets ait déjà été conçu par le National Physical Laboratory (NPL) du Royaume-Uni en 1968, il n’a gagné en visibilité qu’en 1969, lorsqu’un ordinateur de l’Université de Californie (UCLA) s’est connecté avec succès à un autre du Stanford Research Institute (SRI). La connexion a été un tel succès que, des mois plus tard, quatre universités américaines étaient déjà interconnectées. Ainsi est né l’ARPANET. En 1970, l’ARPANET a été consolidé avec des centaines d’ordinateurs connectés [2]. En 1995, une nouvelle révolution s’est amorcée avec l’utilisation commerciale d’Internet [1].

Les innovations technologiques dans les microprocesseurs ont multiplié les capacités de stockage numérique et le développement du haut débit a permis aux entreprises de développer de nouveaux produits et services. Le souci des limites des ressources de calcul a été surmonté, permettant une plus grande concentration sur les besoins des utilisateurs grâce à des applications plus attrayantes et fonctionnelles, qui ont amené de plus en plus d’utilisations aux ordinateurs personnels. Netscape a été la première entreprise à promouvoir la navigation sur Internet, mais elle a été dépassée par Microsoft en raison de l’intégration de cet appareil dans le système d’exploitation Windows, un fait qui a généré un litige juridique prolongé en Europe. Le développement commercial d’Internet a montré qu’il était possible de créer de nouveaux modèles économiques basés non plus sur la vente de licences matérielles et logicielles, mais sur la capacité à communiquer entre différents appareils et sur la création de communautés virtuelles. L’un des impacts les plus significatifs de l’émergence d’Internet a été la popularisation du commerce électronique [1].

Au début du 21ème siècle, le cloud computing a émergé. Le développement de l’Internet 2.0 et des technologies complémentaires telles que les téléphones intelligents (smartphones) et les tablettes, les puces orientées communication et le développement des infrastructures haut débit filaires et sans fil ont entraîné une nouvelle révolution dans le secteur. Le cloud computing symbolise la tendance à placer numériquement sur Internet toutes les infrastructures et informations disponibles, y compris les logiciels d’application, les moteurs de recherche, les réseaux de communication, les fournisseurs, les centres de stockage et le traitement des données. Le protocole Internet (IP) constitue le langage universel qui permet la standardisation des paquets de différents médias et supporte un trafic indistinct de voix, de données et d’images. Le concept de cloud est très important car il permet à l’informatique de devenir un service public, car les actifs informationnels ne sont pas rivaux et peuvent être utilisés simultanément par un nombre illimité d’utilisateurs. Ce modèle offre de grands avantages pour les utilisateurs, bien qu’il présente également des risques. Le principal avantage est la possibilité d’utiliser plus efficacement les ressources matérielles et logicielles disponibles, permettant de réduire la capacité inactive de stockage et de traitement des données, grâce au partage d’ordinateurs et de serveurs interconnectés par Internet. L’infrastructure est accessible par des terminaux et des appareils mobiles qui connectent le cloud à l’utilisateur. Les risques sont principalement liés à la sécurité et à la confidentialité des données stockées dans le cloud [1].

L’une des principales caractéristiques de la société contemporaine est l’utilisation à grande échelle des technologies de l’information. La révolution informationnelle ou des technologies de l’information s’est propagée à partir des années 1970 et 1980, gagnant en intensité dans les années 1990 avec la diffusion d’Internet, c’est-à-dire la communication en réseau via les ordinateurs. Pourquoi appeler ce processus une révolution ? Parce que l’informatique a pénétré la société comme l’électricité a reconfiguré la vie dans les villes. L’ordinateur, icône de l’informatique, connecté en réseau, modifie le rapport à l’espace et au temps. Les réseaux d’information permettent d’étendre la capacité de penser d’une manière inimaginable. La nouvelle révolution technologique a élargi l’intelligence humaine. Nous parlons d’une technologie qui permet d’augmenter le stockage, le traitement et l’analyse des informations, en effectuant des milliards de relations entre des milliers de données par seconde : l’ordinateur [2].

Les ordinateurs actuels sont électroniques car ils sont constitués de transistors utilisés dans les puces électroniques. Cela l’amène à présenter des limitations étant donné qu’il viendra un moment où il ne sera plus possible de réduire la taille d’un des composants les plus petits et les plus importants des processeurs, le transistor. En 1965, le chimiste américain Gordon Earle Moore a fait une prédiction selon laquelle, tous les 18 mois, le nombre de transistors utilisés dans les puces électroniques doublerait avec la réduction de leur taille. En 2017, la société technologique américaine IBM a réussi à produire une puce de la taille d’un ongle, avec environ 30 milliards de transistors de 5 nm (1 nanomètre = 10-9 m). Avec cela, la société a montré que, même si elle n’est pas très précise, la prédiction de Moore reste valable jusqu’à aujourd’hui, mais elle atteindra sa limite plus tôt que nous ne l’imaginons. Le problème commence à exister lorsqu’il n’est plus possible de réduire l’un des composants les plus petits et les plus importants des processeurs, le transistor. Il est important de noter que c’est dans ce petit appareil que toutes les informations sont lues, interprétées et traitées [3].

Lorsqu’il s’agit de très petites échelles, la physique cesse d’être aussi prévisible que dans les systèmes macroscopiques, commençant à se comporter de manière aléatoire, de manière probabiliste, se soumettant aux propriétés de la physique quantique. Cela signifie que l’une des alternatives du futur est l’ordinateur quantique, qui est une machine capable de manipuler les informations stockées dans les systèmes quantiques, telles que les spins des électrons (champ magnétique des électrons), les niveaux d’énergie des atomes et même la polarisation des photons. Dans ces ordinateurs, les unités fondamentales d’information, appelées “bits quantiques”, sont utilisées pour résoudre des calculs ou des simulations qui prendraient des temps de traitement peu pratiques dans les ordinateurs électroniques, tels que ceux actuellement utilisés [3] .

Les ordinateurs quantiques fonctionnent avec une logique assez différente de celle présente dans les ordinateurs électroniques. Les bits quantiques peuvent avoir les valeurs 0 et 1 simultanément, à la suite d’un phénomène quantique appelé superposition quantique. Ces valeurs représentent le code binaire des ordinateurs et sont, en quelque sorte, le langage compris par les machines. Les ordinateurs quantiques se sont avérés être la réponse la plus récente en physique et en informatique aux problèmes liés à la capacité limitée des ordinateurs électroniques, dont la vitesse de traitement et la capacité sont étroitement liées à la taille de leurs composants. Ainsi, sa miniaturisation est un processus inévitable [3].

Les ordinateurs quantiques ne serviront pas les mêmes objectifs que les ordinateurs électroniques. L’une des utilisations possibles des ordinateurs quantiques est la factorisation de grands nombres afin de découvrir de nouveaux nombres premiers. Il convient de noter que la factorisation peut être décrite comme la décomposition d’une valeur en différents facteurs multiplicatifs, c’est-à-dire que si l’on multiplie tous les éléments d’une factorisation, le résultat doit être égal à la valeur du nombre factorisé. Même pour les supercalculateurs les plus puissants d’aujourd’hui, il s’agit d’une tâche difficile et chronophage. En théorie, les ordinateurs quantiques pourraient le faire beaucoup plus rapidement. Les ordinateurs quantiques sont bons pour travailler avec de nombreuses variables simultanément, contrairement aux ordinateurs actuels, qui ont de nombreuses limitations pour effectuer ce type de tâche. De cette manière, on s’attend à ce que les ordinateurs quantiques puissent être utilisés pour simuler des systèmes extrêmement complexes, tels que des systèmes biologiques, météorologiques, astronomiques, moléculaires, etc. [3].

La facilité des ordinateurs quantiques à traiter des systèmes complexes est liée à la nature des bits quantiques. Un bit électronique ne peut prendre que la valeur 0 ou 1, tandis que les bits quantiques peuvent avoir les deux valeurs en même temps. Ainsi, un seul bit quantique a un équivalent numérique de 2 bits électroniques. Cela signifie qu’avec seulement 10 bits quantiques, nous aurions un ordinateur d’une capacité de 1024 bits (210 = 1024), alors que la plupart des ordinateurs domestiques fonctionnent aujourd’hui avec des systèmes 64 bits [3].

Bien qu’ils représentent un bond en avant significatif par rapport aux ordinateurs classiques, les ordinateurs quantiques ont aussi leurs limites. Le comportement quantique des bits n’est atteint que dans des conditions très sensibles. Il est donc nécessaire de les maintenir à des températures très basses, proches du zéro absolu, à l’aide de systèmes de réfrigération sophistiqués à l’azote liquide ou à l’hélium. Toute variation de ces conditions de température, aussi minime soit-elle, peut nuire voire interrompre son bon fonctionnement. D’autres facteurs, tels que les champs magnétiques externes et les ondes électromagnétiques émises par des appareils à proximité, peuvent interférer avec le comportement quantique de particules extrêmement sensibles utilisées pour stocker des informations, telles que les électrons et les atomes [3].

La société canadienne D-Wave affirme avoir produit le premier ordinateur quantique commercial. En 2017, la société a mis en vente un ordinateur quantique nommé 2000Q, censé comporter un nombre incroyable de 2000 bits quantiques. Pour l’acquérir, il faut cependant débourser quelque chose autour de 15 millions de dollars. Cette société divise les avis de la communauté scientifique, car il existe des groupes de physiciens et d’informaticiens qui pensent que la machine n’est pas 100% quantique, mais un ordinateur hybride capable d’utiliser simultanément des bits quantiques et électroniques [3].

Avec un ordinateur classique, si vous deviez effectuer 100 calculs différents, vous devriez les traiter un par un, alors qu’avec un ordinateur quantique, vous pourriez les effectuer tous en même temps. La situation actuelle où nous sommes obligés d’utiliser des ordinateurs classiques pour les calculs va changer radicalement. Les superordinateurs – la classe la plus élevée d’ordinateurs classiques – sont si gros qu’ils occupent une grande pièce. La raison en est que 100 calculatrices sont alignées pour effectuer 100 calculs différents à la fois. Dans un vrai supercalculateur, plus de 100 000 ordinateurs plus petits sont alignés. Avec la naissance des ordinateurs quantiques, cela ne sera plus nécessaire. Mais cela ne signifie pas que les superordinateurs deviendront inutiles. Ils seront utilisés à différentes fins telles que les smartphones et les ordinateurs [4].

Il existe des domaines dans lesquels les ordinateurs quantiques ont un grand avantage sur les ordinateurs classiques, par exemple dans les domaines de la chimie et de la biotechnologie. Les réactions des matériaux impliquent en principe des effets quantiques. Un ordinateur quantique qui utilise les phénomènes quantiques eux-mêmes permettrait des calculs qui pourraient facilement intégrer des effets quantiques et serait très efficace pour développer des matériaux tels que des catalyseurs et des polymères. Cela peut conduire au développement de nouveaux médicaments qui étaient auparavant irréalisables, contribuant ainsi à l’amélioration de la santé des personnes. De plus, dans le domaine de la finance, par exemple, comme les formules de négociation d’options sont similaires à celles des phénomènes quantiques, on s’attend à ce que les calculs puissent être effectués efficacement sur des ordinateurs quantiques [4].

Les ordinateurs quantiques peuvent être divisés en plusieurs types, selon la façon dont la plus petite unité, le qubit (une superposition de 0 et de 1), est créée. Le type le plus avancé est le type supraconducteur. Cette méthode crée un qubit en utilisant un circuit supraconducteur avec un élément à ultra-basse température, et de nombreuses sociétés informatiques et autres développent ce type d’ordinateur. Les types de pièges à ions et d’atomes froids, qui ont augmenté récemment, utilisent des électrons dans des atomes fixes pour fabriquer des qubits, et leur fonctionnement est stable, donc une croissance future est attendue. Il y a le type silicium, qui est une “boîte à électrons” appelée un point quantique contenant un seul électron, qui est fabriqué sur une puce semi-conductrice en silicium pour créer un qubit. De plus, un autre type, appelé “type quantique photonique”, qui est un ordinateur quantique utilisant la lumière, est également à l’étude [4].

La société Hitachi développe un ordinateur quantique de type silicium. Le type de silicium permet de créer de très petits qubits, de sorte que de nombreux qubits peuvent être regroupés dans un petit espace. C’est là que les technologies de semi-conducteurs accumulées par Hitachi peuvent être exploitées. Pour obtenir une puissance de calcul supérieure à celle des ordinateurs classiques, il faut pouvoir utiliser un grand nombre de qubits. Le type de silicium de l’ordinateur quantique présente l’avantage qu’un si grand nombre de qubits peut être facilement installé sur une puce semi-conductrice. Le fait que les qubits soient si petits qu’il est difficile de voir ce qui se passe réellement. Lorsque vous regardez une image d’un ordinateur quantique, cela ressemble à un gros appareil, mais la majeure partie est un système de refroidissement qui crée un environnement à basse température pour maintenir les électrons détendus et piégés dans les points quantiques, et le circuit principal est très petit [ 4].

En plus de l’ordinateur quantique, l’intelligence artificielle (IA) peut réinventer les ordinateurs de trois manières, selon le MIT Technology Review. L’intelligence artificielle change notre façon de penser l’informatique. Les ordinateurs n’ont pas beaucoup évolué en 40 ou 50 ans, ils sont devenus plus petits et plus rapides, mais ce sont toujours de simples boîtes avec des processeurs qui exécutent des instructions humaines. L’IA change cette réalité d’au moins trois façons : 1) la façon dont les ordinateurs sont produits ; 2) la façon dont les ordinateurs sont programmés ; et, 3) comment les ordinateurs sont utilisés. En fin de compte, c’est un phénomène qui va changer le fonctionnement des ordinateurs. Le cœur de l’informatique est en train de passer du traitement des chiffres à la prise de décision [5].

L’article du MIT rapporte que le premier changement concerne la fabrication des ordinateurs et des puces qui les contrôlent. Les modèles d’apprentissage en profondeur qui font fonctionner les applications d’IA d’aujourd’hui nécessitent cependant une approche différente car ils nécessitent qu’un grand nombre de calculs moins précis soient effectués en même temps. Cela signifie qu’un nouveau type de puce est nécessaire pour déplacer les données aussi rapidement que possible, garantissant que les données sont disponibles chaque fois que nécessaire. Lorsque l’apprentissage en profondeur est arrivé sur la scène il y a une dizaine d’années, il existait déjà des puces informatiques spécialisées qui étaient très performantes : des unités de traitement graphique (GPU) conçues pour afficher un écran entier de pixels des dizaines de fois par seconde[5].

Le deuxième changement concerne la façon dont les ordinateurs sont programmés quoi faire. Au cours des 40 dernières années, des ordinateurs ont été programmés et pendant les 40 prochaines, ils seront entraînés. Traditionnellement, pour qu’un ordinateur fasse quelque chose comme reconnaître la parole ou identifier des objets dans une image, les programmeurs doivent d’abord créer des règles pour l’ordinateur. Avec le machine learning, les programmeurs ne dictent plus les règles. Au lieu de cela, ils créent un réseau de neurones où les ordinateurs apprennent ces règles par eux-mêmes. Les prochaines grandes avancées viendront dans la simulation moléculaire en tant qu’ordinateurs de formation pour manipuler les propriétés de la matière qui peuvent créer des changements globaux dans l’utilisation de l’énergie, la production alimentaire, la fabrication et la médecine. L’apprentissage en profondeur a un bilan incroyable. Deux des plus grandes avancées de ce type à ce jour sont de savoir comment faire en sorte que les ordinateurs se comportent, comme s’ils comprenaient le langage des humains et reconnaissaient ce qu’il y a dans une image et changeaient déjà la façon dont nous les utilisons [5].

Le troisième changement concerne le fait qu’un ordinateur n’a plus besoin d’un clavier ou d’un écran pour interagir avec les humains. Tout peut devenir un ordinateur. En fait, la plupart des produits ménagers, des brosses à dents aux interrupteurs d’éclairage et aux sonnettes, ont déjà une version intelligente. Cependant, à mesure qu’ils prolifèrent, notre désir de perdre moins de temps à leur dire quoi faire augmente également. C’est comme s’ils devaient être capables de comprendre ce dont nous avons besoin sans notre interférence. C’est le passage des chiffres à la prise de décision en tant que moteur de cette nouvelle ère informatique qui envisage des ordinateurs qui disent aux humains ce que nous devons savoir et quand nous devons le savoir et qui aident les humains quand vous en avez besoin. Aujourd’hui, les machines interagissent avec les gens et s’intègrent de plus en plus dans nos vies. Les ordinateurs sont déjà sortis de leurs cartons [5].

LES RÉFÉRENCES

1. TIGRE, Paulo Bastos e NORONHA, Vitor Branco. Do mainframe à nuvem: inovações, estrutura industrial e modelos de negócios nas tecnologias da informação e da comunicação. Disponible sur le site Web <https://www.scielo.br/j/rausp/a/8mCzNXtRWZJzZPnnrHSq6Bv/>.

2. ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

3. MUNDO EDUCAÇÃO. Computador quântico. Disponible sur le site Web <https://mundoeducacao.uol.com.br/fisica/computador-quantico.htm>.

4. KIDO, Yuzuru. The Present and Future of “Quantum Computers”. Disponible sur le site Web <https://social-innovation.hitachi/en/article/quantum-computing/?utm_campaign=sns&utm_source=li&utm_medium=en_quantum-computing_230>.

5. MIT Technology Review. Como a Inteligência Artificial está reinventando o que os computadores são. Disponible sur le site Web <https://mittechreview.com.br/como-a-inteligencia-artificial-esta-reinventando-o-que-os-computadores-sao/>.

* Fernando Alcoforado, 83, a reçoit la Médaille du Mérite en Ingénierie du Système CONFEA / CREA, membre de l’Académie de l’Education de Bahia, de la SBPC – Société Brésilienne pour le Progrès des Sciences et l’IPB – Institut Polytechnique de Bahia, ingénieur (Ingénierie, Économie et Administration) et docteur en Planification du Territoire et Développement Régional de l’Université de Barcelone, professeur d’Université (Ingénierie, Économie et Administration) et consultant dans les domaines de la planification stratégique, de la planification d’entreprise, planification du territoire et urbanisme, systèmes énergétiques, a été Conseiller du Vice-Président Ingénierie et Technologie chez LIGHT S.A. Entreprise de distribution d’énergie électrique de Rio de Janeiro, coordinatrice de la planification stratégique du CEPED – Centre de recherche et de développement de Bahia, sous-secrétaire à l’énergie de l’État de Bahia, secrétaire à la planification de Salvador, il est l’auteur de ouvrages Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), est l’auteur d’un chapitre du livre Flood Handbook (CRC Press, Boca Raton, Floride, États-Unis, 2022) et How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

Unknown's avatar

Author: falcoforado

FERNANDO ANTONIO GONÇALVES ALCOFORADO, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro pela Escola Politécnica da UFBA e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022), How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023) e A revolução da educação necessária ao Brasil na era contemporânea (Editora CRV, Curitiba, 2023).

Leave a comment