A EVOLUÇÃO DA MAIOR INVENÇÃO DA HUMANIDADE, O COMPUTADOR, E SEU FUTURO

Fernando Alcoforado*

Este artigo tem por objetivo apresentar como evoluiu o computador, a maior invenção da humanidade, e como será seu futuro mais provávelO computador é a maior invenção da humanidade porque a rede mundial de computadores possibilitou o uso da Internet como a tecnologia que mais mudou o mundo com o advento da sociedade da informação. Há quem diga que foi Charles Babbage quem criou no século XIX, uma máquina analítica que, a grosso modo, é comparada com o computador atual com memória e programas. Com esta invenção, Babbage é considerado o “pai da Informática”. Embora muitos conceitos de Babbage sejam usados hoje, a formalização dos componentes, que viria a ser uma máquina de uso geral e novas abstrações, só foram consolidadas a partir da década de 1930, graças a John Von Neumannum dos desenvolvedores do ENIAC e a Alan TuringO primeiro computador eletrônico em larga escala, desenvolvido sem partes mecânicas ou híbridas surgiu apenas em 1945, depois da 2ª Guerra Mundial [2]. A IBM desenvolveu o computador mainframe a partir de 1952, com o primeiro computador baseado em tubos de vácuo, logo substituído pela série 7000, que já utilizava transistores. Em 1964 surge o IBM 360, que teve um imenso sucesso comercial até o início dos anos 1980 [1]. Os, os computadores mainframes eram grandes máquinas que realizavam cálculos e armazenavam informações. De forma geral, seu uso tinha fins científicos, comerciais e governamentais.

Na década de 1970, o domínio dos mainframes começou a ser desafiado pelo surgimento dos microprocessadores. O chip 4004, lançado pela Intel em 1971, era uma unidade central de processamento e o primeiro microprocessador disponível comercialmente. As inovações facilitaram enormemente a tarefa de desenvolver e fabricar computadores de menor porte – chamados então de minicomputadores – que podiam utilizar também periféricos (discos, impressoras, monitores) produzidos por terceiros. Os primeiros minicomputadores custavam um décimo do preço de um mainframe e ocupavam apenas uma fração do espaço por este requerido. Em 1976, houve o lançamento do microprocessador Intel 8080, que deu origem aos primeiros microcomputadores. O chip foi sendo sucessivamente aprimorado e a versão 8088 foi utilizada pela maioria dos fabricantes de microcomputadores. Os microprocessadores mudaram a forma como os computadores eram desenvolvidos. Não era mais necessário produzir o sistema inteiro, incluindo processador, terminais e software, como o compilador e o sistema operacional. O desenvolvimento do Apple II em 1977, feito pelos jovens Steve Jobs e Steve Wosniak, mostrou que as novas tecnologias simplificavam radicalmente o processo de desenvolvimento e a montagem dos equipamentos. Os custos de um sistema baseado em microcomputadores representavam apenas uma fração dos praticados por fabricantes de mainframes e minicomputadores, permitindo, assim, o desenvolvimento de servidores. Interligados em redes locais, os microcomputadores promoveram a difusão da informática [1]. 

A existência do computador propiciou as condições para o advento da Internet que é, sem dúvida, uma das maiores invenções do século XX, cujo desenvolvimento ocorreu em 1965, quando Lawrence G. Roberts, em Massachusetts, e Thomas Merrill, na Califórnia, conectaram um computador por uma linha telefônica comutada de baixa velocidade. O experimento foi um sucesso e foi marcado como o acontecimento que criou a primeira WAN (Wide Area Network) da história. A história da Internet continuou em 1966, quando Lawrence G. Roberts entrou na DARPA (Defense Advanced Research Projects Agency) e criou o plano da ARPANET (Advanced Research Projects Agency Network) para desenvolver a primeira rede de comutação de pacotes. Embora o primeiro protótipo de uma rede comutada por pacotes descentralizada já tivesse sido projetado pelo Laboratório Nacional de Física (NPL) do Reino Unido em 1968, ganharia visibilidade somente em 1969, quando um computador da Universidade da Califórnia (UCLA) se conectou com sucesso a outro do Stanford Research Institute (SRI). A conexão foi tão bem-sucedida que, meses depois, quatro universidades americanas já estavam interconectadas. Assim nasceu a ARPANET. Em 1970, a ARPANET estava consolidada com centenas de computadores conectados [2]. Em 1995, uma nova revolução foi iniciada com o uso comercial da Internet [1].

Inovações tecnológicas em microprocessadores multiplicaram a capacidade de armazenamento digital e o desenvolvimento da banda larga permitiram que as empresas desenvolvessem novos produtos e serviços. A preocupação com as limitações dos recursos computacionais foi superada, permitindo maior foco nas necessidades dos usuários por meio de aplicativos mais atrativos e funcionais, que traziam cada vez mais utilidades para os computadores pessoais. A Netscape foi a primeira empresa a promover a navegação pela Internet, mas foi superada pela Microsoft em função da integração desse dispositivo ao sistema operacional Windows, fato que gerou uma prolongada disputa judicial na Europa. O desenvolvimento comercial da Internet mostrou que era possível a criação de novos modelos de negócios apoiados não mais na venda de hardware e no licenciamento de software, mas, sim, na capacidade de comunicação entre diferentes equipamentos e na criação de comunidades virtuais. Um dos impactos mais significativos do surgimento da Internet foi a popularização do comércio eletrônico [1].

No início de século XXI, surgiu a computação em nuvem. O desenvolvimento da Internet 2.0 e de tecnologias complementares como celulares inteligentes (smartphones) e tabletschips orientados para a comunicação e o desenvolvimento da infraestrutura de banda larga com e sem fio resultaram em uma nova revolução no setor. A computação em nuvem (cloud computing) simboliza a tendência de colocar toda a infraestrutura e informação disponível de forma digital na Internet, incluindo software aplicativo, ferramentas de busca, redes de comunicação, provedores, centros de armazenamento e processamento de dados. O Protocolo Internet (IP) constitui a linguagem universal que permite a padronização dos pacotes de diferentes mídias e comporta o tráfego indistinto de voz, dados e imagens. O conceito de nuvem é muito importante porque permite que a computação se transforme em uma utilidade pública, pois os bens da informação são não rivais e podem ser utilizados simultaneamente por ilimitados usuários. Este modelo oferece grandes vantagens para os usuários, apesar de apresentar também riscos. A principal vantagem é a possibilidade de utilizar os recursos de hardware e software disponíveis de forma mais eficiente, permitindo reduzir a capacidade ociosa em armazenamento e processamento de dados, por meio do compartilhamento de computadores e servidores interligados pela Internet. A infraestrutura é acessada por terminais e dispositivos móveis que conectam a nuvem ao usuário. Os riscos estão associados principalmente à segurança e à manutenção do sigilo de dados armazenados na nuvem [1].

Uma das principais características da sociedade contemporânea é o uso em larga escala da tecnologia da informação. A revolução informacional ou da tecnologia da informação se alastrou a partir dos anos 1970 e 1980, ganhando intensidade na década de 1990 com a propagação da Internet, ou seja, da comunicação em rede por meio do computador. Por que chamar esse processo de revolução? Porque a informatização penetrou na sociedade tal como a energia elétrica que reconfigurou a vida das cidades. O computador, ícone da tecnologia da informação, ligado em rede está alterando a relação das pessoas com o tempo e com o espaço. As redes informacionais permitem ampliar a capacidade de pensar de modo inimaginável. A nova revolução tecnológica ampliou a inteligência humana. Estamos falando de uma tecnologia que permite aumentar o armazenamento, o processamento e a análise de informações, realizar bilhões de relações entre milhares de dados por segundo: o computador [2].

Os computadores atuais são eletrônicos porque são constituídos de transistores empregados nos chips eletrônicos. Isto faz com que ele apresente limitações haja vista que haverá um momento em que não será mais possível diminuir o tamanho de um dos menores e mais importantes componentes dos processadores, o transistor. Em 1965, o químico norte-americano Gordon Earle Moore fez uma previsão de que, a cada 18 meses, duplicaria o número de transistores empregado nos chips eletrônicos com a redução no seu tamanho. No ano de 2017, a empresa de tecnologia norte-americana IBM conseguiu produzir um chip do tamanho de uma unha, com aproximadamente 30 bilhões de transistores de 5 nm (1 nanômetro = 10-9 m). Com isso, a empresa mostrou que, mesmo não sendo muita precisa, a previsão de Moore continua válida até os dias de hoje, mas alcançará seu limite mais cedo do que imaginamos. O problema passa a existir quando não seja mais possível diminuir um dos menores e mais importantes componentes dos processadores, o transistor. É importante observar que é nesse pequeno dispositivo que toda a informação é lida, interpretada e processada [3].

Ao lidarmos com escalas muito diminutas, a Física deixa de ser tão previsível como é nos sistemas macroscópicos, passando a comportar-se randomicamente, de forma probabilística, sujeitando-se às propriedades da Física Quântica. Isto significa dizer que uma das alternativas do futuro é o computador quântico que é uma máquina capaz de manipular informação armazenada em sistemas quânticos, como spins dos elétrons (campo magnético dos elétrons), níveis de energia dos átomos e, até mesmo, polarização de fótons. Nesses computadores, as unidades fundamentais de informação, chamadas “quantum bits” (em português, bits quânticos), são usadas com o intuito de resolver cálculos ou simulações que levariam tempos de processamento impraticáveis em computadores eletrônicos, como os usados atualmente [3].

Os computadores quânticos funcionam com uma lógica bastante diferente daquela presente nos computadores eletrônicos. Os bits quânticos podem apresentar, simultaneamente, os valores 0 e 1, em decorrência de um fenômeno quântico chamado superposição quântica. Esses valores representam o código binário dos computadores e são, de certa forma, a língua compreendida pelas máquinas. Os computadores quânticos têm-se mostrado a mais nova resposta da Física e da Computação aos problemas relacionados à capacidade limitada dos computadores eletrônicos cuja velocidade de processamento e sua capacidade estão intimamente relacionadas ao tamanho de seus componentes. Dessa forma, sua miniaturização é um processo inevitável [3].

Os computadores quânticos não servirão para os mesmos fins que os computadores eletrônicos. Um dos possíveis usos dos computadores quânticos é a fatoração de grandes números, a fim de se descobrirem novos números primos. Cabe observar que fatoração pode ser descrito como a decomposição de um valor em diferentes fatores multiplicativos, ou seja, se multiplicarmos todos os elementos de uma fatoração, o resultado deve ser igual ao valor do número fatorado. Mesmo para os mais potentes supercomputadores atuais, essa é uma difícil tarefa que demanda muito tempo. Teoricamente, os computadores quânticos poderiam executá-la muito mais rapidamente. Os computadores quânticos são bons em trabalhar com muitas variáveis simultaneamente diferentemente dos computadores atuais, que apresentam muitas limitações para a realização desse tipo de tarefa. Desta forma, é esperado que computadores quânticos possam ser usados para simular sistemas extremamente complexos, como sistemas biológicos, meteorológicos, astronômicos, molecularesetc [3].

A facilidade dos computadores quânticos em lidar com sistemas complexos está relacionada com a natureza dos bits quânticos. Um bit eletrônico só pode assumir o valor 0 ou 1, enquanto os bits quânticos podem apresentar os dois valores ao mesmo tempo. Dessa forma, um único bit quântico tem uma equivalência numérica de 2 bits eletrônicos. Isto significa dizer que, com apenas 10 bits quânticos, teríamos um computador com uma capacidade de 1024 bits (210 = 1024), enquanto a maioria dos computadores caseiros de hoje funcionam com sistemas de 64 bits [3].

Apesar de representarem um salto significativo em relação aos computadores clássicos, os computadores quânticos também têm suas limitações. O comportamento quântico dos bits só é atingido em condições muito sensíveisAssim, é necessário mantê-los em temperaturas muito baixas, próximas do zero absoluto, usando sofisticados sistemas de refrigeração a nitrogênio ou a hélio líquido. Quaisquer variações nessas condições de temperatura, por menores que sejam, podem prejudicar ou, até mesmo, interromper seu bom funcionamento. Outros fatores, como campos magnéticos externos e ondas eletromagnéticas emitidas por dispositivos próximos, podem interferir no comportamento quântico de partículas extremamente sensíveis usadas para armazenar a informação, como elétrons e átomos [3].

A empresa canadense D-Wave afirma ter produzido o primeiro computador quântico comercial. Em 2017, a empresa colocou à venda um computador quântico de nome 2000Q, que, supostamente, apresenta incríveis 2000 bits quânticos. Para adquiri-lo, entretanto, é necessário desembolsar algo em torno de 15 milhões de dólares. Essa empresa divide as opiniões da comunidade científica, pois há grupos de físicos e cientistas da computação que acreditam que a máquina não seja 100% quântica, mas sim um computador híbrido capaz de utilizar bits quânticos e eletrônicos simultaneamente [3].

Com um computador clássico convencional, se fosse preciso realizar 100 cálculos diferentes, teria que processá-los um de cada vez, enquanto com um computador quântico, poderia executá-los todos de uma vez. A situação atual em que somos forçados a usar computadores clássicos para cálculos mudará drasticamente. Supercomputadores — a classe mais alta de computadores clássicos — são tão grandes que ocupam uma grande sala. A razão é que 100 calculadoras estão alinhadas para fazer 100 cálculos diferentes de uma só vez. Em um supercomputador real, mais de 100.000 computadores menores estão alinhados. Com o nascimento dos computadores quânticos, isso não será mais necessário. Mas isso não significa que os supercomputadores se tornarão desnecessários. Eles serão usados para diferentes propósitos, como smartphones e como computadores [4].

Existem campos em que os computadores quânticos têm grande vantagem sobre os computadores clássicos como, por exemplo, nas áreas de química e biotecnologia. As reações dos materiais, em princípio, envolvem efeitos quânticos. Um computador quântico que usasse os próprios fenômenos quânticos permitiria cálculos que poderiam facilmente incorporar efeitos quânticos e seria muito eficaz no desenvolvimento de materiais como catalisadores e polímeros. Isso pode levar ao desenvolvimento de novos medicamentos antes inviáveis, contribuindo assim para a melhoria da saúde das pessoas. Adicionalmente, na área de finanças, por exemplo, como as fórmulas para negociação de opções são semelhantes àquelas para fenômenos quânticos, espera-se que os cálculos possam ser executados de forma eficiente em computadores quânticos [4].

Os computadores quânticos podem ser divididos em vários tipos, dependendo de como a menor unidade, o qubit (uma superposição de 0s e 1s), é criada. O tipo mais avançado é o tipo supercondutor. Esse método realiza um qubit usando um circuito supercondutor com um elemento de temperatura ultrabaixa, e muitas empresas de TI e outras estão desenvolvendo esse tipo de computador. Os tipos de armadilha de íons e átomo frio, que vêm aumentando recentemente, usam elétrons em átomos fixos para fazer qubits e sua operação é estável, portanto, espera-se um crescimento futuro. Há o tipo de silício, que é uma “caixa de elétrons”, chamada de ponto quântico contendo apenas um elétron, que é feita em um chip semicondutor de silício para criar um qubit. Além disso, outro tipo, chamado de “tipo quântico fotônico”, que é um computador quântico que usa luz, também está sendo estudado [4].

A empresa Hitachi está desenvolvendo um computador quântico do tipo de silício. O tipo de silício permite que qubits muito pequenos sejam feitos, então muitos qubits podem ser integrados em um espaço pequeno. É aqui que as tecnologias acumuladas de semicondutores da Hitachi podem ser aproveitadas. Para obter um poder computacional superior ao dos computadores clássicos, é necessário poder usar um grande número de qubits. O tipo de silício do computador quântico tem a vantagem de que um número tão grande de qubits pode ser facilmente instalado em um chip semicondutor. O fato de os qubits serem tão pequenos é difícil ver o que realmente está acontecendo. Quando se observa uma foto de um computador quântico, parece um dispositivo grande, mas a maior parte é um sistema de resfriamento que cria um ambiente de baixa temperatura para manter os elétrons relaxados e presos nos pontos quânticos, e o circuito principal é muito pequeno [4].

Além do computador quântico, a Inteligência Artificial (IA) pode reinventar os computadores de três maneiras, segundo o MIT Technology Review. A Inteligência Artificial está mudando a forma como pensamos a computação. Os computadores não avançaram muito em 40 ou 50 anos, se tornaram menores e mais rápidos, mas ainda são meras caixas com processadores que executam as instruções de humanos. A IA está mudando essa realidade em pelo menos três aspectos: 1) a maneira pela qual os computadores são produzidos; 2) a forma com que os computadores são programados; e, 3) como se faz o uso dos computadores. No final das contas, esse é um fenômeno que irá mudar a função dos computadores. O cerne da computação está se transferindo do processamento de números para a tomada de decisão [5].

O artigo do MIT informa que a primeira mudança diz respeito a como os computadores, e os chips que os controlam, são feitos. Os modelos de deep learning (aprendizado profundo) que fazem os aplicativos de IA atuais funcionarem exigem, contudo, uma abordagem diferente porque eles precisam que um grande número de cálculos menos precisos seja executado ao mesmo tempo. Isso significa dizer que um novo tipo de chip é necessário que possa movimentar os dados o mais rápido possível, garantindo que estes estejam disponíveis sempre que necessário. Quando o deep learning entrou em cena há cerca de uma década, já havia chips de computador especializados que eram muito bons nisso: as unidades de processamento gráfico (GPUs, pela sigla em inglês) projetadas para exibir uma tela inteira de pixels dezenas de vezes por segundo[5].

A segunda mudança diz respeito a como os computadores são programados sobre o que fazer. Nos últimos 40 anos, os computadores foram programados e, nos próximos 40, eles serão treinados. Tradicionalmente, para que um computador faça algo como reconhecer uma fala ou identificar objetos em uma imagem, os programadores têm que, primeiro, criar regras para o computador. Com o machine learning (aprendizado de máquina), os programadores não ditam mais as regras. Em vez disso, eles criam uma rede neural em que os computadores aprendem essas regras sozinhos. Os próximos grandes avanços virão na simulação molecular como treinar computadores para manipular as propriedades da matéria que pode criar mudanças globais no uso de energia, produção de alimentos, manufatura e medicina. O deep learning tem um histórico surpreendente. Dois dos maiores avanços desse tipo até agora consistem em como fazer com que os computadores se comportem, como se entendessem a linguagem dos humanos e reconheçam o que está em uma imagem e já estão mudando a maneira como os usamos [5].

A terceira mudança diz respeito ao fato de que um computador não precisa mais de um teclado ou tela para que os humanos interajam com elas. Qualquer coisa pode se tornar um computador. Na verdade, a maioria dos produtos domésticos, de escovas de dente a interruptores de luz e campainhas, já possuem uma versão inteligente. À medida que eles se proliferam, contudo, aumenta também a nossa vontade de querer perder menos tempo dizendo a eles o que fazer. É como se eles devessem ser capazes de descobrir o que precisamos sem nossa interferência. Esta é a mudança da análise de números para a tomada de decisões como determinante dessa nova era da computação que idealiza computadores que digam aos humanos aquilo que precisamos saber e quando precisamos saber e que auxiliam os humanos quando precisa deles. Agora, as máquinas estão interagindo com as pessoas e se integrando cada vez mais às nossas vidas. Os computadores já estão fora de suas caixas [5].

REFERÊNCIAS

1. TIGRE, Paulo Bastos e NORONHA, Vitor Branco. Do mainframe à nuvem: inovações, estrutura industrial e modelos de negócios nas tecnologias da informação e da comunicação. Disponível no website <https://www.scielo.br/j/rausp/a/8mCzNXtRWZJzZPnnrHSq6Bv/>.

2. ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba: Editora CRV, 2022.

3. MUNDO EDUCAÇÃO. Computador quântico. Disponível no website <https://mundoeducacao.uol.com.br/fisica/computador-quantico.htm>.

4. KIDO, Yuzuru. The Present and Future of “Quantum Computers”. Disponível no website <https://social-innovation.hitachi/en/article/quantum-computing/?utm_campaign=sns&utm_source=li&utm_medium=en_quantum-computing_230>.

5. MIT Technology Review. Como a Inteligência Artificial está reinventando o que os computadores são. Disponível no website <https://mittechreview.com.br/como-a-inteligencia-artificial-esta-reinventando-o-que-os-computadores-sao/>.

* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023).

Unknown's avatar

Author: falcoforado

FERNANDO ANTONIO GONÇALVES ALCOFORADO, condecorado com a Medalha do Mérito da Engenharia do Sistema CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro pela Escola Politécnica da UFBA e doutor em Planejamento Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário (Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG, Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba, 2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV, Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022), de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022), How to protect human beings from threats to their existence and avoid the extinction of humanity (Generis Publishing, Europe, Republic of Moldova, Chișinău, 2023) e A revolução da educação necessária ao Brasil na era contemporânea (Editora CRV, Curitiba, 2023).

Leave a comment