Este artigo tem por objetivo apresentar como evoluiu o computador, a maior invenção da humanidade, e como será seu futuro mais provável. O computador é a maior invenção da humanidade porque a rede mundial de computadores possibilitou o uso da Internet como a tecnologia que mais mudou o mundo com o advento da sociedade da informação. A IBM desenvolveu o computador mainframe a partir de 1952. Na década de 1970, o domínio dos mainframes começou a ser desafiado pelo surgimento dos microprocessadores. As inovações facilitaram enormemente a tarefa de desenvolver e fabricar computadores de menor porte - chamados então de minicomputadores. Em 1976, surgiram os primeiros microcomputadores cujos custos representavam apenas uma fração dos praticados por fabricantes de mainframes e minicomputadores, A existência do computador propiciou as condições para o advento da Internet que é, sem dúvida, uma das maiores invenções do século XX, cujo desenvolvimento ocorreu em 1965. No início de século XXI, surgiu a computação em nuvem que simboliza a tendência de colocar toda a infraestrutura e informação disponível de forma digital na Internet. Os computadores atuais são eletrônicos porque são constituídos de transistores empregados nos chips eletrônicos que apresenta limitações haja vista que haverá um momento em que não será mais possível diminuir o tamanho de um dos componentes dos processadores, o transistor. Os computadores quânticos têm-se mostrado a mais nova resposta da Física e da Computação aos problemas relacionados à capacidade limitada dos computadores eletrônicos. A empresa canadense D-Wave afirma ter produzido o primeiro computador quântico comercial. Além do computador quântico, a Inteligência Artificial (IA) pode reinventar os computadores.
THE NECESSARY RESTRUCTURING OF THE UN TO AVOID THE EXTINCTION OF HUMANITY (40...
A EVOLUÇÃO DA MAIOR INVENÇÃO DA HUMANIDADE, O COMPUTADOR, E SEU FUTURO.pdf
1. 1
A EVOLUÇÃO DA MAIOR INVENÇÃO DA HUMANIDADE, O
COMPUTADOR, E SEU FUTURO
Fernando Alcoforado*
Este artigo tem por objetivo apresentar como evoluiu o computador, a maior invenção da
humanidade, e como será seu futuro mais provável. O computador é a maior invenção da
humanidade porque a rede mundial de computadores possibilitou o uso da Internet como
a tecnologia que mais mudou o mundo com o advento da sociedade da informação. Há
quem diga que foi Charles Babbage quem criou no século XIX, uma máquina analítica
que, a grosso modo, é comparada com o computador atual com memória e programas.
Com esta invenção, Babbage é considerado o “pai da Informática”. Embora muitos
conceitos de Babbage sejam usados hoje, a formalização dos componentes, que viria a
ser uma máquina de uso geral e novas abstrações, só foram consolidadas a partir da
década de 1930, graças a John Von Neumann, um dos desenvolvedores do ENIAC e a
Alan Turing. O primeiro computador eletrônico em larga escala, desenvolvido sem partes
mecânicas ou híbridas surgiu apenas em 1945, depois da 2ª Guerra Mundial [2]. A IBM
desenvolveu o computador mainframe a partir de 1952, com o primeiro computador
baseado em tubos de vácuo, logo substituído pela série 7000, que já utilizava transistores.
Em 1964 surge o IBM 360, que teve um imenso sucesso comercial até o início dos anos
1980 [1]. Os, os computadores mainframes eram grandes máquinas que realizavam
cálculos e armazenavam informações. De forma geral, seu uso tinha fins científicos,
comerciais e governamentais.
Na década de 1970, o domínio dos mainframes começou a ser desafiado pelo surgimento
dos microprocessadores. O chip 4004, lançado pela Intel em 1971, era uma unidade
central de processamento e o primeiro microprocessador disponível comercialmente. As
inovações facilitaram enormemente a tarefa de desenvolver e fabricar computadores de
menor porte - chamados então de minicomputadores - que podiam utilizar também
periféricos (discos, impressoras, monitores) produzidos por terceiros. Os primeiros
minicomputadores custavam um décimo do preço de um mainframe e ocupavam apenas
uma fração do espaço por este requerido. Em 1976, houve o lançamento do
microprocessador Intel 8080, que deu origem aos primeiros microcomputadores.
O chip foi sendo sucessivamente aprimorado e a versão 8088 foi utilizada pela maioria
dos fabricantes de microcomputadores. Os microprocessadores mudaram a forma como
os computadores eram desenvolvidos. Não era mais necessário produzir o sistema inteiro,
incluindo processador, terminais e software, como o compilador e o sistema operacional.
O desenvolvimento do Apple II em 1977, feito pelos jovens Steve Jobs e Steve Wosniak,
mostrou que as novas tecnologias simplificavam radicalmente o processo de
desenvolvimento e a montagem dos equipamentos. Os custos de um sistema baseado em
microcomputadores representavam apenas uma fração dos praticados por fabricantes
de mainframes e minicomputadores, permitindo, assim, o desenvolvimento de servidores.
Interligados em redes locais, os microcomputadores promoveram a difusão da
informática [1].
A existência do computador propiciou as condições para o advento da Internet que é, sem
dúvida, uma das maiores invenções do século XX, cujo desenvolvimento ocorreu em
1965, quando Lawrence G. Roberts, em Massachusetts, e Thomas Merrill, na
Califórnia, conectaram um computador por uma linha telefônica comutada de baixa
velocidade. O experimento foi um sucesso e foi marcado como o acontecimento que criou
a primeira WAN (Wide Area Network) da história. A história da Internet continuou em
1966, quando Lawrence G. Roberts entrou na DARPA (Defense Advanced Research
2. 2
Projects Agency) e criou o plano da ARPANET (Advanced Research Projects Agency
Network) para desenvolver a primeira rede de comutação de pacotes. Embora o primeiro
protótipo de uma rede comutada por pacotes descentralizada já tivesse sido projetado pelo
Laboratório Nacional de Física (NPL) do Reino Unido em 1968, ganharia visibilidade
somente em 1969, quando um computador da Universidade da Califórnia (UCLA) se
conectou com sucesso a outro do Stanford Research Institute (SRI). A conexão foi tão
bem-sucedida que, meses depois, quatro universidades americanas já estavam
interconectadas. Assim nasceu a ARPANET. Em 1970, a ARPANET estava consolidada
com centenas de computadores conectados [2]. Em 1995, uma nova revolução foi iniciada
com o uso comercial da Internet [1].
Inovações tecnológicas em microprocessadores multiplicaram a capacidade de
armazenamento digital e o desenvolvimento da banda larga permitiram que as empresas
desenvolvessem novos produtos e serviços. A preocupação com as limitações dos
recursos computacionais foi superada, permitindo maior foco nas necessidades dos
usuários por meio de aplicativos mais atrativos e funcionais, que traziam cada vez mais
utilidades para os computadores pessoais. A Netscape foi a primeira empresa a promover
a navegação pela Internet, mas foi superada pela Microsoft em função da integração desse
dispositivo ao sistema operacional Windows, fato que gerou uma prolongada disputa
judicial na Europa. O desenvolvimento comercial da Internet mostrou que era possível a
criação de novos modelos de negócios apoiados não mais na venda de hardware e no
licenciamento de software, mas, sim, na capacidade de comunicação entre diferentes
equipamentos e na criação de comunidades virtuais. Um dos impactos mais significativos
do surgimento da Internet foi a popularização do comércio eletrônico [1].
No início de século XXI, surgiu a computação em nuvem. O desenvolvimento da Internet
2.0 e de tecnologias complementares como celulares inteligentes (smartphones)
e tablets, chips orientados para a comunicação e o desenvolvimento da infraestrutura de
banda larga com e sem fio resultaram em uma nova revolução no setor. A computação
em nuvem (cloud computing) simboliza a tendência de colocar toda a infraestrutura e
informação disponível de forma digital na Internet, incluindo software aplicativo,
ferramentas de busca, redes de comunicação, provedores, centros de armazenamento e
processamento de dados. O Protocolo Internet (IP) constitui a linguagem universal que
permite a padronização dos pacotes de diferentes mídias e comporta o tráfego indistinto
de voz, dados e imagens. O conceito de nuvem é muito importante porque permite que a
computação se transforme em uma utilidade pública, pois os bens da informação são não
rivais e podem ser utilizados simultaneamente por ilimitados usuários. Este modelo
oferece grandes vantagens para os usuários, apesar de apresentar também riscos. A
principal vantagem é a possibilidade de utilizar os recursos
de hardware e software disponíveis de forma mais eficiente, permitindo reduzir a
capacidade ociosa em armazenamento e processamento de dados, por meio do
compartilhamento de computadores e servidores interligados pela Internet. A
infraestrutura é acessada por terminais e dispositivos móveis que conectam a nuvem ao
usuário. Os riscos estão associados principalmente à segurança e à manutenção do sigilo
de dados armazenados na nuvem [1].
Uma das principais características da sociedade contemporânea é o uso em larga escala
da tecnologia da informação. A revolução informacional ou da tecnologia da informação
se alastrou a partir dos anos 1970 e 1980, ganhando intensidade na década de 1990 com
a propagação da Internet, ou seja, da comunicação em rede por meio do computador. Por
que chamar esse processo de revolução? Porque a informatização penetrou na sociedade
3. 3
tal como a energia elétrica que reconfigurou a vida das cidades. O computador, ícone da
tecnologia da informação, ligado em rede está alterando a relação das pessoas com o
tempo e com o espaço. As redes informacionais permitem ampliar a capacidade de pensar
de modo inimaginável. A nova revolução tecnológica ampliou a inteligência humana.
Estamos falando de uma tecnologia que permite aumentar o armazenamento, o
processamento e a análise de informações, realizar bilhões de relações entre milhares de
dados por segundo: o computador [2].
Os computadores atuais são eletrônicos porque são constituídos de transistores
empregados nos chips eletrônicos. Isto faz com que ele apresente limitações haja vista
que haverá um momento em que não será mais possível diminuir o tamanho de um dos
menores e mais importantes componentes dos processadores, o transistor. Em 1965, o
químico norte-americano Gordon Earle Moore fez uma previsão de que, a cada 18 meses,
duplicaria o número de transistores empregado nos chips eletrônicos com a redução no
seu tamanho. No ano de 2017, a empresa de tecnologia norte-americana IBM conseguiu
produzir um chip do tamanho de uma unha, com aproximadamente 30 bilhões de
transistores de 5 nm (1 nanômetro = 10-9
m). Com isso, a empresa mostrou que, mesmo
não sendo muita precisa, a previsão de Moore continua válida até os dias de hoje, mas
alcançará seu limite mais cedo do que imaginamos. O problema passa a existir quando
não seja mais possível diminuir um dos menores e mais importantes componentes dos
processadores, o transistor. É importante observar que é nesse pequeno dispositivo que
toda a informação é lida, interpretada e processada [3].
Ao lidarmos com escalas muito diminutas, a Física deixa de ser tão previsível como é
nos sistemas macroscópicos, passando a comportar-se randomicamente, de
forma probabilística, sujeitando-se às propriedades da Física Quântica. Isto significa dizer
que uma das alternativas do futuro é o computador quântico que é uma máquina capaz
de manipular informação armazenada em sistemas quânticos, como spins dos elétrons
(campo magnético dos elétrons), níveis de energia dos átomos e, até mesmo, polarização
de fótons. Nesses computadores, as unidades fundamentais de informação,
chamadas “quantum bits” (em português, bits quânticos), são usadas com o intuito de
resolver cálculos ou simulações que levariam tempos de processamento impraticáveis em
computadores eletrônicos, como os usados atualmente [3].
Os computadores quânticos funcionam com uma lógica bastante diferente daquela
presente nos computadores eletrônicos. Os bits quânticos podem
apresentar, simultaneamente, os valores 0 e 1, em decorrência de
um fenômeno quântico chamado superposição quântica. Esses valores representam
o código binário dos computadores e são, de certa forma, a língua compreendida pelas
máquinas. Os computadores quânticos têm-se mostrado a mais nova resposta da Física e
da Computação aos problemas relacionados à capacidade limitada dos computadores
eletrônicos cuja velocidade de processamento e sua capacidade estão intimamente
relacionadas ao tamanho de seus componentes. Dessa forma, sua miniaturização é um
processo inevitável [3].
Os computadores quânticos não servirão para os mesmos fins que os computadores
eletrônicos. Um dos possíveis usos dos computadores quânticos é a fatoração de grandes
números, a fim de se descobrirem novos números primos. Cabe observar que fatoração
pode ser descrito como a decomposição de um valor em diferentes fatores multiplicativos,
ou seja, se multiplicarmos todos os elementos de uma fatoração, o resultado deve ser igual
ao valor do número fatorado. Mesmo para os mais potentes supercomputadores atuais,
4. 4
essa é uma difícil tarefa que demanda muito tempo. Teoricamente, os computadores
quânticos poderiam executá-la muito mais rapidamente. Os computadores quânticos são
bons em trabalhar com muitas variáveis simultaneamente diferentemente dos
computadores atuais, que apresentam muitas limitações para a realização desse tipo de
tarefa. Desta forma, é esperado que computadores quânticos possam ser usados
para simular sistemas extremamente complexos, como
sistemas biológicos, meteorológicos, astronômicos, moleculares, etc [3].
A facilidade dos computadores quânticos em lidar com sistemas complexos está
relacionada com a natureza dos bits quânticos. Um bit eletrônico só pode assumir o valor
0 ou 1, enquanto os bits quânticos podem apresentar os dois valores ao mesmo tempo.
Dessa forma, um único bit quântico tem uma equivalência numérica de 2 bits eletrônicos.
Isto significa dizer que, com apenas 10 bits quânticos, teríamos um computador com uma
capacidade de 1024 bits (210
= 1024), enquanto a maioria dos computadores caseiros de
hoje funcionam com sistemas de 64 bits [3].
Apesar de representarem um salto significativo em relação aos computadores clássicos,
os computadores quânticos também têm suas limitações. O comportamento quântico dos
bits só é atingido em condições muito sensíveis. Assim, é necessário mantê-los
em temperaturas muito baixas, próximas do zero absoluto, usando sofisticados sistemas
de refrigeração a nitrogênio ou a hélio líquido. Quaisquer variações nessas condições de
temperatura, por menores que sejam, podem prejudicar ou, até mesmo, interromper seu
bom funcionamento. Outros fatores, como campos magnéticos externos e ondas
eletromagnéticas emitidas por dispositivos próximos,
podem interferir no comportamento quântico de partículas extremamente sensíveis
usadas para armazenar a informação, como elétrons e átomos [3].
A empresa canadense D-Wave afirma ter produzido o primeiro computador
quântico comercial. Em 2017, a empresa colocou à venda um computador quântico de
nome 2000Q, que, supostamente, apresenta incríveis 2000 bits quânticos. Para adquiri-
lo, entretanto, é necessário desembolsar algo em torno de 15 milhões de dólares. Essa
empresa divide as opiniões da comunidade científica, pois há grupos de físicos e cientistas
da computação que acreditam que a máquina não seja 100% quântica, mas sim um
computador híbrido capaz de utilizar bits quânticos e eletrônicos simultaneamente [3].
Com um computador clássico convencional, se fosse preciso realizar 100 cálculos
diferentes, teria que processá-los um de cada vez, enquanto com um computador quântico,
poderia executá-los todos de uma vez. A situação atual em que somos forçados a usar
computadores clássicos para cálculos mudará drasticamente. Supercomputadores — a
classe mais alta de computadores clássicos — são tão grandes que ocupam uma grande
sala. A razão é que 100 calculadoras estão alinhadas para fazer 100 cálculos diferentes de
uma só vez. Em um supercomputador real, mais de 100.000 computadores menores estão
alinhados. Com o nascimento dos computadores quânticos, isso não será mais necessário.
Mas isso não significa que os supercomputadores se tornarão desnecessários. Eles serão
usados para diferentes propósitos, como smartphones e como computadores [4].
Existem campos em que os computadores quânticos têm grande vantagem sobre os
computadores clássicos como, por exemplo, nas áreas de química e biotecnologia. As
reações dos materiais, em princípio, envolvem efeitos quânticos. Um computador
quântico que usasse os próprios fenômenos quânticos permitiria cálculos que poderiam
facilmente incorporar efeitos quânticos e seria muito eficaz no desenvolvimento de
5. 5
materiais como catalisadores e polímeros. Isso pode levar ao desenvolvimento de novos
medicamentos antes inviáveis, contribuindo assim para a melhoria da saúde das pessoas.
Adicionalmente, na área de finanças, por exemplo, como as fórmulas para negociação de
opções são semelhantes àquelas para fenômenos quânticos, espera-se que os cálculos
possam ser executados de forma eficiente em computadores quânticos [4].
Os computadores quânticos podem ser divididos em vários tipos, dependendo de como a
menor unidade, o qubit (uma superposição de 0s e 1s), é criada. O tipo mais avançado é
o tipo supercondutor. Esse método realiza um qubit usando um circuito supercondutor
com um elemento de temperatura ultrabaixa, e muitas empresas de TI e outras estão
desenvolvendo esse tipo de computador. Os tipos de armadilha de íons e átomo frio, que
vêm aumentando recentemente, usam elétrons em átomos fixos para fazer qubits e sua
operação é estável, portanto, espera-se um crescimento futuro. Há o tipo de silício, que é
uma "caixa de elétrons", chamada de ponto quântico contendo apenas um elétron, que é
feita em um chip semicondutor de silício para criar um qubit. Além disso, outro tipo,
chamado de "tipo quântico fotônico", que é um computador quântico que usa luz, também
está sendo estudado [4].
A empresa Hitachi está desenvolvendo um computador quântico do tipo de silício. O tipo
de silício permite que qubits muito pequenos sejam feitos, então muitos qubits podem ser
integrados em um espaço pequeno. É aqui que as tecnologias acumuladas de
semicondutores da Hitachi podem ser aproveitadas. Para obter um poder computacional
superior ao dos computadores clássicos, é necessário poder usar um grande número de
qubits. O tipo de silício do computador quântico tem a vantagem de que um número tão
grande de qubits pode ser facilmente instalado em um chip semicondutor. O fato de os
qubits serem tão pequenos é difícil ver o que realmente está acontecendo. Quando se
observa uma foto de um computador quântico, parece um dispositivo grande, mas a maior
parte é um sistema de resfriamento que cria um ambiente de baixa temperatura para
manter os elétrons relaxados e presos nos pontos quânticos, e o circuito principal é muito
pequeno [4].
Além do computador quântico, a Inteligência Artificial (IA) pode reinventar os
computadores de três maneiras, segundo o MIT Technology Review. A Inteligência
Artificial está mudando a forma como pensamos a computação. Os computadores não
avançaram muito em 40 ou 50 anos, se tornaram menores e mais rápidos, mas ainda são
meras caixas com processadores que executam as instruções de humanos. A IA está
mudando essa realidade em pelo menos três aspectos: 1) a maneira pela qual os
computadores são produzidos; 2) a forma com que os computadores são programados; e,
3) como se faz o uso dos computadores. No final das contas, esse é um fenômeno que irá
mudar a função dos computadores. O cerne da computação está se transferindo do
processamento de números para a tomada de decisão [5].
O artigo do MIT informa que a primeira mudança diz respeito a como os computadores,
e os chips que os controlam, são feitos. Os modelos de deep learning (aprendizado
profundo) que fazem os aplicativos de IA atuais funcionarem exigem, contudo, uma
abordagem diferente porque eles precisam que um grande número de cálculos menos
precisos seja executado ao mesmo tempo. Isso significa dizer que um novo tipo de chip é
necessário que possa movimentar os dados o mais rápido possível, garantindo que estes
estejam disponíveis sempre que necessário. Quando o deep learning entrou em cena há
cerca de uma década, já havia chips de computador especializados que eram muito bons
6. 6
nisso: as unidades de processamento gráfico (GPUs, pela sigla em inglês) projetadas para
exibir uma tela inteira de pixels dezenas de vezes por segundo[5].
A segunda mudança diz respeito a como os computadores são programados sobre o que
fazer. Nos últimos 40 anos, os computadores foram programados e, nos próximos 40, eles
serão treinados. Tradicionalmente, para que um computador faça algo como reconhecer
uma fala ou identificar objetos em uma imagem, os programadores têm que, primeiro,
criar regras para o computador. Com o machine learning (aprendizado de máquina), os
programadores não ditam mais as regras. Em vez disso, eles criam uma rede neural em
que os computadores aprendem essas regras sozinhos. Os próximos grandes avanços
virão na simulação molecular como treinar computadores para manipular as propriedades
da matéria que pode criar mudanças globais no uso de energia, produção de alimentos,
manufatura e medicina. O deep learning tem um histórico surpreendente. Dois dos
maiores avanços desse tipo até agora consistem em como fazer com que os computadores
se comportem, como se entendessem a linguagem dos humanos e reconheçam o que está
em uma imagem e já estão mudando a maneira como os usamos [5].
A terceira mudança diz respeito ao fato de que um computador não precisa mais de um
teclado ou tela para que os humanos interajam com elas. Qualquer coisa pode se tornar
um computador. Na verdade, a maioria dos produtos domésticos, de escovas de dente a
interruptores de luz e campainhas, já possuem uma versão inteligente. À medida que eles
se proliferam, contudo, aumenta também a nossa vontade de querer perder menos tempo
dizendo a eles o que fazer. É como se eles devessem ser capazes de descobrir o que
precisamos sem nossa interferência. Esta é a mudança da análise de números para a
tomada de decisões como determinante dessa nova era da computação que idealiza
computadores que digam aos humanos aquilo que precisamos saber e quando precisamos
saber e que auxiliam os humanos quando precisa deles. Agora, as máquinas estão
interagindo com as pessoas e se integrando cada vez mais às nossas vidas. Os
computadores já estão fora de suas caixas [5].
REFERÊNCIAS
1. TIGRE, Paulo Bastos e NORONHA, Vitor Branco. Do mainframe à nuvem:
inovações, estrutura industrial e modelos de negócios nas tecnologias da informação e da
comunicação. Disponível no website
<https://www.scielo.br/j/rausp/a/8mCzNXtRWZJzZPnnrHSq6Bv/>.
2. ALCOFORADO, Fernando. A escalada da ciência e da tecnologia ao longo da
história e sua contribuição ao progresso e à sobrevivência da humanidade. Curitiba:
Editora CRV, 2022.
3. MUNDO EDUCAÇÃO. Computador quântico. Disponível no website
<https://mundoeducacao.uol.com.br/fisica/computador-quantico.htm>.
4. KIDO, Yuzuru. The Present and Future of “Quantum Computers”. Disponível no
website <https://social-innovation.hitachi/en/article/quantum-
computing/?utm_campaign=sns&utm_source=li&utm_medium=en_quantum-
computing_230>.
7. 7
5. MIT Technology Review. Como a Inteligência Artificial está reinventando o que
os computadores são. Disponível no website <https://mittechreview.com.br/como-a-
inteligencia-artificial-esta-reinventando-o-que-os-computadores-sao/>.
* Fernando Alcoforado, 83, condecorado com a Medalha do Mérito da Engenharia do Sistema
CONFEA/CREA, membro da Academia Baiana de Educação, da SBPC- Sociedade Brasileira para o
Progresso da Ciência e do IPB- Instituto Politécnico da Bahia, engenheiro e doutor em Planejamento
Territorial e Desenvolvimento Regional pela Universidade de Barcelona, professor universitário
(Engenharia, Economia e Administração) e consultor nas áreas de planejamento estratégico, planejamento
empresarial, planejamento regional e planejamento de sistemas energéticos, foi Assessor do Vice-
Presidente de Engenharia e Tecnologia da LIGHT S.A. Electric power distribution company do Rio de
Janeiro, Coordenador de Planejamento Estratégico do CEPED- Centro de Pesquisa e Desenvolvimento da
Bahia, Subsecretário de Energia do Estado da Bahia, Secretário do Planejamento de Salvador, é autor dos
livros Globalização (Editora Nobel, São Paulo, 1997), De Collor a FHC- O Brasil e a Nova (Des)ordem
Mundial (Editora Nobel, São Paulo, 1998), Um Projeto para o Brasil (Editora Nobel, São Paulo, 2000), Os
condicionantes do desenvolvimento do Estado da Bahia (Tese de doutorado. Universidade de
Barcelona,http://www.tesisenred.net/handle/10803/1944, 2003), Globalização e Desenvolvimento (Editora
Nobel, São Paulo, 2006), Bahia- Desenvolvimento do Século XVI ao Século XX e Objetivos Estratégicos
na Era Contemporânea (EGBA, Salvador, 2008), The Necessary Conditions of the Economic and Social
Development- The Case of the State of Bahia (VDM Verlag Dr. Müller Aktiengesellschaft & Co. KG,
Saarbrücken, Germany, 2010), Aquecimento Global e Catástrofe Planetária (Viena- Editora e Gráfica,
Santa Cruz do Rio Pardo, São Paulo, 2010), Amazônia Sustentável- Para o progresso do Brasil e combate
ao aquecimento global (Viena- Editora e Gráfica, Santa Cruz do Rio Pardo, São Paulo, 2011), Os Fatores
Condicionantes do Desenvolvimento Econômico e Social (Editora CRV, Curitiba, 2012), Energia no
Mundo e no Brasil- Energia e Mudança Climática Catastrófica no Século XXI (Editora CRV, Curitiba,
2015), As Grandes Revoluções Científicas, Econômicas e Sociais que Mudaram o Mundo (Editora CRV,
Curitiba, 2016), A Invenção de um novo Brasil (Editora CRV, Curitiba, 2017), Esquerda x Direita e a sua
convergência (Associação Baiana de Imprensa, Salvador, 2018, em co-autoria), Como inventar o futuro
para mudar o mundo (Editora CRV, Curitiba, 2019), A humanidade ameaçada e as estratégias para sua
sobrevivência (Editora Dialética, São Paulo, 2021), A escalada da ciência e da tecnologia ao longo da
história e sua contribuição ao progresso e à sobrevivência da humanidade (Editora CRV, Curitiba, 2022),
de capítulo do livro Flood Handbook (CRC Press, Boca Raton, Florida, United States, 2022) e How to
protect human beings from threats to their existence and avoid the extinction of humanity (Generis
Publishing, Europe, Republic of Moldova, Chișinău, 2023).