Exorcizando o Demônio de Maxwell

A perda de calor produzido nos fios elétricos ou nos freios de carros é bem conhecida. O que ainda não estamos familiarizados é com a perda de calor que ocorre ao apagarmos uma memória digital. Agora, um experimento inspirado em um demônio metafórico, que ficou conhecido na física como Demônio de Maxwell, conseguiu medir este calor fundamental, que poderá um dia limitar a potência dos computadores.
Imagem no infravermelho, mostrando o calor liberado pelos computadores.
O Demônio de Maxwell
Em 1867, o físico James Clerk Maxwell descreveu a seguinte experiência imaginária:

..." Se nós imaginássemos um ser, que tivesse uma capacidade tão apurada, de tal forma que ele pudesse acompanhar o caminho de cada molécula, e cujos atributos fossem essencialmente finitos como os nossos, tal ser teria a habilidade de fazer o que é impossível para nós. Sabemos que as moléculas, em um recipiente cheio de ar à temperatura uniforme, se movem com velocidades que não são uniformes, embora a velocidade média de um grande número delas, arbitrariamente selecionadas, é quase exatamente uniforme. Agora vamos supor que tal recipiente fosse dividido em duas partes, A e B, com uma divisão na qual houvesse uma estreita passagem, e que aquele ser, que pudesse ver as moléculas individualmente, abrisse e fechasse esta passagem, a fim de permitir que somente as moléculas mais rápidas passassem de A para B, e apenas as mais lentas passassem de B para A. Ele iria, desse modo, sem realizar trabalho, elevar a temperatura de B e abaixar a de A, em contradição com a segunda lei da termodinâmica"...

Este ser, finito e imaginário, que controlaria a abertura e fechamento da passagem entre A e B,  foi descrito pela primeira vez como o Demônio de Maxwell, pelo físico conhecido como Lord Kelvin, em um artigo de 1874, publicado na revista Nature, e tinha a conotação de um ser destinado à mediação, e não o significado malevolente da palavra. 
Figura esquemática, mostrando a atuação do Demônio de Maxwell.

Veja na figura acima, uma representação esquemática do experimento. As bolinhas vermelhas representam as moléculas mais quentes (mais rápidas), e as bolinhas azuis representam as mais frias (mais lentas).

Críticas e Desenvolvimento
O Objetivo de Maxwell era mostrar que a 2ª Lei da Termodinâmica tem somente uma certeza estatística, e que poderia ser violada em flutuações momentâneas. Muitos físicos, no entanto, têm mostrado através de cálculos, que esta lei não é violada, se uma completa análise for feita considerando-se todo o sistema, incluindo-se o demônio.
Em 1961, o físico Rolf Landauer, que trabalhava na IBM, propôs que a chave para o enigma estava na memória do demônio. Para que a criatura reunisse informações sobre o movimento das moléculas, ela precisaria apagar uma memória anterior. Landauer sugeriu que o processo de apagamento dissiparia calor. Este calor gasto poderia equilibrar o trabalho útil adquirido pelo demônio e garantir que, de fato, não houvesse diminuição da entropia, a grandeza física que indica a medida da "desordem" de um sistema.

Exorcizando o Demônio
Quando Landauer propôs que o ato de apagar a memória dissiparia calor, nem todos concordaram com sua explanação. Agora, recentemente, este artigo da New Scientist desta semana, nos informa que o físico Eric Lutz , da Universidade de Augsburg, na Alemanha, e seus colegas, demostraram que há de fato uma quantidade mínima de calor produzido por bit de dados apagados. Este assim chamado limite de Landauer é a prova de que o Demônio não se alimenta de graça. "Nós exorcizamos o Demônio", diz Lutz.
Os "exorcistas" utilizaram um laser que podia definir a posição de um pequeno grânulo de vidro. O laser era focado para dar aos grânulos duas posições estáveis, esquerda e direita, ou 0 e 1. A memória resultante de um bit pode armazenar um 0 ou 1, mas as memórias são sempre apagadas pelo restabelecimento delas de volta ao 0. A equipe descobriu que o calor gerado ao apagar um bit nunca é inferior ao limite de Landauer.

Isto tem implicações profundas para a indústria de microchips, diz Lutz. Atualmente os chips produzem aproximadamente 1000 vezes mais calor por bit, devido à resistência em seus fios. Os fabricantes de chips estão trabalhando nisso, mas vai chegar um ponto em que não se poderá mais reduzi-lo. "A tecnologia baseada no Silício prevê que este limite de Landauer poderá ser atingido daqui a 20 ou 30 anos", diz Lutz. Aí então, a capacidade de compactar cada vez mais bits em um único chip dependerá da maneira que deverá ser encontrada para resfriá-los mais eficazmente, assim que eles começarem a brilhar com o calor fundamental do esquecimento.

Fontes:
Newscientist.com - physics "demon" reveals fundamental heat of forgetting
http://en.wikipedia.org/wiki/Maxwell%27s_demon

O vício das baterias de celular

Na semana passada, durante a aula, um aluno me fez uma pergunta sobre as baterias dos celulares, que me deu uma ideia para elaborar este post. O assunto era eletrodinâmica.
Um dos primeiros conceitos que se deve ter sobre esta matéria refere-se à corrente elétrica. Eu explico nas aulas que as duas palavras, correnteza e corrente, têm significados semelhantes na língua portuguesa, e ambas dão a ideia de um fluxo. Correnteza refere-se a um fluxo de água, que pode ser medido, por exemplo, em m³/s (metros cúbicos por segundo). No caso da intensidade de corrente elétrica (i) , o fluxo é igual à quantidade de carga elétrica (Q), correspondente aos elétrons que se movimentam através de um fio condutor metálico, por unidade de tempo (Δt). Assim, temos:
                                 
A unidade de medida da carga elétrica, no Sistema Internacional de Unidades (SI) é o Coulomb (C) , e do tempo é o segundo (s). corrente elétrica, será, portanto, medida em C/s (Coulombs por segundo). A esta unidade deu-se o nome de Ampère (A).

Carga elétrica das baterias
Da fórmula acima, se quisermos determinar a carga elétrica, conhecendo-se a corrente e o tempo, podemos usar:
Em todas as baterias dos celulares modernos, como a da foto, podemos encontrar indicações da carga elétrica máxima que elas podem armazenar quando estão totalmente carregadas. Acontece que nestes casos, por uma questão prática, não se usa a unidade de carga do SI. Ao invés disso, pelo fato de a corrente ser indicada em mA (miliampères), e o tempo em horas (h), a carga é dada em mAh (miliampères-hora). 

Baterias viciam?
Depois que eu havia passado toda a teoria na aula, no momento em que eu falava sobre esta indicação da carga das baterias, um dos alunos me perguntou se é verdade que as baterias "viciam" quando são carregadas apenas parcialmente. Eu fiquei na dúvida, pois já tinha ouvido falar sobre isso, quando adquiri meu primeiro telefone celular a alguns anos atrás, mas disse que tinha dúvidas sobre até que ponto seria verdade ou apenas mais um mito.
Um outro aluno, que trabalha no setor de informática, se manifestou e disse que achava que realmente as baterias "viciavam". Além disso, ninguém mais arriscou dar um palpite, o que me fez concluir que aparentemente a maioria da classe também não tinha uma opinião formada sobre o assunto. Eu disse então que iria procurar na internet para ver se achava alguma coisa.

O melhor site que encontrei foi este, e através dele pude obter precisas informações. Eis um resumo delas:
  • Os primeiros aparelhos telemóveis, como são chamados pelos nossos amigos lusitanos, usavam baterias de Ni-Cd (Níquel-Cádmio) que realmente "viciavam", isto é, se você as carregasse apenas parcialmente, elas perdiam progressivamente a capacidade de armazenar a quantidade de carga para a qual foram inicialmente projetadas.
  • A maioria dos aparelhos fabricados de 4 anos pra cá usam baterias de íon-Lítio (Li-ion) que não "viciam", e podem armazenar uma carga até 3 vezes maior do que as antigas, de Ni-Cd. Isto quer dizer que podem ser carregadas parcialmente sem perda de eficiência.
  • Os carregadores atuais possuem um sistema de segurança que faz com que eles desliguem assim que a bateria esteja totalmente carregada, evitando superaquecimento.

Apesar de muitas pessoas já terem conhecimento destes fatos, resolvi divulgar aqui para os leitores do INFRAVERMELHO.

Fonte:
http://www.tecmundo.com.br/notebook/2827-baterias-tudo-o-que-voce-precisa-saber-sobre-elas.htm

Ressonância de Laplace

O principal objetivo do telescópio Kepler, desde seu lançamento em março de 2009, tem sido o de procurar planetas além do nosso Sistema Solar (exoplanetas), e que possivelmente apresentem alguma semelhança com a Terra.
Recentemente, a NASA, na página do Kepler, anunciou a descoberta de nada mais nada menos do que 11 sistemas planetários, abrigando ao todo 26 novos exoplanetas. Muitos destes, de fato, não são nada parecidos com o nosso. Com relação aos tamanhos, os menores têm 1,5 vezes o raio da Terra, e outros são até maiores do que Júpiter. Além disso, todos orbitam muito próximos de suas estrelas, o que significa que devem ser bem mais quentes do que a Terra. Veja o diagrama comparando os tamanhos dos planetas do nosso Sistema Solar (à esquerda, em azul), com exoplanetas encontrados pelo Kepler. 
Comparação entre os planetas do Sistema Solar e alguns exoplanetas (Clique na imagem para ampliar)

Ressonância Orbital
Na verdade o que considerei mais interessante nestas descobertas é que foi verificado que em 5 destes sistemas planetários encontrados há um par de exoplanetas em que o mais distante da estrela apresenta exatamente a metade do período orbital do outro mais próximo, ou seja, obedecem uma razão exata de 1:2. Além disso, em 4 outros destes sistemas, há pares de exoplanetas em que esta razão é igual a 2:3, ou seja, para cada 2 voltas dadas por um deles em torno de sua estrela, o outro dá exatamente 3 voltas. Estas razões, definidas por números inteiros, geralmente relacionam-se através de uma influência gravitacional periódica de um corpo celeste sobre o outro, ao que se dá o nome de Ressonância Orbital.
Veja alguns exemplos de ressonância orbital que ocorrem no nosso Sistema Solar:
  • Cada duas órbitas realizadas por Plutão correspondem a três órbitas de Netuno. A razão é indicada por 2:3.
  • A cada 3 voltas dadas pela lua Hyperion, em torno de Saturno, correspondem exatamente a 4 voltas dadas por Titan. A razão é de 3:4.
  • Para cada órbita de Mimas, uma outra lua de Saturno, as partículas da chamada Divisão de Cassini, que fazem parte dos famosos anéis daquele planeta, completam exatamente duas órbitas. Esta razão é indicada por 1:2.
Ressonância de Laplace
Desde a descoberta da Lei da Gravitação Universal de Newton, no século 17, a estabilidade do Sistema Solar tem sido motivo de preocupação para muitos matemáticos. Um dos pioneiros a se concentrar nesta questão foi o matemático, astrônomo e físico francês, Pierre Simon Laplace.(figura).
Os efeitos das interações entre os planetas na estabilidade do Sistema Solar são muito pequenos, mas na época não se sabia ao certo se eles poderiam acrescentar-se por períodos mais longos a ponto de alterar significativamente os parâmetros orbitais e conduzir a uma configuração completamente diferente dos planetas, ou até mesmo se algum outro efeito estabilizador poderia manter aquela configuração.

Laplace foi quem encontrou as primeiras respostas que explicavam o movimento sincronizado das luas Galileanas, Io, Europa e Ganimedes. Este tipo de ressonância, que ocorre entre mais de dois corpos, ficou então conhecida como Ressonância de Laplace. Neste caso, a razão é indicada por 1:2:4.
Veja na animação a simulação, que eu obtive nesta página da Wikipedia.

Napoleão, Deus e Laplace
Laplace também ampliou o trabalho de Newton, com a obra conhecida como Mecânica Celeste, que praticamente inaugurou a chamada mecânica física. Conta-se que Napoleão havia escutado que aquela obra de Laplace não continha menção a Deus. Quando o físico foi pedir para que aceitasse uma cópia de seu trabalho, Napoleão teria lhe perguntado:
"M. Laplace, me disseram que você escreveu este grande livro sobre o sistema do universo e jamais sequer mencionou seu Criador." 
Ao que o físico teria  respondido:
"Eu não precisei fazer tal suposição."

Fontes:
http://www.nasa.gov/mission_pages/kepler/news/new-multi-systems.html
http://raiosinfravermelhos.blogspot.com/2009/02/planetas-extra-solares_04.html

Questão de Física da UNICAMP

Na medida do possível, tenho procurado acompanhar o nível e conteúdo do que tem sido mais pedido atualmente nos exames vestibulares, principalmente sobre Física, disciplina que leciono. Observando algumas provas deste ano, achei interessante, e ao mesmo tempo relativamente simples, a 1ª questão da prova de Ciências da Natureza, da 2ª fase do vestibular da Unicamp, realizada no último dia 17 de Janeiro. Veja:

1) Em 2011 o Atlantis realizou a última missão dos ônibus espaciais, levando quatro astronautas à Estação Espacial Internacional.
a) A Estação Espacial Internacional gira em torno da Terra numa órbita aproximadamente circular de raio R = 6800 km e completa 16 voltas por dia. Qual é a velocidade escalar média da Estação Espacial Internacional?
b) Próximo da reentrada na atmosfera, na viagem de volta, o ônibus espacial tem velocidade de cerca de 8000 m/s, e sua massa é de aproximadamente 90 toneladas. Qual é a sua energia cinética? 

Eu gostaria de realizar aqui uma solução um pouco diferenciada, com comentários e complementos que talvez possam ajudar a entender um pouco melhor a questão.

Solução comentada 
item a)
Para calcular a velocidade escalar média V da Estação Espacial, devemos usar a fórmula:

ΔS  representa o deslocamento da Estação, e Δt  representa o tempo em que se deu este deslocamento.

O deslocamento será dado pela distância percorrida em volta da Terra.
Para calcular esta distância, vamos relembrar um dos  conceitos mais antigos da história da matemática:

O número Pi
Desde muito antes de Cristo, sabe-se que para círculos de quaisquer tamanhos, a razão / D, é sempre constante.
C é a distância percorrida em uma volta em torno do círculo, e D é o diâmetro do círculo. Da razão entre eles, obtém-se o valor de Pi, que atualmente é simbolizado pela letra grega π. Então:
A distância C, como se pode ver na figura, corresponde a aproximadamente 3 vezes o valor de D. Podemos usar, na verdade, várias aproximações para o valor de π. Se quiser conhecer os diversos valores de π adotados ao longo da história,  recomendo este post do excelente blog O Baricentro da Mente, do meu amigo e matemático Kleber KilhianPara simplificar, vamos usar  π = 3.
Sabendo que o diâmetro D é duas vezes maior do que o raio R, temos: 

Se substituirmos esta expressão no lugar de D da relação que define Pi,  logo acima, podemos chegar à expressão:

No enunciado da questão, eles informam o valor do raio da órbita, que é de 6800 km. Substituindo π = 3 e considerando as 16 voltas na Terra dadas em um dia, que também é um dado da questão, temos:

C = 16 . 2 . 3 . 6800 km
         
Este valor corresponde ao  ΔS  da fórmula para calcular a velocidade, dada no início desta solução. Para determinarmos a velocidade, em km/h,  devemos substituir o valor de Δt = 24 h  correspondente a um dia. Então temos:

                V  =  16 . 2 . 3 . 6800 / 24   =  27200 km/h

Comentário
Este altíssimo valor da velocidade da Estação Espacial Internacional representa uma preocupação constante para os seus tripulantes. Acontece que no espaço existem vários pequenos objetos metálicos em órbita, que podem ser atingidos acidentalmente. Até hoje nenhum provocou grandes danos, mas veja apenas dois exemplos, do que alguns deles fizeram ao colidirem com telescópios ou naves:
Buraco de meia polegada no radiador do ônibus espacial Endeavor 
Buraco de 1 cm de diâmetro em um dos painéis do telescópio Hubble












O pior cenário possível aconteceria se algum destes objetos atingisse, por exemplo, a luva de um astronauta da Estação, durante uma caminhada espacial (foto). Se perfurasse o tecido da luva, isto poderia provocar uma rápida e perigosa descompressão.
A NASA monitora constantemente os objetos maiores que porventura estejam em rota de colisão com a Estação. Quando eles são detectados, os tripulantes são colocados em estado de alerta e se dirigem para a nave russa Soyuz, acoplada à Estação, para se preciso for, efetuarem uma saída de emergência. Ao mesmo tempo, a Estação pode alterar a altitude, acionando foguetes que fazem com que ela se posicione em uma órbita um pouco acima da órbita do objeto.

Item b)
Para calcularmos a Energia Cinética da Atlantis na reentrada, temos que usar a fórmula:
Onde m representa a massa, em kg, e V a velocidade da nave, em m/s. A massa é dada na questão, e é de 90 ton = 90 000 kg = 90. 10³ kg.  A velocidade é de 8000 m/s = 8.10³ m/s  Assim teremos:

         Ec =  90. 10³ . ( 8.10³)² /  2   =  2,88 . 1012  J

Comentário
Este é um valor muito alto para a energia cinética. O que ocorria durante a reentrada é que a velocidade das naves era diminuída bastante, devido ao atrito com a atmosfera, e assim a maior parte desta energia cinética se transformava em calor. Isto fazia com que as temperaturas no exterior das naves atingissem valores de até 1200 °C, o que tornava esta etapa uma das mais preocupantes de todas as missões.

Fontes:

Câmara Escura de Orifício

Um dos princípios básicos da Óptica, no âmbito da Física Clássica, diz que a luz se propaga em linha reta, e uma boa aplicação deste princípio se dá no entendimento de como funciona um instrumento conhecido como Câmara Escura de Orifício. 
Este instrumento pode ser construído usando-se uma caixa com um furinho em uma das faces, obtendo-se as imagens dos objetos projetadas na face oposta. Uma opção é colocar um papel fotográfico ou filme no fundo da câmara para captar as imagens, e revelar as fotos a seguir.

Um esquema de como as imagens são formadas, e porque elas aparecem invertidas em relação aos objetos, é mostrado na figura.
Para simplificar, só foram representados dois raios de luz saindo do pescador, passando pelo furo e atingindo o fundo da câmara. Um dos raios parte da ponta da vara de pescar, e o outro da ponta do pé do pescador. Desta forma é fácil entender porque a imagem aparece invertida. Na verdade, há infinitos raios de luz partindo do pescador. Eles determinam pontinhos (pixels) no fundo da câmara, que formarão a imagem completa. Algo semelhante acontece nas câmeras fotográficas e nos nossos olhos. Nestes dois últimos casos citados, temos a presença de uma lente convergente posicionada próxima ao orifício, que permite a regulagem do foco. No caso do olho humano, a lente natural é chamada cristalino, que é flexível, e controla o foco "engordando" quando o objeto está próximo, ou "afinando" quando o objeto está distante. Esta é uma fantástica adaptação que não se pode encontrar em nenhum instrumento óptico produzido pela tecnologia atual.

Pin Hole
A câmara escura de orifício foi a precursora das câmeras fotográficas. Muitas pessoas no mundo ainda se utilizam desta técnica primitiva de obtenção de fotos, que é também conhecida como Pin Hole ("buraco de alfinete"). Tais máquinas podem ser construídas artesanalmente e a qualidade das fotos obtidas são surpreendentes. Veja uma delas:
Foto tirada usando câmara Pin Hole

Teoria e geometria
Quando ensino esta matéria aos alunos, coloco inicialmente na lousa uma figura parecida com esta:

Através de uma geometria simples, envolvendo dois triângulos semelhantes, bem evidentes na figura, faço com que os próprios alunos obtenham a fórmula que relaciona as medidas mostradas.
Através desta fórmula é possível determinar, por exemplo, o tamanho da foto que será obtida, desde que se faça uma estimativa das distâncias e tamanhos envolvidos: A altura do objeto (o), distância do objeto à câmara (a), e a profundidade da câmara (b).
As  imagens também podem ser observadas diretamente, como no exemplo do vídeo a seguir, tirado de um programa educativo que passava a alguns anos atrás na TV Cultura, chamado O Mundo de Beakman. Vejam:

As diversas visões

Hoje este blog está completando 3 anos de existência. Resolvi então escrever neste post comemorativo um pouco mais sobre o assunto relacionado ao  título do blog.

As diversas visões
Óptica é uma das partes da Física que eu mais gosto de ensinar e de aprender. Quando entro no estudo dos mecanismos da visão, costumo dizer aos alunos que mesmo com todos os recursos da tecnologia moderna, não conseguiram inventar até agora um instrumento óptico com um grau de sofisticação comparável ao do olho humano.
É tão difícil acreditar que estas fantásticas estruturas tenham se originado de outras formas mais simples, que este até se tornou um exemplo muito utilizado por defensores do Criacionismo Bíblico. Para seus seguidores, só mesmo um Deus poderia ter criado tão magníficas e engenhosas estruturas, já prontas, da maneira como as conhecemos atualmente, não aceitando que essas estruturas tenham se formado a partir de uma gradual e lenta evolução.

Infravermelho e Astronomia
Os nossos olhos têm um papel importante, porque a luz transporta grande quantidade de informações sobre sua origem e sobre os objetos que quer refletir ou absorver.  Tudo que nós enxergamos na forma de cores é luz. Uma tinta verde, por exemplo, é vista nesta cor porque quando iluminada por luz branca - que contêm todas as cores - só não absorve o verde, que é então refletido em direção aos nossos olhos (veja o esquema da figura). Assim como a maioria dos animais, os seres humanos têm um sistema visual que coleta os sinais luminosos e transporta-os para o cérebro. Nossos olhos, no entanto, só são sensíveis a uma parcela muito pequena do espectro da luz, o que chamamos de luz visível.

Ao longo do século 19, os cientistas descobriram e visualizaram vários tipos diferentes de luz antes invisíveis: ultravioleta (UV), infravermelho, raios X, raios gama, ondas de rádio e microondas. Logo se tornaria evidente que a luz visível e estas formas recém-descobertas de luz eram todas manifestações da mesma coisa: a radiação eletromagnética. 

No final do século 19, cientistas começaram a investigar como a radiação proveniente do cosmos poderia ser capturada para "ver" objetos astronômicos, como estrelas e galáxias, em comprimentos de onda além da faixa visível. Antes, porém, eles tiveram que superar a distorção que é criada pela atmosfera da Terra.
A atmosfera, claro, é transparente à luz visível, e é por isso que muitos animais desenvolveram olhos que são sensíveis a esta parte do espectro. No entanto, muito pouco do resto do espectro eletromagnético consegue penetrar as espessas camadas de nossa atmosfera.
Os comprimentos de onda mais curtos de radiação infravermelha podem penetrar na atmosfera, mas esta radiação  tende a ser absorvida pelo vapor d'água e outras moléculas presentes no ar.

Diante desses problemas, na segunda metade do século 20, após o advento da era espacial, os astrônomos começaram a lançar seus telescópios para além da atmosfera, no espaço. Isto iniciou uma revolução na astronomia comparável à invenção do primeiro telescópio, há pouco mais de 400 anos.

Explorando tanto em terra como através de telescópios no espaço, os astrônomos de hoje podem combinar observações de todo o espectro, produzindo imagens anteriormente ocultas e extremamente cativantes do Universo. Observações na faixa de infravermelho, por exemplo, mostram a mistura de outras formas invisíveis de poeira e gás que preenchem os espaços interestelares e de onde nascem novas estrelas. Veja o exemplo destas fotos:

Andrômeda, a galáxia mais próxima da Via Láctea, quando observada através da luz visível, mostra as suas várias centenas de bilhões de estrelas. Observações feitas em comprimentos de onda do infravermelho, revelam a mistura de (principalmente) gás e poeira a partir do que nascerão novas estrelas.



Aniversariante
Quando montei o blog em 2009, e comecei a escrever aqui, a ideia inicial era tentar despertar um maior interesse dos meus alunos sobre temas relacionados a Física e às Ciências em geral. De algum tempo pra cá, o blog foi tomando outros rumos. Conheci várias pessoas interessantes que trocaram ideias em torno do que eu escrevia, e assim fui fazendo amigos. O bom está sendo perceber que há um importante trabalho de outros colegas que têm se esforçado muito em divulgar com bastante qualidade os assuntos de que gostam. 
Obrigado a todos que me deram força e incentivaram, comentando ou criticando ao longo destes anos.

Fonte:
http://www.scienceinschool.org/2011/issue20/em

Zero: O número que tentaram proibir

Nos dias de hoje, todo estudante entende o significado do zero. Então porque será que na história da humanidade ele custou tanto a ser aceito?
Há evidências de que os primeiros sistemas de contagem tiveram início em 3000 a.C., na Mesopotâmia, Egito, e Pérsia (mapa). No entanto, o surgimento do número zero deu-se somente em torno de 300 a.C. Até então não havia a necessidade de usar um número que expressasse a falta de algo.

Duas concepções do zero
Para entendermos bem a história do surgimento do zero, inicialmente temos que diferenciar os seus dois conceitos:
1) o zero como um símbolo, para representar o nada.
2) o zero como um número, usado nos cálculos.
É comum as pessoas pensarem que os dois são a mesma coisa, no entanto, a história nos mostra algo diferente.

O conceito do zero representando o nada, por ser mais fácil de perceber, também foi aquele que primeiramente se popularizou. Já para entender o surgimento do conceito de zero como número, é preciso antes compreender como funcionam os sistemas numéricos posicionais.

Sistema Numérico Posicional
O primeiro sistema posicional de números foi usado na Babilônia, a partir de 1800 a.C. Havia apenas dois símbolos, um para o algarismo 1 e outro para o algarismo 10. Eles serviam para representar números até o 59. Veja a tabela:
Os babilônios não agrupavam de 10 em 10 (base 10) como nós, mas sim de 60 em 60. O sistema sexagesimal (base 60) teve sua origem especificamente na contagem do tempo, e até hoje o sucesso deste sistema se reflete em nossas unidades de tempo e medidas de ângulos.

Para facilitar a explicação de como surgiu a necessidade de acrescentar-se o zero aos numerais, utilizarei dois números como exemplo: 61 e 3601.
No nosso sistema, de base 10, estes números poderiam ser representados assim:
E veja como estes mesmos números seriam representados na numeração dos babilônios, de base 60:
Note que poderia haver confusão na interpretação. Para diferenciar um do outro, no caso da representação do número 3601  deixava-se um pequeno espaço entre os símbolos, que algumas vezes podia passar despercebido. A necessidade de evitar esta ambiguidade tornou-se cada vez mais evidente, e isto deve ter se intensificado por volta de 300 a.C. quando então teria surgido pela primeira vez na história um símbolo do número zero. Eles usaram duas pequenas flechas viradas para baixo. Veja:
Enfrentando o vazio
Na Grécia Clássica, a civilização certamente não estava preparada para encarar as complexidades do zero. O pensamento grego seguia a ideia de que os números expressavam formas geométricas. Então, a que forma corresponderia algo que não existia de fato? A total ausência de algo - o vazio - era um conceito repudiado pela cosmologia dominante da época.
Em grande parte, a influência de Aristóteles e seus discípulos, representava uma visão de mundo que via os planetas e estrelas inseridos em uma série de esferas celestes concêntricas de extensão finita (figura). Essa esferas, todas centradas na Terra, estariam preenchidas com uma substância etérea, e postas em movimento por um "motor imóvel". A filosofia cristã viu no motor imóvel uma identidade de Deus, e uma vez que não havia lugar para um vazio nesta cosmologia, seguia-se a ideia de que tudo que fosse associado ao vazio era um conceito que negava também a existência de Deus.
A filosofia oriental, enraizada nas ideias de ciclos de criação e destruição, também não sentiria falta do zero. Ele encontrou apoio na Índia, através de matemáticos e astrônomos, como por exemplo, Brahmagupta, por volta de 628 d.C.
Brahmagupta foi o primeiro a tratar os números como quantidades puramente abstratas, separadas de qualquer realidade física ou geométrica. Isso lhe permitiu considerar questões heterodoxas que os babilônios e gregos tinham ignorado ou dispensado, como o que acontece quando você subtrai de um número, um número de maior tamanho. Em termos geométricos isto seria um absurdo. Que área restaria quando uma área maior fosse subtraída?
Entretanto, a partir do momento em que os números se tornam entidades abstratas, uma nova gama de possibilidades se abre: o mundo dos números negativos.

Enquanto comerciantes e banqueiros rapidamente se convenceram da utilidade do sistema hindu-arábico, as autoridades estavam menos apaixonadas. Em 1299, a cidade de Florença, na Itália, proibiu o uso dos numerais hindu-arábicos, incluindo o zero. Eles consideravam que a capacidade de inflar enormemente o valor de um número, simplesmente adicionando um dígito ou dígitos no final - uma facilidade que não era disponível no então sistema dominante não-posicional dos algarismos romanos - poderia ser um convite aberto à fraude.
Mais tarde, o número zero teria uma tarefa ainda mais difícil. Cismas, revoltas, reforma e contra-reforma na Igreja suscitaram debates contínuos a respeito do valor das ideias de Aristóteles sobre o Cosmos. Só a revolução de Copérnico, revelando que a Terra se move em torno do Sol (figura), começou lentamente a agitar a matemática européia na direção de livrar-se dos grilhões da cosmologia aristotélica, a partir do século 16.
Por volta do século 17, a cena finalmente já estava criada para o triunfo do zero. É difícil apontar para um único evento marcante. Talvez tenha sido o advento do sistema de coordenadas inventado pelo filósofo e matemático francês René Descartes. Seu sistema cartesiano unificava álgebra e geometria para dar a cada forma geométrica uma nova representação simbólica, com o zero colocado como coração imóvel do sistema de coordenadas, em seu centro. O zero estava, portanto, longe de ser irrelevante para a geometria, como os gregos haviam sugerido. Agora ele era essencial para ela.

Logo depois, a nova ferramenta de cálculo mostrou pela primeira vez como apreciar o nulo incorporado ao infinitamente pequeno, para explicar como tudo no Cosmos poderia mudar sua posição, tanto uma estrela como um planeta. Assim, uma melhor compreensão do zero tornou-se o fusível da revolução científica que se seguiu. Eventos subsequentes confirmaram o quão essencial foi o zero para a matemática e tudo o que se edificou com ela.

Olhando as diversas utilidades do zero hoje é difícil imaginar como sua aceitação pôde ter causado tanta confusão e angústia. Definitivamente, um caso de muito barulho por nada.

Fonte:
http://www.newscientist.com/article/mg21228390.500-nothingness-zero-the-number-they-tried-to-ban.html

Astronautas caindo na Lua

Há aproximadamente um milhão e meio de anos, após um longo processo evolutivo, surgiram na Terra os primeiros hominídeos, nossos ancestrais, que durante a locomoção já se utilizavam de apenas dois pontos de apoio, no nosso caso os pés, o que significou a exigência de um constante esforço como forma de manter o equilíbrio.
Em nossa vida, desde bem cedo, somos treinados para evitar a todo custo uma queda. A partir do momento em que deixamos de gatinhar e ensaiamos os primeiros passos, para a alegria dos nossos pais e parentes, que observam felizes da vida os nossos movimentos, procuramos intuitivamente evitar os tropeços e os tombos. Uma queda, em muitos casos pode representar um trauma doloroso pelo qual ninguém gosta de passar, muito menos os bebês.
Essa preocupação em se manter equilibrado durante a caminhada permanece durante todo o decorrer da nossa existência, e o corpo vai dessa forma se acostumando ao longo dos anos com os efeitos da aceleração da gravidade da Terra, cujo valor é de aproximadamente 10 m/s².
No entanto, se nos deslocássemos para outro local onde o valor da gravidade fosse diferente, o cérebro poderia levar algum tempo para se adaptar às mudanças nas relações de força durante os movimentos. Um bom exemplo disso aconteceu durante as explorações que os astronautas das missões Apollo fizeram na Lua, nas décadas de 60 e 70. Eles precisavam realizar trabalhos elementares, como martelar pequenas rochas, e para encontrá-las necessitavam fazer caminhadas, e alguns se arriscavam até a correr, dando "pulinhos" no solo lunar, mas em determinados momentos eram traídos pela gravidade menor, e acabavam sofrendo quedas aparentemente bobas, e que hoje chegam a ser até engraçadas de se ver, mas que na minha opinião poderiam representar um certo perigo, caso algum equipamento de  proteção pessoal  fosse danificado.
Até mesmo uma simples tarefa de tentar se levantar após a queda tornava-se visivelmente mais complicada do que aqui na Terra, também devido ao peso do equipamento que eles transportavam nas costas para permitir entre outras coisas a respiração e comunicação entre eles, mas que acabava contribuindo para o desequilíbrio, deslocando o centro de massa, e confundindo as reações do corpo.

A aceleração da gravidade da Lua é cerca de 6 vezes menor do que a do nosso planeta, o que dá um valor aproximado de 1,6 m/s². Dessa forma, a principal causa que fazia com que os astronautas caíssem, mesmo com um pequeno descuido, é que o peso deles também se tornava 6 vezes menor.
Assim, por exemplo, se a massa (m) de um astronauta fosse de 80 Kg, seu peso (P) poderia ser calculado pela fórmula:
P = m . g
Enquanto na Terra (g = 10 m/s²) , seu peso seria de 800 N, na Lua (g = 1,6 m/s²), este valor seria de apenas 128 N.
Veja este video com uma seleção de  várias quedas destes astronautas na Lua.

Satélites caindo do espaço

Qualquer cidadão entende facilmente a necessidade que todos nós sentimos de poder contar com os satélites que orbitam a Terra. Estes equipamentos são mandados ao espaço principalmente com o objetivo de facilitar as nossas vidas aqui embaixo, melhorando a comunicação entre nós, observando o espaço, ou obtendo dados sobre o clima do nosso planeta. No entanto, alguns problemas começaram a surgir. Muitos destes equipamentos, após realizarem seus trabalhos, chegam ao fim de suas vidas úteis, são então desativados, e a partir daí começam a representar um perigo para nós, pois vão continuamente perdendo velocidade, diminuindo a altitude, até que iniciam o processo de retorno e reentrada na atmosfera. O problema maior é que durante este retorno à superfície, suas trajetórias não podem mais ser monitoradas pelas agências espaciais, e assim, o ponto em que seus fragmentos atingirão a superfície não pode ser precisamente determinado. Até o momento, por sorte, nenhum destes objetos atingiu regiões habitadas, o que poderia ter causado grandes danos.
Queda do UARS
No último dia 24 de Setembro, o satélite UARS, de massa total de aproximadamente 6 toneladas, com o tamanho de um ônibus escolar, retornou à Terra, fragmentando-se provavelmente em 26 pedaços, que após a desintegração devido ao atrito com a atmosfera, podem ter chegado com o máximo de 150 quilos cada um. (clique aqui para ler a notícia). A NASA, em comunicado oficial, informou que a queda se deu no Oceano Pacífico, em regiões distantes de áreas habitadas.

Vem aí o ROSAT
Está previsto para entre 20 e 25 de Outubro, a queda de outro satélite desativado, o telescópio de raios-X, de nome ROSAT (imagem), de 2,4 toneladas, que foi construído pelo laboratório aeroespacial alemão DLR, e mandado ao espaço pela NASA. O ponto de reentrada e de queda ainda não pode ser determinado. Assim como no caso do UARS, o Brasil está na rota, e só nos resta torcer para que ele também não caia em uma região habitada.
Os espelhos do telescópio tiveram que ser fortemente protegidos do calor que poderia ter prejudicado as operações de detecção de raios-X durante os seus oito anos de trabalho, mas isso também significa que estes mesmos espelhos estarão muito mais propensos a sobreviver a uma reentrada escaldante. Desta forma, é provável que os pedaços remanescentes de sua fragmentação sejam um pouco maiores do que os do UARS, o que de certa forma representa um perigo maior, caso alguns deles atinjam uma área povoada. A página do ROSAT, do site da DLR, estima que "até 30 itens de detritos individuais, somando todos eles 1,7 toneladas, podem alcançar a superfície da Terra. O sistema óptico, com seus espelhos e uma estrutura de suporte feito de fibra de carbono reforçado - ou pelo menos uma parte dela - poderia ser o componente individual mais pesado a alcançar o chão”.
O ROSAT foi desativado em 1999 e sua órbita foi decaindo desde então. Ele não tem um sistema de propulsão a bordo que pudesse ser usado para manobrar o satélite para permitir um reingresso controlado. O tempo e a posição de reentrada do ROSAT não podem ser previstos com precisão devido às flutuações na atividade solar, que afetam o arrasto atmosférico.

Flutuação da atividade solar
A termosfera, que varia em altitude de cerca de 90 a 500 quilômetros,  é uma camada de gás rarefeita na borda do espaço onde a radiação do Sol faz seu primeiro contato com a atmosfera da Terra. Ela geralmente esquenta e se torna mais densa durante atividade solar alta, o que faz a atmosfera se expandir para cima, causando maiores frenagens em objetos do espaço. A razão de o ROSAT estar voltando mais cedo do que o esperado (previa-se inicialmente que ele cairia entre o final de outubro e o início de novembro) é um aumento repentino na atividade solar. Veja a figura abaixo, retirada da página oficial da reentrada do ROSAT. Note que a atividade do Sol atinge picos em determinados anos, e veja como ela oscila, representada na linha do meio, que eu indiquei pela seta verde.
Prevê-se que haja uma maior taxa de reentradas de satélites, ao aproximarmos da máxima atividade solar em 2013. Apesar de tudo, não há motivo para tanta preocupação. Não se espera que chovam naves espaciais em 2013. É que algumas das reentradas de hoje, como é  o caso do UARS e do ROSAT, são uma herança dos anos 90, em que os lançamento eram feitos a uma taxa duas vezes maior do que as de hoje. A tendência atual é para lançamentos de satélites menores, com cargas mais específicas, ao invés do tipo “tudo-em-um-só” como os satélites representados por embarcações gigantes como o UARS. Isso significa que os restos de futuras missões devem ser menores. Ao menos um alívio, não é mesmo?

Fontes:
http://www.newscientist.com/blogs/onepercent/2011/10/space-telescopes-re-entry-brou.html?DCMP=OTC-rss&nsref=online-news
http://www.nasa.gov/mission_pages/uars/index.html

Update (23/Outubro /2011)  
Rosat já caiu http://astropt.org/blog/2011/10/23/rosat-ja-caiu/

Update (13/01/2018)
Interessante site mostra órbita de satélites, restos de foguetes e pequenos objetos:
http://stuffin.space/