Gelo produzindo fogo

Outro dia eu estava procurando por um exercício de Óptica Geométrica, sobre lentes esféricas, folheando o livro Conexões com a Física, por sinal um dos melhores que já vi, e deparei-me com uma página em que se propunha a seguinte pergunta:

É possível  obter fogo usando gelo?

Isso é possível, se concentrarmos os raios solares com o uso de uma pedra cristalina de gelo, desde que ela seja "lapidada" no formato de uma lente convergente. Depois, pesquisando melhor, descobri que existe até um vídeo no Youtube mostrando como isso funciona realmente. Está em inglês, mas o que vale são as imagens.

 
Um extremo dando origem a outro. Aristóteles (384 - 322 a.C.) já tentava explicar a composição e o comportamento de todos os materiais da Natureza, através dos 4 elementos: TERRA, ÁGUA, AR, e FOGO, além  do ÉTER - a quintessência. Será que ele poderia imaginar esta relação tão próxima entre elementos tão diametralmente opostos?

Homem supersônico

Neste Domingo, 14 de outubro, o austríaco Felix Baumgartner (foto) saltou da estratosfera da Terra, de uma altura de aproximadamente 39.000 m. De acordo com informações do site oficial da missão, Baumgartner alcançou uma velocidade estimada de 1.342,8 km/h (Mach 1,24) a qual, quando certificada, irá torná-lo oficialmente o primeiro homem a  quebrar a barreira do som, em queda livre.
Para quem não sabe, este paraquedista já esteve aqui no Brasil e pulou da mão do Cristo Redentor. Veja a foto.
Felix Baumgartner se preparando para saltar da mão direita do Cristo Redentor.


A velocidade do som no ar
De acordo com a temperatura e a densidade, o som se propaga no ar com diferentes valores de velocidade. No ponto da camada da estratosfera, de onde Felix saltou, na qual as temperaturas variam entre cerca de -10°C e -20°C, a velocidade do som é um pouco menor do que aqui embaixo onde estamos. Aqui, ela gira em torno de 340 m/s, o que dá 1.224 km/h. Segundo informações deste link do site da missão, se Felix conseguisse controlar convenientemente a posição de seu corpo durante a queda, ele aceleraria do repouso até a velocidade do som na estratosfera, que deveria ser, segundo eles, de aproximadamente 1.110 km/h, ou 308 m/s. Além disso, eles estimavam que para atingir tal velocidade, Felix levaria uns 40 segundos ou menos de queda livre.

Só para comparar, resolvi então fazer um cálculo de velocidade, usando uma conhecida fórmula da Física. 
V = Vo + g.t   
Se a resistência do ar na estratosfera fosse desprezada, usando a fórmula acima, considerando Vo = 0, e g = 9,7 m/s² (a 39 km de altura a gravidade já é um pouco menor), após 40 s de queda livre, o paraquedista teria a velocidade de 388 m/s (1.396,8 km/h). A conclusão a que podemos chegar é que, mesmo na estratosfera o efeito da resistência do ar é significativo, principalmente quando se está a uma alta velocidade, como no caso do paraquedista. Além disso, conforme ele vai descendo, o ar vai ficando cada vez mais denso, aumentando o atrito e fazendo com que aos poucos a velocidade se aproxime da velocidade limite de queda, quando então o peso do paraquedista se iguala à força de resistência do ar, fazendo com que a resultante, e consequentemente a aceleração se anulem. A partir daí ele descerá com velocidade constante até abrir o paraquedas.  
Selecionei aqui um vídeo mostrando as imagens reais. Reparem que os raios infravermelhos foram os responsáveis por permitirem a visualização das imagens no início da descida.

Vazão baixa no chuveiro aumenta o consumo de energia?

Nesta semana que se passou estive preparando as provas de Física da escola em que dou aulas. Depois de elaborar uma das questões das 3ªs séries, cujo tema é eletricidade, surgiu-me a ideia de explorar neste blog um assunto que muitas vezes não damos muita importância, mas que faz parte do nosso dia-a-dia, já que acredito que pelo menos a grande maioria das pessoas utiliza-se de um chuveiro elétrico diariamente.

Etiqueta com dados de um aquecedor da Lorenzetti
Ao pesquisar diversas etiquetas de energia que mostravam os dados de alguns aparelhos elétricos, selecionei uma referente a um aquecedor de água, a qual reproduzo acima. Para analisar o consumo de energia, achei melhor escolher um aparelho que não tivesse as posições inverno e verão, como nos chuveiros de nossas casas, pois desta forma as variações nos valores do consumo seriam analisadas unicamente devido à alteração na vazão de água.

Vazão X Consumo
O detalhe que faço questão de ressaltar diz respeito à informação da etiqueta do INMETRO, sobre a variação no consumo de energia devido aos diferentes valores da vazão de água estabelecida em L/min (Litros por minuto). Pode-se perceber que, diminuindo-se a vazão temos evidentemente uma maior elevação na temperatura da água, mas o que eu quero aqui destacar e tentar explicar é que também há um aumento, mesmo que pequeno, no consumo de energia. Mas por que isto acontece, se a potência teoricamente permanece constante? A princípio não parece fazer sentido que, conforme diminuímos a vazão de água do chuveiro que estamos usando, um hábito comum dos moradores de uma casa principalmente no inverno, para se obter aquela água bem quentinha, tenhamos também um aumento no consumo de energia. Tentei buscar explicação para este fato, fazendo uma rápida pesquisa no Google, mas infelizmente não encontrei muita coisa que pudesse me ajudar. Busquei então meus livros de Física, a fim de tentar obter algumas pistas.

Resistividade elétrica
A resistividade é uma característica de um material que provoca um aumento na resistência, conforme a temperatura aumenta. Isto ocorre porque a uma temperatura maior os átomos do interior do material ficam mais agitados, dificultando a passagem dos elétrons livres. É como se você tentasse atravessar um salão durante um baile em que as pessoas estivessem dançando rock ou uma música agitada. Seria mais difícil do que atravessar o salão durante uma música lenta. Pois bem, você estaria fazendo o papel dos elétrons livres (corrente elétrica), e os dançarinos seriam os átomos que constituem o material condutor.
Voltemos então agora à questão do chuveiro. Levantei a seguinte hipótese:
Pensei na possibilidade de que quando a vazão de água diminuísse, o calor que flui da resistência do chuveiro para a água encontraria uma maior dificuldade em ser transferido, pois a rapidez com que a água passa através do chuveiro diminuiria.  Assim o calor deixaria de ser "arrastado" facilmente pela água, e isto faria com que aumentasse a temperatura da resistência. Com o aumento da temperatura, aumentaria a resistividade e também o valor da resistência (R). Acontece que desta forma a potência diminuiria, pois, para uma mesma tensão (U), que neste caso permanece constante, é sabido que a potência (P) é inversamente proporcional à resistência :
P = U² / R   
Assim, esta hipótese, por si só, não se confirmaria, pois o consumo, sendo diretamente proporcional à potência, diminuiria com o aumento da vazão. Busquei então uma outra explicação.

Termologia
O calor (Q) que é transferido para a água, faz com que a temperatura varie, e pode ser calculado por:
Q = m . c . ∆T
onde:
m = massa de água
c = calor específico da água
∆T = elevação da temperatura da água

A energia elétrica (E) que representa o consumo, é dada pelo produto da potência (P) pelo tempo (t):
E = P . t
Supondo-se que toda energia elétrica (E) tenha se transferido para a água na forma de calor (Q), e ao mesmo tempo informando que esta suposição pode ser a responsável pela causa da diferença entre os valores de consumo obtidos e informados na etiqueta do INMETRO, teríamos:

E = Q
P . t = m . c . ∆T                                
P . t = d . V . c . ∆T        
onde:
d = densidade da água
V = volume de água
Sabemos que a vazão, que representarei por Z, é definida como a razão entre o volume e o tempo. Z = V / t, ou seja, V = Z . t.  Então, substituindo:

P . t = d . Z . t . c . ∆T 

Cortando-se o tempo (t) nos dois membros da equação, teremos:

P = d . Z . c . ∆T 

A densidade da água varia pouco com a temperatura, mais uma possibilidade que também poderia acrescentar-se na explicação das diferenças de consumo devido às diferentes vazões. No entanto vou aqui desconsiderar esta possibilidade, por acreditar que trata-se de um fator irrelevante. Da mesma forma, considerarei constante o calor especifico da água.

Conclusão
Talvez possamos então finalmente concluir que, provavelmente a suposição feita de que a energia elétrica (E) é totalmente transferida à água na forma de calor (Q) pode ter sido o maior fator de erro cometido. Uma pequena parte do calor pode ter sido dissipado, por exemplo, através do próprio plástico do chuveiro, próximo ao espaço reservado à resistência.
Só para ficar um pouco mais claro, resolvi fazer umas contas com os dados de consumo mínimo e máximo, da etiqueta do INMETRO, sem preocupação com as unidades de medida do tempo que não se correspondem. Usei os valores de elevação da temperatura, e da vazão nos dois casos, para comparar um com outro, usando a fórmula:
P = d . Z . c . ∆T

P (mín)  = d . Z . c . ∆T = d . 7,9 . c . 10    = 79 d . c
P (máx) = d . Z . c . ∆T = d . 3,0 . c . 26,5 = 79,5 d . c

Neste cálculo, já notamos um pequeno aumento na potência, e portanto no consumo, devido à diminuição da vazão. Espero que esta diferença não se deva à falta de exatidão nas medidas de vazão ou de elevação da temperatura, feitas nos laboratórios do INMETRO, pois sendo assim, eu acho que estaria informando erroneamente aos meus alunos que com o chuveiro funcionando com baixa vazão (pouca água) aumenta-se o consumo de energia. Eu ficaria muito grato a quem pudesse me fazer entender melhor esta questão, através dos comentários.

Cerveja estupidamente gelada

Eu fico muito feliz quando recebo comentários neste blog, feitos por grandes amigos que me prestigiam em cada postagem que faço. Com suas bem colocadas opiniões sobre diversos assuntos de nosso interesse comum, acabamos trocando ideias, e não raras vezes aprendemos uns com os outros.

Estupidamente congelada
Outro dia eu estava conversando aqui com um amigo, na seção de comentários da postagem sobre o tempo de reação, em que eu dizia como a reação se torna mais lenta quando uma pessoa se encontra alcoolizada, e foi então que surgiu uma pergunta a respeito de um fato que ocorre comumente, quando alguém segura inadvertidamente uma garrafa de cerveja, a qual encontra-se no ponto que chamamos de estupidamente gelada. Se uma pessoa sem experiência, ou que seja novata na arte da apreciação desta bebida, segura e abre a garrafa de maneira inapropriada, acaba fazendo com que o precioso líquido interior se congele e estrague o prazer dos demais amigos do grupo, que aguardavam ansiosos para degustar a "loira gelada" em um momento de descontração de uma tarde, após os estresses que fazem parte do cumprimento dos deveres durante a semana.

Estado Metaestável
Para entendermos por que ocorre este repentino e inesperado congelamento, temos primeiramente que entender o conceito de estado metaestável. Dentre tantas definições que encontrei, gostei particularmente de uma feita pela Wikipedia. Lá tem também uma figura que achei bem didática para compreendermos da forma mais simples possível o que ocorre neste caso. Leia:

“Um estado metaestável corresponde a qualquer estado do sistema diferente do estado de equilíbrio mais estável – diferente do equilíbrio termodinâmico – que tenha consigo associado uma restrição que impeça a transição imediata deste para o estado mais estável sem alguma perturbação significativa de origem geralmente externa ao sistema. O sistema pode assim permanecer por longos tempos no estado metaestável sem transitar para o estado mais estável. Contudo, presente a influência externa – ou interna adequada – o sistema irá transitar para o estado mais estável.”
 
Representação clássica unidimensional de um sistema com um estado metaestável (1), um estado instável (2) e um estado estável (3). A bolinha é assumida estática em cada um dos pontos indicados. No eixo vertical tem-se a altura, diretamente relacionada à energia potencial do sistema - que corresponde, no caso representado, à energia total do sistema - e na horizontal, a posição espacial da bolinha ao longo da rampa.
  
O caso da cerveja
Vou fazer então agora a comparação desta definição dada pela Wikipedia com o caso em que estamos estudando, que é o súbito congelamento indesejável da cerveja. O que ocorre é que o líquido, em determinadas condições, está a uma temperatura muito próxima do congelamento, ou até mesmo abaixo deste ponto, considerando as condições de pressão a que se encontra. Fazendo uma analogia com a figura acima, podemos dizer que neste caso a cerveja já deveria estar congelada, o que seria o estado correspondente à posição 3 no gráfico - um estado estável para ela. No entanto, ela ainda se encontra no estado correspondente à posição 1 no gráfico - em um estado metaestável - e ainda na forma líquida, bastando que um pequeno balanço, movimento brusco, ou um contato com temperaturas um pouco mais elevadas, faça com que ela adquira energia suficiente para que se eleve à posição 2, ultrapassando a barreira que a impedia de chegar rapidamente à posição 3 (congelada).  

Como evitar?
Os mais experientes apreciadores deste derivado da cevada, já tendo passado por situações como estas, desenvolvem cada um ao seu modo, técnicas que podem evitar este infortúnio. Alguns seguram delicadamente a garrafa, de preferência apenas pela tampinha ou na ponta do gargalo, para em seguida abri-la cuidadosamente. Outros passam antes a mão no fundo da garrafa, o que pelo que li, se tornou apenas um mito que não resulta em nenhum benefício prático. O fato é que, se o primeiro procedimento for adotado, segurando-se apenas na ponta do gargalo, abrindo-a com muito cuidado, e em seguida despejando-a bem lentamente, pode-se obter sucesso, e assim todos poderão tomar a cerveja no ponto limite do gelado, apesar de que os entendidos dizem que desta forma não se consegue distinguir apropriadamente o paladar dos diferentes tipos de cervejas. Eles recomendam que para os que desejam apreciar devidamente esta bebida alcoólica tão popular no mundo, a bebam a uma temperatura entre 6°C e 10°C. 

Efeitos da cerveja
Apesar de eu também apreciar uma cervejinha nos finais de semana, me sinto no dever de alertar as pessoas para os efeitos do abuso do álcool. Sou a favor de que se criem penalidades mais severas aqui no Brasil para os motoristas que são pegos embriagados ao volante, pois nós estamos sujeitos a sermos vítimas de um cidadão irresponsável, que pode acabar com nossas vidas ou de alguma pessoa querida mais próxima de nós. Preparei uma tabelinha com os efeitos do álcool. O problema é que estes efeitos podem variar de pessoa para pessoa, e dependem do organismo de cada indivíduo, e até mesmo do estado psicológico de cada um. Dizem que algumas pessoas, com apenas alguns copos de cerveja, se estiverem cansadas ou mal alimentadas, já podem perder bastante a atenção no trânsito.

Uma garrafa de 600 ml, resultaria em 0,2 a 0,25 gramas de etanol por litro de sangue, com estômago vazio,  e 0,1 a 0,15 gramas por litro de sangue, após uma refeição mista.

Usain Bolt e o tempo de reação

Tempo de reação de uma pessoa é definido como o tempo gasto para que ela reaja a um estímulo, que pode ser visual, sonoro, tátil, ou até mesmo olfativo. Usando-se apenas uma régua e fórmulas da Física, é possível obter o tempo de reação visual de uma pessoa, medindo-se a distância que a régua desce, a partir do momento em que é solta por uma outra pessoa. Veja a experiência nesta figura, obtida da página Ciência à mão, elaborada pelo professor Magno, que pode se acessada clicando aqui

A lenta reação de Usain Bolt.
O jamaicano Usain Bolt (foto), atual detentor do recorde mundial dos 100 metros rasos, com o tempo de 9,58 s, obtido em 2009, no Campeonato Mundial de Berlim, tem um tempo de reação muito ruim quando comparado a outros atletas. Se ele conseguisse melhorar este tempo, associando a outras condições favoráveis, Bolt poderia chegar a uma marca que iria representar o limite máximo possível para um ser humano. Vamos analisar alguns dados referentes a esta questão.
O gráfico a seguir mostra os tempos de reação de 425 velocistas das provas masculinas, durante os Jogos Olímpicos de Pequim, realizados em 2008.
Tempo de reação de 425 velocistas, nas Olimpíadas de Pequim [*]
Repare que a média situa-se aproximadamente na faixa entre 0,15 s e 0,20 s, mas há alguns atletas que conseguiram um tempo excepcional, com menos de 0,15 s.

O tempo total de um velocista, na prova dos 100 metros rasos, pode ser dividido em duas partes: o tempo de reação e o tempo que ele percorre efetivamente a distância correndo.

Tempo total medido  =  tempo de reação + tempo de corrida.

Os atletas são penalizados se eles reagirem aplicando uma pressão de seus pés nos blocos presos ao chão em menos do que um décimo de segundo (0,10 s) após o tiro de largada, o que caracteriza uma falsa largada.
Notadamente, Bolt tem uma das mais lentas reações, comparando com os melhores velocistas. Ele foi o segundo mais lento de todos os finalistas de Pequim, e o terceiro mais lento de Berlim, quando correu em 9,58 s. Os tempos de reação e corrida para todos os finalistas de Berlim estão mostrados na tabela[*]. Note que Chambers chegou junto de Burns, mesmo tendo sido mais lento no tempo de corrida.
O problema que Bolt pode encontrar nas Olimpíadas de Londres, este ano, pode ser parecido com o que encontrou no ano passado, no Campeonato Mundial, quando, na expectativa de largar rapidamente, iniciou a corrida 0,104 s após o tiro de largada, e por causa disso foi desclassificado da prova. Note que se fossem considerados os milésimos de segundo, ele estaria dentro do permitido, o que fez com que algumas pessoas questionassem na época até que ponto a regra neste caso estaria coerente.

Limite de velocidade de um ser humano
Para que Bolt pudesse melhorar ainda mais a marca correspondente ao recorde mundial, o velocista teria que ter a seu favor, a baixa resistência do ar, devido principalmente a dois fatores básicos:
  •  velocidade do vento,
  •  altitude elevada do local da prova,
Estes fatores devem estar dentro do limite máximo permitido para que o recorde possa ser considerado oficial. 
Os atletas podem receber a ajuda da velocidade do vento a favor deles nas provas, desde que esta velocidade não ultrapasse o valor de 2 m/s.
Estima-se que se a  velocidade do vento estivesse em 0,9 m/s a favor de Bolt, ele poderia diminuir em 0,06 s o recorde de Berlim.

Um terceiro fator, além do tempo de reação e da velocidade do vento, e que poderia ajudar o velocista seria a altitude do local da prova. Para que o recorde seja validado, a prova deve acontecer em um local a menos de 1.000 m de altitude, pois como se sabe, a densidade do ar diminui muito em locais elevados, e portanto a resistência do ar também fica bem menor, possibilitando que os atletas encontrem maior facilidade para correr.

Se Bolt pudesse correr em um local com altitude no limite dos 1.000 m, ele poderia reduzir o tempo em 0,03 s ,e se o atleta conseguisse reduzir o seu tempo de reação para possíveis 0,10 s, o recorde passaria a 9,48 s. Associando velocidade do vento a favor e altitude máxima legal permitida, o tempo poderia baixar para 9,45 s.  Na verdade, o que se conclui é que ainda estamos longe de atingir a marca que definiria o limite máximo possível para a velocidade de um ser humano.

Nas Olimpíadas de Londres de 2012, a altitude é praticamente ao nível do mar, e portanto, Bolt teoricamente só poderia quebrar seu recorde se arriscasse uma largada antecipada no limite do permissível, e ainda assim mantivesse ou melhorasse o tempo de corrida que ele conseguiu em Berlim.

Referências:

Titanic: 100 anos depois

No dia 14 de Abril de 1912, um Domingo, às 11:40 da noite, o Titanic chocou-se com um iceberg no mar gelado do Atlântico Norte, afundando em menos de três horas, e matando cerca de três quartos das 2.224 pessoas que estavam a bordo.

Este mês, em que se completa 100 anos da tragédia, o escritor científico Richard Corfield, em um artigo publicado na Physicsworld.com,  nos revela que o acidente pode não ter ocorrido tão somente devido a uma série de erros e acontecimentos que propiciaram uma perfeita sequência de circunstâncias que levariam o navio ao seu destino final, mas também em parte por uma negligência da ciência usada pelos seus construtores, bem como devido a alguns fatores físicos, envolvendo o clima - que afetou as correntes marítimas - e até mesmo uma influência das posições do Sol e da Lua nas marés oceânicas. Eu resolvi fazer aqui um resumo e adaptação do texto de autoria de Corfield, para que os leitores do blog possam compartilhar.

Por que o Titanic afundou tão rapidamente?

Esta é uma das principais perguntas que se faz sobre este acidente. Afinal de contas, se houvesse mais tempo, muitas vidas poderiam ter sido poupadas pela chegada de outros navios de resgate.
O Titanic incorporava o que havia de mais moderno em tecnologia para a época, com o intuito de garantir a sua segurança. Por exemplo, ele foi um dos primeiros a ter divisórias transversais seladas, que cruzavam toda a embarcação perpendicularmente ao eixo longitudinal, com portas operadas eletricamente, e que poderiam ser fechadas a qualquer momento, evitando que a água passasse de um compartimento para outro.
O casco era feito de aço macio (aço com um teor máximo de carbono de 0,35%, manganês 0,7% e 0,5% de silício) e as placas que o compunham eram mantidas unidas por três milhões de rebites de aço e ferro forjado. Apesar de os rebites de aço serem mais fortes do que os de ferro forjado, por razões técnicas e também econômicas eles só foram usados em três quintos do comprimento do navio, na parte central do casco, em que não há curvaturas muito acentuadas, o que veremos com mais detalhes adiante.

Os fatos físicos
Há um aspecto do desastre do Titanic que ficou evidenciado a partir do momento em que o navio bateu no iceberg: Se mais de quatro dos 16 compartimentos em que o espaço interior do Titanic foi dividido fossem inundados, o navio não poderia permanecer à tona. O projetista do Titanic, Thomas Andrews estava a bordo e foi convidado pelo capitão Edward Smith para acompanhá-lo a fim de avaliar os danos causados imediatamente após a colisão. Quando Andrews observou o estrago, alertou Smith de que como havia seis compartimentos rompidos, o Titanic certamente iria afundar.
A ciência por trás do naufrágio do Titanic teve de esperar 90 anos para ser explorada. Seus destroços no fundo do mar foram descobertos pelo submergível Alvin durante uma expedição franco-americana em 1985, na qual se destacava o oceanógrafo e arqueólogo Robert Ballard.

Uma primeira tentativa de explicar a causa do naufrágio rápido do Titanic foi relacionada a testes físicos no aço usado nas placas do navio. Testes preliminares feitos por metalúrgicos no Canadá sugeriram que o aço das placas de seu casco tornava-se frágil a cerca de 32°C. Isto contrasta com os aços modernos, onde a temperatura  de transição dúctil-frágil é de -27°C. No entanto, testes mais sensíveis que foram realizados, e que se aproximam mais das características do impacto do Titanic com o iceberg, sugerem que o aço do chapeamento do navio foi suficiente para dobrar-se, ao invés de fraturar. Em meados de 2000, dois metalúrgicos, Tim Foecke, do Instituto Nacional de Padrões e Tecnologia dos EUA, e, em seguida, Jennifer Hooper McCarty, da Universidade Johns Hopkins, também dos EUA, concentraram a atenção sobre a composição dos rebites do Titanic. Eles combinaram a análise metalúrgica com uma varredura metódica através dos registros da Harland and Wolff, em Belfast, estaleiro onde o Titanic foi construído. Combinando análise física e histórica, eles descobriram que os rebites que fixavam as chapas de aço leve do casco do Titanic, não eram de composição uniforme ou de qualidade, e não tinham sido inseridos de maneira que ficassem igualmente espaçados uns dos outros.
Foto dos rebites usados na construção do Titanic
Especificamente, Foecke e McCarty descobriram que os rebites da parte da frente e os da parte traseira, correspondentes a dois quintos do comprimento total do casco, eram de qualidade inferior quando comparados aos usados na parte do meio do casco, e além disso, tinham sido inseridos manualmente. A razão para isto é que, no momento da construção do Titanic, as prensas hidráulicas usadas para inserir os rebites no meio do casco, e que correspondiam a três quintos do navio, não podiam operar em lugares onde a curvatura do casco era muito acentuada, isto é, nas pontas da embarcação. Além disso,  pode ter ocorrido simplesmente uma redução de custos.
Os rebites de qualidade inferior eram mais baratos, mas tinham uma maior concentração de impurezas, conhecidas como "escória". Esta maior concentração de escória significava que os rebites estariam particularmente vulneráveis às tensões de cisalhamento - justamente o tipo de impacto que foram submetidos naquela noite de Abril de 1912. Testes de laboratório demonstraram que nas cabeças destes rebites podem ter surgido pressões extremas, que teriam permitido que as placas de aço se soltassem no casco, expondo suas câmaras internas ao ataque das águas.

Efeitos das correntes oceânicas
Finalmente, há uma nova reviravolta para a ciência que explica a razão pela qual o Titanic naufragou. Os icebergs do Atlântico Norte são provenientes da costa da Groenlândia, e em seguida circulam no sentido anti-horário através da Corrente do Labrador, antes de atingirem o Atlântico Norte, na costa de Newfoundland. Lá eles são levados pela Corrente do Golfo na direção norte-leste, em sua longa jornada até as margens do noroeste da Europa. Veja no mapa:
Há diferenças significativas de temperaturas e densidades entre essas duas correntes, e quando elas são mais pronunciadas - por exemplo quando a Corrente do Golfo está mais quente do que o normal - os icebergs tendem a ser encurralados em uma linha aproximadamente reta ao longo do eixo da interface limite. Em outras palavras, eles formam uma barreira de gelo. Richard Norris, do Instituto Scripps de Oceanografia, em San Diego, Califórnia, diz: "1912 teve um verão excepcionalmente quente no Caribe, e assim a Corrente do Golfo foi particularmente intensa naquele ano. Oceanograficamente, o resultado disso foi que os icebergs se concentraram muito próximos de onde ocorreu a colisão."

Conspiração dos Astros

Uma nova pesquisa levanta a possibilidade de que as influências celestes conspiraram para condenar o Titanic. Os astrônomos Donald Olson e Russel Doescher da Universidade de San Marcos, no Estado do Texas, publicaram este mês suas descobertas sobre um evento extraordinário em 4 de Janeiro de 1912, três meses antes do desastre. Nesse dia o Sol estava alinhado com a Lua de uma maneira que aumentava sua atração gravitacional, causando marés acima do normal. Isto não é nada excepcional por si só. Mais notável foi que no mesmo dia de 1912, a Lua encontrava-se em sua máxima aproximação da Terra em mais de 1400 anos - em outras palavras, o seu efeito de levantamento das marés estava no auge. Além disso, a Terra tinha alcançado sua posição mais próxima do Sol - o periélio - no dia anterior. À primeira vista, é difícil imaginar como uma maré excepcionalmente alta pode ter afetado o Titanic mais de três meses depois. As vias de navegação do Atlântico norte foram recheadas com icebergs em abril, mas se a maré alta fez com que novos icebergs se soltassem na Groenlândia, em janeiro, eles teriam que viajar extraordinariamente rápido para então chegar até lá. Entretanto, os icebergs podem ter vindo de uma fonte mais próxima. Quando icebergs passam pelo Mar do Labrador, muitas vezes ficam presos em águas rasas e podem levar vários anos para que sejam desalojados e continuem sua jornada em direção ao sul. Escrevendo na edição de abril da Sky & Telescope, Olson e Doesher sugerem que a maré alta em janeiro de 1912 poderia ter dado à muitos icebergs aprisionados, a flutuabilidade que precisavam para se soltarem do subsolo marinho e continuarem as suas viagens rumo ao local do futuro cemitério do Titanic.

Eventos em cascata
Que conclusões podemos tirar dos acontecimentos de 14 de Abril de 1912, um século após o Titanic ter afundado? Primeiro, não há dúvida de que houve falhas na escolha dos materiais para a construção do navio. As placas de aço da época podem ter sido inadequadas para serem usadas naquelas baixas temperaturas, e justamente os rebites que prendiam as chapas que rasparam no iceberg eram de qualidade inferior. Em segundo lugar, vários erros foram cometidos pela tripulação durante o trajeto da viagem: a ausência de um binóculo para observação; a decisão do comandante Smith em manter a velocidade elevada, apesar dos inúmeros avisos de icebergs na região; atraso dos operadores de rádio na obtenção de informações cruciais para os oficiais; e, claro, a falta de botes salva-vidas em quantidade suficiente. Depois, há os de matemática e física da colisão: seis compartimentos inundados quando, se tivessem sido apenas quatro, o navio não teria afundado. E, finalmente, houve a interação complexa de duas correntes de água, bem como a maré extraordinariamente alta três meses antes, que concentrou icebergs formando uma perigosa armadilha. Não foi um único motivo que levou o Titanic ao fundo do Atlântico Norte. Pelo contrário, o navio foi conduzido por uma perfeita tempestade de circunstâncias que conspiraram para a sua desgraça.
Esta cadeia é familiar para aqueles que estudam desastres - ela é chamada de "cascata de eventos". O melhor planejamento do mundo não é capaz de eliminar todos  os fatores que podem impactar negativamente no projeto e operação de uma máquina complicada, como um enorme navio de passageiros. Eventualmente, e, ocasionalmente, estes fatores individuais podem se combinar em uma "cascata de eventos" tornando-a demasiadamente longa e complicada o suficiente para que a tragédia não possa ser evitada.

A colisão
O diretor do filme Titanic, James Cameron, que é bacharel em Física pela Universidade da Califórnia,  foi muito fiel ao demonstrar como o acidente ocorreu. Na cena da colisão, é interessante prestar atenção particularmente no instante em que é dado o comando para que as hélices invertam o sentido de rotação. Nota-se que uma delas (justamente a do meio) permanece apenas em "marcha lenta", e não inverte o sentido. Esta hélice central não poderia mesmo ter o seu sentido invertido, pois era acionada por uma turbina de baixa pressão, do tipo Parson. Cameron quis mostrar nesta cena, justamente uma limitação no sistema de propulsão, em caso de emergência, e que prejudicou a diminuição da velocidade do navio naquele momento. No entanto, o leme que dá direção ao navio teria sido mais eficaz se o fluxo laminar de água, criado pela hélice central, não tivesse sido interrompido com sua parada. Isto pode ter diminuído severamente a capacidade do navio virar. Se o primeiro oficial Murdoch não tivesse dado a ordem para a sala de máquinas, para reduzir e, em seguida, reverter o impulso, talvez o navio tivesse virado a tempo de evitar a colisão.

Fontes:
http://physicsworld.com/cws/article/print/2012/apr/02/the-perfect-stor
science20.com/lawsphysicsdidnotgetmemoabouttitanicbeingunsinkable

Exorcizando o Demônio de Maxwell

A perda de calor produzido nos fios elétricos ou nos freios de carros é bem conhecida. O que ainda não estamos familiarizados é com a perda de calor que ocorre ao apagarmos uma memória digital. Agora, um experimento inspirado em um demônio metafórico, que ficou conhecido na física como Demônio de Maxwell, conseguiu medir este calor fundamental, que poderá um dia limitar a potência dos computadores.
Imagem no infravermelho, mostrando o calor liberado pelos computadores.
O Demônio de Maxwell
Em 1867, o físico James Clerk Maxwell descreveu a seguinte experiência imaginária:

..." Se nós imaginássemos um ser, que tivesse uma capacidade tão apurada, de tal forma que ele pudesse acompanhar o caminho de cada molécula, e cujos atributos fossem essencialmente finitos como os nossos, tal ser teria a habilidade de fazer o que é impossível para nós. Sabemos que as moléculas, em um recipiente cheio de ar à temperatura uniforme, se movem com velocidades que não são uniformes, embora a velocidade média de um grande número delas, arbitrariamente selecionadas, é quase exatamente uniforme. Agora vamos supor que tal recipiente fosse dividido em duas partes, A e B, com uma divisão na qual houvesse uma estreita passagem, e que aquele ser, que pudesse ver as moléculas individualmente, abrisse e fechasse esta passagem, a fim de permitir que somente as moléculas mais rápidas passassem de A para B, e apenas as mais lentas passassem de B para A. Ele iria, desse modo, sem realizar trabalho, elevar a temperatura de B e abaixar a de A, em contradição com a segunda lei da termodinâmica"...

Este ser, finito e imaginário, que controlaria a abertura e fechamento da passagem entre A e B,  foi descrito pela primeira vez como o Demônio de Maxwell, pelo físico conhecido como Lord Kelvin, em um artigo de 1874, publicado na revista Nature, e tinha a conotação de um ser destinado à mediação, e não o significado malevolente da palavra. 
Figura esquemática, mostrando a atuação do Demônio de Maxwell.

Veja na figura acima, uma representação esquemática do experimento. As bolinhas vermelhas representam as moléculas mais quentes (mais rápidas), e as bolinhas azuis representam as mais frias (mais lentas).

Críticas e Desenvolvimento
O Objetivo de Maxwell era mostrar que a 2ª Lei da Termodinâmica tem somente uma certeza estatística, e que poderia ser violada em flutuações momentâneas. Muitos físicos, no entanto, têm mostrado através de cálculos, que esta lei não é violada, se uma completa análise for feita considerando-se todo o sistema, incluindo-se o demônio.
Em 1961, o físico Rolf Landauer, que trabalhava na IBM, propôs que a chave para o enigma estava na memória do demônio. Para que a criatura reunisse informações sobre o movimento das moléculas, ela precisaria apagar uma memória anterior. Landauer sugeriu que o processo de apagamento dissiparia calor. Este calor gasto poderia equilibrar o trabalho útil adquirido pelo demônio e garantir que, de fato, não houvesse diminuição da entropia, a grandeza física que indica a medida da "desordem" de um sistema.

Exorcizando o Demônio
Quando Landauer propôs que o ato de apagar a memória dissiparia calor, nem todos concordaram com sua explanação. Agora, recentemente, este artigo da New Scientist desta semana, nos informa que o físico Eric Lutz , da Universidade de Augsburg, na Alemanha, e seus colegas, demostraram que há de fato uma quantidade mínima de calor produzido por bit de dados apagados. Este assim chamado limite de Landauer é a prova de que o Demônio não se alimenta de graça. "Nós exorcizamos o Demônio", diz Lutz.
Os "exorcistas" utilizaram um laser que podia definir a posição de um pequeno grânulo de vidro. O laser era focado para dar aos grânulos duas posições estáveis, esquerda e direita, ou 0 e 1. A memória resultante de um bit pode armazenar um 0 ou 1, mas as memórias são sempre apagadas pelo restabelecimento delas de volta ao 0. A equipe descobriu que o calor gerado ao apagar um bit nunca é inferior ao limite de Landauer.

Isto tem implicações profundas para a indústria de microchips, diz Lutz. Atualmente os chips produzem aproximadamente 1000 vezes mais calor por bit, devido à resistência em seus fios. Os fabricantes de chips estão trabalhando nisso, mas vai chegar um ponto em que não se poderá mais reduzi-lo. "A tecnologia baseada no Silício prevê que este limite de Landauer poderá ser atingido daqui a 20 ou 30 anos", diz Lutz. Aí então, a capacidade de compactar cada vez mais bits em um único chip dependerá da maneira que deverá ser encontrada para resfriá-los mais eficazmente, assim que eles começarem a brilhar com o calor fundamental do esquecimento.

Fontes:
Newscientist.com - physics "demon" reveals fundamental heat of forgetting
http://en.wikipedia.org/wiki/Maxwell%27s_demon

O vício das baterias de celular

Na semana passada, durante a aula, um aluno me fez uma pergunta sobre as baterias dos celulares, que me deu uma ideia para elaborar este post. O assunto era eletrodinâmica.
Um dos primeiros conceitos que se deve ter sobre esta matéria refere-se à corrente elétrica. Eu explico nas aulas que as duas palavras, correnteza e corrente, têm significados semelhantes na língua portuguesa, e ambas dão a ideia de um fluxo. Correnteza refere-se a um fluxo de água, que pode ser medido, por exemplo, em m³/s (metros cúbicos por segundo). No caso da intensidade de corrente elétrica (i) , o fluxo é igual à quantidade de carga elétrica (Q), correspondente aos elétrons que se movimentam através de um fio condutor metálico, por unidade de tempo (Δt). Assim, temos:
                                 
A unidade de medida da carga elétrica, no Sistema Internacional de Unidades (SI) é o Coulomb (C) , e do tempo é o segundo (s). corrente elétrica, será, portanto, medida em C/s (Coulombs por segundo). A esta unidade deu-se o nome de Ampère (A).

Carga elétrica das baterias
Da fórmula acima, se quisermos determinar a carga elétrica, conhecendo-se a corrente e o tempo, podemos usar:
Em todas as baterias dos celulares modernos, como a da foto, podemos encontrar indicações da carga elétrica máxima que elas podem armazenar quando estão totalmente carregadas. Acontece que nestes casos, por uma questão prática, não se usa a unidade de carga do SI. Ao invés disso, pelo fato de a corrente ser indicada em mA (miliampères), e o tempo em horas (h), a carga é dada em mAh (miliampères-hora). 

Baterias viciam?
Depois que eu havia passado toda a teoria na aula, no momento em que eu falava sobre esta indicação da carga das baterias, um dos alunos me perguntou se é verdade que as baterias "viciam" quando são carregadas apenas parcialmente. Eu fiquei na dúvida, pois já tinha ouvido falar sobre isso, quando adquiri meu primeiro telefone celular a alguns anos atrás, mas disse que tinha dúvidas sobre até que ponto seria verdade ou apenas mais um mito.
Um outro aluno, que trabalha no setor de informática, se manifestou e disse que achava que realmente as baterias "viciavam". Além disso, ninguém mais arriscou dar um palpite, o que me fez concluir que aparentemente a maioria da classe também não tinha uma opinião formada sobre o assunto. Eu disse então que iria procurar na internet para ver se achava alguma coisa.

O melhor site que encontrei foi este, e através dele pude obter precisas informações. Eis um resumo delas:
  • Os primeiros aparelhos telemóveis, como são chamados pelos nossos amigos lusitanos, usavam baterias de Ni-Cd (Níquel-Cádmio) que realmente "viciavam", isto é, se você as carregasse apenas parcialmente, elas perdiam progressivamente a capacidade de armazenar a quantidade de carga para a qual foram inicialmente projetadas.
  • A maioria dos aparelhos fabricados de 4 anos pra cá usam baterias de íon-Lítio (Li-ion) que não "viciam", e podem armazenar uma carga até 3 vezes maior do que as antigas, de Ni-Cd. Isto quer dizer que podem ser carregadas parcialmente sem perda de eficiência.
  • Os carregadores atuais possuem um sistema de segurança que faz com que eles desliguem assim que a bateria esteja totalmente carregada, evitando superaquecimento.

Apesar de muitas pessoas já terem conhecimento destes fatos, resolvi divulgar aqui para os leitores do INFRAVERMELHO.

Fonte:
http://www.tecmundo.com.br/notebook/2827-baterias-tudo-o-que-voce-precisa-saber-sobre-elas.htm