Sejam bem-vindos!

RELAXE, APROVEITE E DELEITE-SE NESTE BLOG.

terça-feira, 26 de abril de 2011

Introdução á nanotecnologia. O que é a nanotecnologia?

"Os princípios da física, pelo que eu posso perceber, não falam contra a possibilidade de manipular as coisas átomo por átomo. Não seria uma violação da lei ; é algo que, teóricamente, pode ser feito mas que, na prática, nunca foi levado a cabo porque somos grandes de mais" - Richard Feynman.

O que é a nanotecnologia? Por qué é precisso um uso responsável?


A nanotecnologia é a capacidade potencial de criar coisas a partir do mais pequeno, usando as técnicas e ferramentas que estam a ser desenvolvidas nos dias de hoje para colocar cada átomo e cada molécula no lugar desejado. Se conseguirmos este sistema de engenheria molecular, o resultado será uma nova revolução industrial. Além disso, teria também importantes consequências económicas, sociais, ambientais e militares.

Aquando Eric Drexler (abaixo)

popularizou a palavra "nanotecnologia", nos anos 80, referia-se à construção de máquinas à escala molecular, de apenas uns nanómetros de tamanho: motores, braços de robô, inclusive computadores inteiros, muito mais pequenos do que uma célula. Drexler passou os seguintes dez anos a descrever e analisar esses incríveis aparelhos e a dar resposta às acusações de ficção científica. No entanto, a tecnologia convencional estáva a desenvolver a capacidade de criar estructuras simples à escala reduzida. Conforme a nanotecnología se converteu num conceito aceite, o significado da palavra mudou para abranger os tipos mais simples de tecnologia à escala nanométrica. A Iniciativa Nacional de Nanotecnologia dos Estados Unidos foi criada para financiar esse tipo de nanotecnologia: a sua definição inclui qualquer elemento inferior a 100 nanómetros com propriedades novas.

Fála-se com frequência da nanotecnologia como uma "tecnologia de objectivos gerais". Isso deve-se ao facto de que na súa fase madura terá um impacto significativo na maioria de industrias e áreas da sociedade. Melhorará os sistemas de contrucção e possibilitará a fabricação de productos mais duráveis, limpos, seguros e inteligentes, tanto para a casa, como para as comunicações, os transportes, a agricultura e a industria em geral.
Imagine-se dispositivos médicos com capacidade para circular na corrente sanguínea e detectar e reparar células cancerígenas antes de que se estendam.

Imagine-se o que seria "encolher" todo o conteúdo da Biblioteca Nacional num dispositivo do tamanho de um cubo de açúcar. Ou então desenvolver materiais dez vezes mais resistentes que o aço e com apenas uma fracção do peso. - U.S. National Science Foundation

Tal como já aconteceu com a electricidade ou os computadores, a nanotecnologia melhorará em grande medida quase todas as facetas da vida diária. Como tecnologia de objetivos gerais, porém, teria um uso duplo, ou seja, teria múltiplas aplicações comerciais e também militares : seria possível produzir, por exemplo, armas e aparelhos de vigilância muito mais potentes . A nanotecnologia representa, portanto, incríveis vantagens para a humanidade mas também graves riscos.

A base da nanotecnologia é o facto de que não só oferece produtos aperfeiçoados como também uma ampla variedade de melhores meios de produção. Um computador pode fazer cópias de ficheiros de dados; basicamente tantas cópias como quisermos a um custo muito reduzido ou mesmo inexistente. Pode ser apenas uma questão de tempo até que a fabricação de produtos se torne tão barata como a cópia de ficheiros. Aquí reside a verdadeira importância da nanotecnologia, por isso é vista às vezes como " a próxima revolução industrial ".

No minha opinião, a revolução nanotecnológica tem o potencial de mudar América numa escala igual, senão maior, do que a revolução informática. - U.S. Senator Ron Wyden (D-Ore.)



Seria possível condensar o poder da nanotecnologia num aparelho, na aparência simples, chamado nanofábrica, cheio de minúsculos processadores químicos, computadores e robôs e que poderia ir colocado no seu computador pessoal. Os produtos seriam fabricados directamente a partir dos projectos e, portanto, tratar-se-ia de um processo rápido, limpo e barato.

A nanotecnologia não só permitiria a fabricação de produtos de alta qualidade a um custo muito reduzido como também a criação de novas nanofábricas com o mesmo custo e velocidade. É mesmo por essa capacidade única de auto-reprodução (para além da biologia, evidentemente) pelo que a nanotecnologia se denomina " tecnologia exponencial ". Refere-se a um sistema de fabricação que, por sua vez, seria capaz de produzir mais sistemas de fabricação-fábricas que produzem outras fábricas- de maneira rápida, barata e limpa. Os meios de produção poder-se-iam reproduzir exponencialmente. Portanto, em apenas umas semanas, poderiamos passar de um reduzido número de nanofábricas para vários bilhões. Constitui, então, um tipo de tecnologia revolucionário, transformador, potente mas também com muitos riscos - ou vantagens - potenciais.

Quanto tempo demorará a ser uma realidade? Os analistas mais prudentes falam num período de 20 ou 30 anos a partir de agora, ou ainda mais tarde. No entanto, o CRN receia que possa acontecer muito antes, provávelmente durante a próxima década. Isto é devido ao rápido avanço das novas tecnologias como, por ejemplo, no campo da óptica, nanolitografía, mecânoquímica e criação de protótipos em 3D . Caso chegar tão rápido, talvez não estejamos prontos e poderia ter graves consequências.

Julgamos que não é cedo demais para começar a colocar uma série de questões e abordar os seguintes temas:

    • A quem pertencerá a tecnologia?
    • Estará altamente restringida, ou amplamente disponível?
    • Cómo afectará ao fosso entre ricos e pobres?
    • Cómo poderão ser controladas as armas perigosas e prevenir corridas armamentistas?

Muitas destas questões já foram colocadas há mais de uma década e ainda não receberam resposta. Caso não abordarmos essas questões de maneira deliberada, as respostas chegarão sozinhas e podem apanhar-nos de surpresa; e a surpresa provávelmente não seja agradável.

É difícil antecipar com certeza quanto tempo tardará esta tecnologia em madurar, em parte porque poderia acontecer que já estejam a ser desenvolvidos dende há anos programas industriais ou militares clandestinos sem o nosso conhecimento (especialmente em países que não têm sociedades abertas).

Não podemos garantir que a nanotecnologia não será desenvolvida plenamente nos próximos dez anos ou inclusive cinco anos. Embora poderia levar mais tempo, a prudência -e possívelmente a nossa sobrêvivencia - exige que pensemos no cenário mais antecipado e que, portanto, nos preparemos já.


fonte: http://www.euroresidentes.com/futuro/nanotecnologia/nanotecnologia_responsavel/introducao_nanotecnologia.htm

terça-feira, 19 de abril de 2011

terça-feira, 12 de abril de 2011

Exercícios de Leis de Newton

01. A respeito do conceito da inércia, assinale a frase correta:

a) Um ponto material tende a manter sua aceleração por inércia.

b) Uma partícula pode ter movimento circular e uniforme, por inércia.

c) O único estado cinemático que pode ser mantido por inércia é o repouso.

d) Não pode existir movimento perpétuo, sem a presença de uma força.

e) A velocidade vetorial de uma partícula tende a se manter por inércia; a força é usada para alterar a velocidade e não para mantê-la.

02. (OSEC) O Princípio da Inércia afirma:

a) Todo ponto material isolado ou está em repouso ou em movimento retilíneo em relação a qualquer referencial.

b) Todo ponto material isolado ou está em repouso ou em movimento retilíneo e uniforme em relação a qualquer referencial.

c) Existem referenciais privilegiados em relação aos quais todo ponto material isolado tem velocidade vetorial nula.

d) Existem referenciais privilegiados em relação aos quais todo ponto material isolado tem velocidade vetorial constante.

e) Existem referenciais privilegiados em relação aos quais todo ponto material isolado tem velocidade escalar nula.

03. Um homem, no interior de um elevador, está jogando dardos em um alvo fixado na parede interna do elevador. Inicialmente, o elevador está em repouso, em relação à Terra, suposta um Sistema Inercial e o homem acerta os dardos bem no centro do alvo. Em seguida, o elevador está em movimento retilíneo e uniforme em relação à Terra. Se o homem quiser continuar acertando o centro do alvo, como deverá fazer a mira, em relação ao seu procedimento com o elevador parado?

a) mais alto;

b) mais baixo;

c) mais alto se o elevador está subindo, mais baixo se descendo;

d) mais baixo se o elevador estiver descendo e mais alto se descendo;

e) exatamente do mesmo modo.

04. (UNESP) As estatísticas indicam que o uso do cinto de segurança deve ser obrigatório para prevenir lesões mais graves em motoristas e passageiros no caso de acidentes. Fisicamente, a função do cinto está relacionada com a:

a) Primeira Lei de Newton;

b) Lei de Snell;

c) Lei de Ampère;

d) Lei de Ohm;

e) Primeira Lei de Kepler.

05. (ITA) As leis da Mecânica Newtoniana são formuladas em relação a um princípio fundamental, denominado:

a) Princípio da Inércia;

b) Princípio da Conservação da Energia Mecânica;

c) Princípio da Conservação da Quantidade de Movimento;

d) Princípio da Conservação do Momento Angular;

e) Princípio da Relatividade: "Todos os referenciais inerciais são equivalentes, para a formulação da Mecânica Newtoniana".

06. (FATEC) Uma bola de massa 0,40kg é lançada contra uma parede. Ao atingi-la, a bola está se movendo horizontalmente para a direita com velocidade escalar de -15m/s, sendo rebatida horizontalmente para a esquerda com velocidade escalar de 10m/s. Se o tempo de colisão é de 5,0 . 10-3s, a força média sobre a bola tem intensidade em newtons:

a) 20

b) 1,0 . 102

c) 2,0 . 102

d) 1,0 . 102

e) 2,0 . 103

07. (FUND. CARLOS CHAGAS) Uma folha de papel está sobre a mesa do professor. Sobre ela está um apagador. Dando-se, com violência, um puxão horizontal na folha de papel, esta se movimenta e o apagador fica sobre a mesa. Uma explicação aceitável para a ocorrência é:

a) nenhuma força atuou sobre o apagador;

b) a resistência do ar impediu o movimento do apagador;

c) a força de atrito entre o apagador e o papel só atua em movimentos lentos;

d) a força de atrito entre o papel e a mesa é muito intensa;

e) a força de atrito entre o apagador e o papel provoca, no apagador, uma aceleração muito inferior à da folha de papel.

08. Um ônibus percorre um trecho de estrada retilínea horizontal com aceleração constante. no interior do ônibus há uma pedra suspensa por um fio ideal preso ao teto. Um passageiro observa esse fio e verifica que ele não está mais na vertical. Com relação a este fato podemos afirmar que:

a) O peso é a única força que age sobre a pedra.

b) Se a massa da pedra fosse maior, a inclinação do fio seria menor.

c) Pela inclinação do fio podemos determinar a velocidade do ônibus.

d) Se a velocidade do ônibus fosse constante, o fio estaria na vertical.

e) A força transmitida pelo fio ao teto é menor que o peso do corpo.

09. (UFPE) Um elevador partindo do repouso tem a seguinte seqüência de movimentos:

1) De 0 a t, desce com movimento uniformemente acelerado.

2) De t1 a t2 desce com movimento uniforme.

3) De t2 a t3 desce com movimento uniformemente retardado até parar.

Um homem, dentro do elevador, está sobre uma balança calibrada em newtons.

O peso do homem tem intensidade P e a indicação da balança, nos três intervalos citados, assume os valores F1, F2 e F3 respectivamente:

Assinale a opção correta:

a) F1 = F2 = F3 = P

b) F1 < P; F2 = P; F3 < P

c) F1 < P; F2 = P; F3 > P

d) F1 > P; F2 = P; F3 < P

e) F1 > P; F2 = P; F3 > P

Termopar

Termopar
Os termopares são dispositivos elétricos com larga aplicação para medição de temperatura. São baratos, podem medir uma vasta gama de temperaturas e podem ser substituídos sem introduzir erros relevantes. A sua maior limitação é a exatidão, uma vez que erros inferiores a 1 °C são difíceis de obter. Uma termopilha é o nome que se dá a um conjunto de termopares ligados em série. Um exemplo da aplicação de termopares e termopilhas pode ser a medição de temperaturas em linhas de gás.

Como Funciona
Em 1822, o físico Thomas Seebeck descobriu (acidentalmente) que a junção de dois metais gera uma tensão eléctrica em função da temperatura. O funcionamento dos termopares é baseado neste fenómeno, que é conhecido como Efeito de Seebeck.Embora praticamente se possa construir um termopar com qualquer combinação de dois metais, utilizam-se apenas algumas combinações normalizadas, isto porque possuem tensões de saída previsíveis e suportam grandes gamas de temperaturas.
Existem tabelas normalizadas que indicam a tensão produzida por cada tipo de termopar para todos os valores de temperatura que suporta, por exemplo, o termopar tipo K com uma temperatura de 300 °C irá produzir 12,2 mV. Contudo, não basta ligar um voltímetro ao termopar e registar o valor da tensão produzida, uma vez que ao ligarmos o voltímetro estamos a criar uma segunda (e indesejada) junção no termopar. Para se fazerem medições exactas devemos compensar este efeito, o que é feito recorrendo a uma técnica conhecida por compensação por junção fria.
Caso esteja se perguntando porque é que ligando um voltímetro a um termopar não se geram várias junções adicionais (ligações ao termopar, ligações ao aparelho de medida, ligações dentro do próprio aparelho, etc...), a resposta advém da lei conhecida como lei dos metais intermédios, que afirma que ao inserirmos um terceiro metal entre os dois metais de uma junção de um termopar, basta que as duas novas junções criadas com a inserção do terceiro metal estejam à mesma temperatura para que não se manifeste qualquer modificação na saída do termopar. Esta lei é também importante na própria construção das junções do termopar, uma vez que assim se garante que ao soldar os dois metais a solda não irá afectar a medição. Contudo, na prática as junções dos termopares podem ser construídas soldando os materiais ou por aperto dos mesmos.
Todas as tabelas normalizadas dão os valores da tensão de saída do termopar considerando que a segunda junção do termopar (a junção fria) é mantida a exactamente zero graus Celsius. Antigamente isto conseguia-se conservando a junção em gelo fundente (daqui o termo compensação por junção fria). Contudo a manutenção do gelo nas condições necessárias não era fácil, logo optou-se por medir a temperatura da junção fria e compensar a diferença para os zero graus Celsius.
Tipicamente a temperatura da junção fria é medida por um termístor de precisão. A leitura desta segunda temperatura, em conjunto com a leitura do valor da tensão do próprio termopar é utilizada para o cálculo da temperatura verificada na extremidade do termopar. Em aplicações menos exigentes, a compensaçao da junção fria é feita por um semicondutor sensor de temperatura, combinando o sinal do semicondutor com o do termopar.
É importante a compreensão da compensação por junção fria; qualquer erro na medição da temperatura da junção fria irá ocasionar igualmente erros na medição da temperatura da extremidade do termopar.

Linearização
O instrumento de medida tem de ter a capacidade de lidar com a compensação da junção fria, bem como com o fato de a saída do termopar não ser linear. A relação entre a temperatura e a tensão de saída é uma equação polinomial de 5ª a 9ª ordem dependendo do tipo do termopar. Alguns instrumentos de alta precisão guardam em memória os valores das tabelas dos termopares para eliminar esta fonte de erro.

Termopares
Os termopares disponíveis no mercado têm os mais diversos formatos, desde os modelos com a junção a descoberto que têm baixo custo e proporcionam tempos de resposta rápidos, até aos modelos que estão incorporados em sondas. Está disponível uma grande variedade de sondas, adequadas para diferentes aplicações (industriais, científicas, investigação médica, etc...).
Quando se procede à escolha de um termopar deve-se ponderar qual o mais adequado para a aplicação desejada, segundo as características de cada tipo de termopar, tais como a gama de temperaturas suportada, a exatidão e a confiabilidade das leituras, entre outras. Em seguida fornece-se o nosso guia (com o seu quê de subjectivo) para os diferentes tipos de termopares.

Tipo K (Cromel / Alumel)

O termopar tipo K é um termopar de uso genérico. Tem um baixo custo e, devido à sua popularidade estão disponíveis variadas sondas. Cobrem temperaturas entre os -200 e os 1200 °C, tendo uma sensibilidade de aproximadamente 41µV/°C.
• Termoelemento positivo (KP): Ni90%Cr10% (Cromel)
• Termoelemento negativo (KN): Ni95%Mn2%Si1%Al2% (Alumel)
• Faixa de utilização: -270 °C a 1200 °C
• f.e.m. produzida: -6,458 mV a 48,838 mV

Tipo E (Cromel / Constantan)

Este termopar tem uma elevada sensibilidade (68 µV/°C) que o torna adequado para baixas temperaturas.
• Termoelemento positivo (EP): Ni90%Cr10% (Cromel)
• Termoelemento negativo (EN): Cu55%Ni45% (Constantan)
• Faixa de utilização: -270 °C a 1000 °C
• f.e.m. produzida: -9,835 mV a 76,373 mV

Tipo J (Ferro / Constantan)

A sua gama limitada (-40 a 750 °C) é a responsável pela sua menor popularidade em relação ao tipo K. Aplica-se sobretudo com equipamento já velho que não é compatível com termopares mais ‘modernos’. A utilização do tipo J acima dos 760 °C leva a uma transformação magnética abrupta que lhe estraga a calibração.
• Termoelemento positivo (JP): Fe99,5%
• Termoelemento negativo (JN): Cu55%Ni45% (Constantan)
• Faixa de utilização: -210 °C a 760 °C
• f.e.m. produzida: -8,096 mV a 42,919 mV

Tipo N (Nicrosil / Nisil)
A sua elevada estabilidade e resistência à oxidação a altas temperaturas tornam o tipo N adequado para medições a temperaturas elevadas, sem recorrer aos termopares que incorporam platina na sua constituição (tipos B, R e S). Foi desenhado para ser uma “evolução” do tipo K.

Tipo B (Platina / Ródio-Platina)
Os termopares tipo B, R e S apresentam características semelhantes. São dos termopares mais estáveis, contudo, devido à sua reduzida sensibilidade (da ordem dos 10 µV/°C), utilizam-se apenas para medir temperaturas acima dos 300 °C. Note-se que devido à reduzida sensibilidade destes termopares, a sua resolução de medida é também reduzida.
Adequado para medição de temperaturas até aos 1800 °C.
Contra aquilo que é habitual nos outros termopares, este origina a mesma tensão na saída a 0 e a 42 °C, o que impede a sua utilização abaixo dos 50 °C. Em compensação, utiliza cabos de extensão de cobre comum desde que a sua conexão com o termopar esteja neste intervalo (0 °C a 50 °C). Os demais termopares necessitam de cabos de ligação com o mesmo material do termopar, sob o risco de formarem com o cobre um "outro termopar", se a conexão estiver a temperatura diferente do instrumento de processamento do sinal (p.ex. transmissor)
• Termoelemento positivo (BP): Pt70,4%Rh29,6% (Ródio-Platina)
• Termoelemento negativo (BN): Pt93,9%Rh6,1% (Ródio-Platina)
• Faixa de utilização: 0 °C a 1820 °C
• f.e.m. produzida: 0,000 mV a 13,820 mV

Tipo R (Platina / Ródio-Platina)
Adequado para medição de temperaturas até aos 1600 °C. Reduzida sensibilidade (10 µV/°C) e custo elevado.
• Termoelemento positivo (RP): Pt87%Rh13% (Ródio-Platina)
• Termoelemento negativo (RN): Pt100%
• Faixa de utilização: -50 °C a 1768 °C
• f.e.m. produzida: -0,226 mV a 21,101 mV

Tipo S (Platina / Ródio-Platina)
Adequado para medição de temperaturas até aos 1600 °C. Reduzida sensibilidade (10 µV/°C), elevada estabilidade e custo elevado.
• Termoelemento positivo (SP): Pt90%Rh10% (Ródio-Platina)
• Termoelemento negativo (SN): Pt100%
• Faixa de utilização: -50 °C a 1768 °C
• f.e.m. produzida: -0,236 mV a 18,693 mV

Tipo T (Cobre / Constantan)
É dos termopares mais indicados para medições na gama dos -270 °C a 400 °C.
• Termoelemento positivo (TP): Cu100%
• Termoelemento negativo (TN): Cu55%Ni45% (Constantan)
• Faixa de utilização: -270 °C a 400 °C
• f.e.m. produzida: -6,258 mV a 20,872 mV
Note-se que a escolha de um termopar deve assegurar que o equipamento de medida não limita a gama de temperaturas que consegue ser medida.

Efeito Joule


Quando a corrente elétrica percorre um condutor como, por exemplo, um metal, faz com que esse se aqueça, transformando, dessa forma, a energia elétrica em energia térmica. Esse fenômeno de conversão de energia nos condutores, energia elétrica em térmica, foi estudado e descoberto no século XIX pelo cientista e físico britânico James P. Joule. É em homenagem a ele que esse efeito tem o seu nome, efeito joule.

O efeito joule ocorre em decorrência dos inúmeros choques que ocorrem entre os elétrons que formam a corrente elétrica e os átomos ou moléculas que fazem parte da composição do material condutor. Com os choques os elétrons adquirem energia cinética e parte dela é transferida para os átomos do condutor, fazendo com que esses se agitem mais com esse acréscimo de energia. O aumento no grau de agitação das partículas ocorre em conseqüência do aumento da temperatura, e é através desse aumento de temperatura que aparece a incandescência, que nada mais é que a luz emitida em virtude do aquecimento.

Esse fenômeno tem larga utilização no cotidiano como, por exemplo, em equipamentos de aquecimento como o ferro elétrico, o chuveiro elétrico, a prancha alisadora, o forno elétrico, etc. todos esses equipamentos são compostos, basicamente, por uma resistência que quando percorrida pela corrente elétrica é aquecida, transformando energia elétrica em térmica, ou seja, calor. Outra aplicação prática do efeito joule no cotidiano está nas lâmpadas incandescentes. Criada no século XIX pelo inventor Thomas Edison, ela possui em seu interior um filamento de tungstênio, um metal com ponto de ebulição muito elevado, que ao ser percorrido pela corrente elétrica se aquece, podendo chegar a temperaturas de 2500 °C, tornado-se incandescentes e emitindo luz.

Na construção de fusíveis o efeito joule também é aplicado. Fusíveis são dispositivos constituídos por um filamento metálico de baixo ponto de fusão. Dessa forma, quando a corrente elétrica que passa pelo fusível ultrapassa um determinado valor, o calor que é originado pelo efeito joule provoca a fusão do filamento, interrompendo a corrente elétrica. Eles são utilizados como limitadores de corrente elétrica que passa em um circuito elétrico. São encontrados em veículos automotivos, residências, aparelhos elétricos, etc.

fonte: http://www.mundoeducacao.com.br/fisica/o-efeito-joule-suas-aplicacoes.htm

quinta-feira, 7 de abril de 2011

Heinrich Rudolf Hertz



Heinrich Rudolf Hertz nasceu em Hamburgo, em 22 de fevereiro de 1857, filho de renomado advogado. O jovem Hertz não foi nenhum menino prodígio; era um jovem como muitos outros, um pouco mais sério, talvez. Durante seus estudos preliminares, em um colégio da cidade natal, seu maior interesse se voltava para as oficinas da escola, onde passava a maior parte do tempo livre. Ali trabalhava no torno, construindo e montando os mais diferentes mecanismos, sobretudo instrumentos ópticos. Esse gosto característico pela construção se manteve durante toda sua vida, mesmo quando se dedicou à intensa pesquisa física: sempre construiu os instrumentos e aparelhos de que necessitava para seu trabalho.
Foi o interesse pelas construções mecânicas que, ao término do colégio, o orientou para uma faculdade de engenharia. Freqüentou-a por dois anos, mas o desejo de realizar pesquisa pura se tornou mais forte que sua inclinação para a engenharia. Passou, então, em 1878, aos estudos de física, na Universidade de Berlim.
Sua seriedade e empenho nos estudos logo foram notados por von Helmholtz, que era seu professor. E quando este propôs aos seus alunos, em 1880, um trabalho versando sobre uma questão de eletrodinâmica, de escolha individual, Hertz apresentou uma pesquisa original, intitulada "Sobre a Energia Cinética da Eletricidade", que foi merecidamente a vencedora.
Ainda nesse ano de 1880, também ano de sua diplomação, Hertz tornou-se assistente de von Helmholtz e, durante os três anos que passou no instituto berlinense, ocupou-se com pesquisas experimentais sobre a elasticidade dos gases e sobre as descargas elétricas através destes. Em 1883, obteve a docência na Universidade de Kiel, onde começou a estudar a eletrodinâmica de Maxwell. Este havia previsto teoricamente a existência das ondas eletromagnéticas, mas o fato ainda não havia recebido confirmação experimental.
Os estudos de eletrodinâmica o fascinavam, e ele imaginava como poderia reproduzir praticamente os fenômenos tão claros na teoria. Uma de suas descobertas fundamentais foi realizada diante dos estudantes, durante uma aula demonstrativa, no outono de 1886. Nessa ocasião, Hertz encontrava-se em Karlsruhe, onde era professor da Escola Politécnica desde o ano anterior. Nesse mesmo ano casou-se com Elizabeth Doll, filha de um professor de Karlsruhe, e com ela teve duas filhas.
Durante uma aula, na qual se utilizava, para demonstração, de duas bobinas ligadas a faiscadores, notou que, enquanto numa das bobinas deflagrava uma faísca, na segunda era deflagrada outra. Esta, porém, era muito pequena, pouco luminosa, e seu ruído era coberto pelo da primeira, muito mais forte. Foi desse modo que Hertz, quase por acaso, descobriu o importante fenômeno das centelhas secundárias.
O jovem cientista compreendeu que aquelas faíscas elétricas eram conseqüência de fenômenos eletrodinâmicos que se processavam nas proximidades de circuitos oscilantes com capacitância e auto-indução mínimas. Para comprovar suas idéias, repetiu, seguidamente, as experiências. Logo percebeu que tinha diante de si um campo novo: o da criação das ondas eletromagnéticas e sua propagação à distância.



Inicialmente, conduziu experiências com um circuito constituído por uma garrafa de Leyden como condensador, uma bobina como indutância e um faiscador. Constatou, então, que a cada faísca que se produzia aparecia uma correspondente muito intensa em uma outra bobina, colocada em frente da primeira. O valor da capacitância era pequeno (a garrafa de Leyden possui pequena capacitância e forte resistência às altas tensões), mas o efeito era notável.



Hertz não abandonou esse campo de pesquisas. Com espírito metódico, continuou suas experiências por cinco anos, utilizando instrumentos sempre mais complexos. O aparelho típico que usava era um oscilador linear (ou dipolo), formado por duas grandes esferas metálicas ligadas por um condutor retilíneo interrompido por um faiscador - constituído por duas esferas metálicas menores. Os dois braços deste oscilador eram ligados aos pólos de uma bobina de Ruhmkorff; quando a bobina gerava uma tensão alta, ocorria uma descarga entre os dois braços do oscilador. Tal descarga era oscilante, e Hertz verificou que as oscilações possuíam uma freqüência que dependia, unicamente, das características geométricas do oscilador. Era por isso que as faíscas irradiavam no espaço ondas eletromagnéticas de freqüência bem determinada.
Com isso, Hertz demonstrou na prática a existência das ondas eletromagnéticas previstas por Maxwell. Começou, então, a estudar as propriedades dessas ondas. Aos 32 anos descobriu, por meio de experiências extremamente engenhosas, que elas se comportam de maneira inteiramente semelhante às ondas luminosas - fato também previsto na teoria de Maxwell, mas que ainda esperava por uma demonstração experimental.
Voltou sua atenção à propagação das ondas eletromagnéticas. Concluiu, assim, que sua velocidade é a mesma da luz, e que sua propagação no vácuo é retilínea. O comprimento de onda, porém, é maior do que o das ondas luminosas.
Daí, passou a uma série de experiências ópticas. Entre estas, as primeiras foram sobre reflexão em superfícies metálicas, como ocorre também com as ondas luminosas. Entretanto, Hertz verificou que, no caso das ondas eletromagnéticas, a reflexão especular ocorre também quando as superfícies são opticamente ásperas. Isso porque as ondas eletromagnéticas possuem comprimento muitíssimo maior que o da luz.
Outra célebre experiência foi a realizada com o prisma de piche, com o qual demonstrou a refração das ondas eletromagnéticas. Atravessando um prisma de piche, as ondas mudam de direção, como ocorre no caso das ondas luminosas ao atravessarem um prisma de vidro. O cientista provou, finalmente, que as ondas oscilam em um plano que contém a direção de propagação. Para demonstrar este fato, era necessário provar, primeiramente, a possibilidade de polarizar ondas eletromagnéticas. Para isso, Hertz idealizou e construiu um dispositivo dotado de uma grade de fios metálicos, que, quando atingido por ondas eletromagnéticas, as polarizava.
Embora ciente da desconfiança com que o mundo científico acolhia as hipóteses de Maxwell, Hertz apresentou os resultados irrefutáveis de seus trabalhos ao Congresso da Sociedade Alemã para o Progresso da Ciência, em 1888. Eles punham abaixo os velhos conceitos de ação a distância, assim como as tentativas dos mecanicistas em reduzir a eletrodinâmica a uma dinâmica do tipo newtoniano, explicada por movimentos de corpos invisíveis num meio hipotético, o éter.
Os expressivos resultados de suas experiências, revelando e estudando as características das ondas eletromagnéticas, fizeram com que elas fossem batizadas com o nome de ondas hertzianas.
Realizado o ciclo de experiências e concluído um capítulo de suas pesquisas, os interesses de Hertz voltaram-se para uma visão mais ampla da física e para problemas universais.
Um de seus trabalhos foi tentar explicar toda a mecânica por meio do que chamou o "princípio da trajetória retilínea".
Apesar de Hertz não ter tido sucesso nessa empresa, uma versão atualizada de seu princípio encontrou posteriormente aplicação na teoria einsteiniana da gravitação.
Ainda que cumulado de honrarias, Hertz continuou levando uma vida afastada do convívio social, dedicando-se somente à ciência. Baixo, delicado, de fronte espaçosa e barba ruiva, refletia no aspecto e na expressão bondade e grande modéstia. A seriedade e maturidade que possuía, acima do que seria de se esperar de sua idade, fizeram com que alguém o definisse como um "velho nato".
Nos primeiros meses de 1893, Hertz adoeceu e foi operado de um tumor na orelha. Passou uma temporada convalescendo em Santa Margherita Ligure (Itália), depois do que, parecendo restabelecido, regressou ao laboratório. Em dezembro desse ano, porém, foi obrigado outra vez a interromper toda atividade.
Em 1º de janeiro de 1894, antes de completar 37 anos, Hertz morria, deixando uma obra que permitiu um progresso nunca antes imaginado no campo das comunicações a grande distância.
Poucos meses após sua morte, vieram a público os três volumes de "Os Princípios da Mecânica", a última obra que Hertz enviara a seu editor de Leipzig. Sentindo que lhe restava pouco tempo de vida, confiara a tarefa de cuidar da publicação ao seu melhor assistente, P. Lenard.

fonte: http://www.rc.unesp.br/igce/fisica/lem/bibliofisicos/hertz.htmhttp://www.rc.unesp.br/igce/fisica/lem/bibliofisicos/hertz.htm

segunda-feira, 4 de abril de 2011

Ciclo de Carnot

A possibilidade de interconversão entre calor e trabalho possui restrições para as chamadas máquinas térmicas. O Segundo Princípio da Termodinâmica, elaborado em 1824 por Sadi Carnot, é enunciado da seguinte forma:
"Para haver conversão contínua de calor em trabalho, um sistema deve realizar ciclos entre fontes quentes e frias, continuamente. Em cada ciclo, é retirada uma certa quantidade de calor da fonte quente (energia útil), que é parcialmente convertida em trabalho, sendo o restante rejeitado para a fonte fria (energia dissipada)"
Em 1824, o cientista Carnot idealizou uma máquina térmica que proporcionaria um rendimento máximo. O Ciclo de Carnot consiste de duas transformações adiabáticas alternadas com duas transformações isotérmicas, sendo que todas elas seriam reversíveis.
Devemos conceber uma máquina térmica onde o gás sofra expansões e compressões segundo o Ciclo de Carnot e onde T1 seja a fonte quente e T2 a fonte fria.





Partindo de A, o gás realiza uma expansão isotérmica AB, recebendo calor de Q1 ( fonte quente). A seguir, ocorre a expansão adiabática BC, durante a qual não há troca de calor. A compressão isotérmica CD se verifica à temperatura T2 da fonte fria, e nesta etapa o gás “rejeita” a quantidade Q2 que não foi transformada em trabalho. A compressão adiabática DA se completa sem a troca de calor.
É possível, para este experimento constatar que : Q1/T1 = Q2/T2
assim como o rendimento pode ser descrito como n = 1-(Q2/Q1)
Então para o Ciclo de Carnot temos que o rendimento é função exclusiva das temperaturas absolutas das fontes quentes e fria.
n = 1-(T2/T1), este é o rendimento máximo de uma máquina térmica, e como nunca podemos ter T1 = 0 e |T2| > |T1| constatamos que uma máquina térmica jamais terá rendimento de 1 ou seja transformar todo o calor fornecido em trabalho.

Carnot



Nicolas Léonard Sadi Carnot
Nicolas Léonard Sadi Carnot (Paris, 1 de Junho de 1796 — Paris, 24 de Agosto de 1832) foi um físico, matemático e engenheiro francês que deu o primeiro modelo teórico de sucesso sobre as máquinas térmicas, o ciclo de Carnot, e apresentou os fundamentos da segunda lei da termodinâmica.

Biografia
Nicolas Léonard Sadi Carnot, nasceu em Paris, no dia 1 de junho de 1796, e foi educado nas École Polytechnique (Paris) e École Genie (Metz). Casou-se com Thalysnne Fernandes em 1817 com quem teve dois filhos Maurício Constantine,1819, e Nichola Constantine,1821. Seus diversos interesses incluíram um leque de pesquisas e estudos, na matemática, reforma tributária, desenvolvimento industrial e até mesmo belas-artes.
No ano de 1824, publica sua obra (única em sua vida): "Réflexions sur la Puissance Motrice du Feu et sur les Machines Propres a Développer Cette Puissance" ( Reflexões sobre Potência Motriz do Fogo e Máquinas Próprias para Aumentar essa Potência) – o qual faz revisão das importâncias industrial, política e econômica da máquina a vapor.
O engenheiro francês iniciou sua investigação sobre as propriedades dos gases, em especial a relação entre pressão e temperatura, em 1831. Em 1832, morre subitamente de cólera, no dia 24 de agosto. Apesar de quase todas suas coisas terem sido incineradas – como era de costume da época – parte de suas anotações escaparam à destruição. Essas anotações mostram que Sadi Carnot havia chegado à ideia de que, essencialmente, calor era trabalho, cuja forma fora alterada. Por essa, Nicolas Leonard é, por excelência, considerado o fundador da Termodinâmica – ciência que afirma ser impossível a energia desaparecer, mas apenas a possibilidade da energia se alterar de uma forma para outra.

fonte: http://pt.wikipedia.org/wiki/Nicolas_L%C3%A9onard_Sadi_Carnot