Sejam bem-vindos!

RELAXE, APROVEITE E DELEITE-SE NESTE BLOG.

sábado, 18 de junho de 2011

Física da eletricidade


2009-09-30
Energia elétrica ou eletricidade é como se chamam os fenômenos em que estão envolvidas cargas elétricas. Ela pode ser gerada através de fontes renováveis de energia (a força das águas e dos ventos, o sol e a biomassa), ou não renováveis (combustíveis fósseis e nucleares). No Brasil, existem muitos rios. Portanto, a energia hidráulica é mais utilizada do que as outras. Mas também existem usinas termelétricas no País.

O processo de transformação da energia elétrica é parecido com o que fazia funcionar os moinhos de água. Durante muito tempo eles foram bastante utilizados para moer grãos. A água dos rios dava impulso as rodas d’água. Essas rodas, por sua vez, faziam girar as pás dos moinhos.
Nas hidroelétricas, a água dos rios, armazenada em reservatórios, faz girar enormes pás. Elas acionam grandes motores, chamados de turbinas, que são responsáveis pela geração de eletricidade. Este é um exemplo da transformação da energia hídrica em energia elétrica.



Ao ser gerada, a energia elétrica é conduzida por cabos até a subestação elevadora. Lá, transformadores elevam o valor da tensão elétrica (voltagem). Em alta voltagem, a eletricidade pode percorrer longas distâncias. Ao chegar próximo onde será consumida, a voltagem da energia é reduzida novamente, através de transformadores.
Os raios de uma tempestade, quando um deles cai sobre um animal, por exemplo, a descarga elétrica é tão forte que pode até mata-lo.

Eletricidade no Brasil

1879 – A eletricidade começou a ser usada no Brasil, na Europa e nos Estados Unidos, logo após o invento do Dínamo e da Lâmpada Elétrica. No mesmo ano, D. Pedro II inaugurou a iluminação da estrada de ferro.

1881 – A primeira iluminação externa pública do País foi inaugurada na atual Praça de República, em São Paulo.
1883 – Entrou em operação a primeira usina hidrelétrica do País, instalada na cidade de Diamantina, Minas Gerais. D. Pedro II inaugurou, na cidade de Campos, o primeiro serviço público municipal de iluminação elétrica do Brasil e da América do Sul.
1889 – Começou a funcionar a primeira hidrelétrica de grande porte no País, a Marmelos-Zero, da Companhia Mineira de Eletricidade.

1892 – Os bondes movidos à energia elétrica foram instalados de forma permanente no Rio de Janeiro.
1899 – Criação da São Paulo Light.

1903 – O primeiro texto de lei disciplinando o uso de energia elétrica no País foi aprovado pelo Congresso Nacional.
1908 – Entrou em operação a usina hidrelétrica Fontes Velha, a maior do Brasil e uma das maiores do mundo.

1937 – O presidente Getúlio Vargas inaugurou, no Rio de Janeiro, o primeiro trecho eletrificado da Estrada de Ferro da Central do Brasil.
1939 – O presidente Getúlio Vargas criou o Conselho Nacional de Águas e Energia (CNAE) para sanear os problemas de suprimento, regulamentação e tarifa referentes à indústria de energia elétrica do País.

1943 – Começaram a ser criadas várias empresas estaduais e federais como a Celg, Chesf, Cemig, Copel, Celesc, Cemat, Escelsa, Furnas, Coelba, Cemar, entre outras.

1952 – Criado o Banco Nacional de Desenvolvimento Econômico (BNDES) para atuar nas áreas de energia e transporte.

1960 – Criação do Ministério das Minas e Energia.
1961– Criação da Eletrobrás.
1963 – Começou a funcionar a usina de Furnas, permitindo interligação dos estados do Rio de Janeiro, Minas Gerais e São Paulo.
1965 – Criado o Departamento Nacional de Águas e Energia, encarregado da regulamentação dos serviços de energia elétrica no País.

1979 – Compra da Light – Serviços de Eletricidade pelo Governo Federal.

1984 – Entrada em operação da usina de Itaipu, a maior hidrelétrica do mundo.
1985 – Criação do Programa Nacional de Combate ao Desperdício de Energia Elétrica (Procel). Entrou em operação a Usina Termonuclear Angra I, primeira usina nuclear do Brasil.

1998 – O Mercado Atacadista de Energia Elétrica (MAE) foi regulamentado, consolidando a distinção entre as atividades de geração, transmissão, distribuição e comercialização de energia elétrica. Foram estabelecidas as regras de organização do Operador Nacional do Sistema Elétrico (NOS), para substituir o Grupo Coordenador para Operação Interligada (GCOI).

William Thomson


William Thomson, 1º barão Kelvin, (no Brasil é mais conhecido como Lorde Kelvin) OM, PRS, PRSE (Belfast, 26 de junho de182417 de dezembro de 1907) foi um físico-matemático e engenheiro britânico, nascido na Irlanda.

Considerado um líder nas ciências físicas do século XIX. Ele fez importantes contribuições na análise matemática da eletricidade etermodinâmica, e fez muito para unificar as disciplinas emergentes da física em sua forma moderna. Ele é amplamente conhecido por desenvolver a escala Kelvin de temperatura absoluta (onde o zero absoluto é definido como 0 K). O título de Barão Kelvin foi dado em homenagem a suas realizações.

A Física de partícula dos últimos 30 anos

Uma das alegações mais comuns de alguns livros de divulgação que tratam sobre supercordas é a de que a física de partículas esteve mais ou menos congelada do ponto de vista de novas idéias teóricas nos últimos 30 anos. Woit, Greene, Kaku são exemplos de textos com essa alegação: após a descoberta da unificação eletrofraca e dos métodos de cálculo nas chamadas teorias de calibre que aconteceram nos anos 60 e 70, pelos últimos 30 anos a física de partículas apenas viu confirmação do cenário teórico geral estabelecido, sem necessidade de novas idéias.

Isso é verdade em parte, mas não é toda a história. tongue Como eu quero mostrar neste e nos próximos posts, a física de partículas nos últimos 30 anos foi um terreno muito fértil para problemas desafiadores e grandes dificuldades teóricas, que acabaram por desenvolver uma série de novas e importantes técnicas que mudaram drasticamente a visão da física fundamental que se tinha nos anos 70. Algumas dessas idéias ainda serão testadas no LHC, e dada a situação extremamente obscura da nossa compreensão de alguns problemas da física de partículas, é bem provável que algo completamente inesperado possa surgir nos próximos anos, criando ainda mais excitação para novas idéias. grin

A descoberta das teorias efetivas


Na década de 40, Freeman Dyson descobriu que teorias de física de partículas com certas características tinham uma receita simples que permitia calcular qualquer fenômeno físico e obter uma resposta finita. As teorias que satisfazem os critérios de Dyson são chamadas de teorias renormalizáveis. Outras teorias pareciam simplesmente prever que qualquer processo físico teria probabilidade infinita de ocorrer, o que não faz sentido uma vez que nada pode ter mais que 100% de probabilidade.

O problema técnico resolvido por Dyson foi o principal motivador do desenvolvimento da teoria eletrofraca e da cromodinâmica quântica: ambas são teorias renormalizáveis. No entanto, no final dos anos 70, o gênio Steven Weinberg mostrou como fazer cálculos com qualquer teoriaem física de partículas. Ficou claro que as teorias renormalizáveis são apenas um caso particular de teorias mais gerais, e que correspondem apenas a uma primeira aproximação. As teorias mais gerais são hoje genericamente chamadas de teorias efetivas (antigamente chamadas denão-renormalizáveis).

Esta descoberta impulsionou uma série de desenvolvimentos muito importantes, em especial para a física da força nuclear forte, pois é impossível usar a QCD diretamente para estudar hádrons em baixas energias. Porém, é possível escrever teorias efetivas que descrevem hádrons mas que são intimamente relacionadas com a QCD. A relação das teorais efetivas de hádrons com a QCD é a mesma entre as teorias que descrevem a magnetização dos materiais com a física atômica: ao invés de começar do problema do movimento de N átomos, ignora-se todos os graus de liberdade dos átomos, exceto o momento magnético, e constrói-se então um modelo para a interação de N momentos magnéticos. Desse modo, foi possível durante os anos 90 fazer cálculos analíticos de propriedades dos hádrons partindo da QCD. Em especial, Mark Wise, Mikhail Voloshin e Nathan Isgur descobriram no final de 1989uma nova simetria das interações fortes, e desenvolveram uma teoria efetiva com base nesta simetria que permitiu calcular analiticamente o comportamento dos mésons que contém quarks charmed e bottom[1]. Esta teoria é conhecida como a teoria efetiva de quarks pesados (HQEFT), e antes dela pensava-se que somente cálculos numéricos complicados da QCD poderiam providenciar previsões para as propriedades dos mésons com quarks charmed e bottom. Os três receberam em 2001 o Prêmio J. J. Sakurai de Física Teórica da American Physical Society pelo desenvolvimento da teoria e suas conseqüências.

O problema da hierarquia


Um dos componentes fundamentais do modelo de unificação eletrofraca da física de partículas é a existência do chamado bóson de Higgs. No entanto, em 1979, Kenneth Wilson mostrou que a existência do bóson de Higgs constitui automaticamente um problema[2], hoje conhecido como o problema da hierarquia.
Wilson percebeu que a contribuição das partículas virtuais para a massa do bóson de Higgs é da ordem de 1019 GeV [3]. No entanto, a massa do bóson de Higgs é experimentalmente vinculada para ser da ordem de 100 GeV. A única solução é ajustar um parâmetro da teoria em mais ou menos 17 algarismos significativos para ser idêntico a contribuição das partículas virtuais:

Massa do Higgs = (parâmetro da teoria) + (partículas virtuais)

Qual a razão do parâmetro da teoria provocar um cancelamento tão perfeito da contribuição das partículas virtuais? O Modelo Padrão não tem uma resposta para essa pergunta!
Isto levou logo em 1979 Leonard Susskind [2] a propor uma alternativa a existência do bóson de Higgs, a teoria conhecida por Technicolor, que prevê a existência de uma nova força forte na Natureza. Mais tarde foi percebido que a supersimetria também resolve o problema da hierarquia, pois a contribuição de cada partícula virtual do Modelo Padrão para massa do Higgs é cancelada por uma partícula de spin diferente.
No entanto, tanto a supersimetria como Technicolor eventualmente requerem um certo ajuste arbitrário de parâmetros e simetrias discretas para poder evadir o problema da hierarquia, o que na prática não o resolve completamente, apenas o transfere para um outro lugar: a tentativa de justificar as escolhas de parâmetros nestas teorias.
Durante vários anos não surgiu nenhuma alternativa viável para supersimetria ou Technicolor, até que em 1998 Nima Arkani-Hamed, Savas Dimopoulos e Gia Dvali mostraram que se existem mais dimensões espaciais no universo então há um cenário possível que resolve o problema [4].
Se há dimensões extras no universo, então a potência irradiada por grávitons que podemos observar nas 3D é menor que a potência total irradiada, devido ao fato que parte dos grávitons se propagam nas dimensões extras. Sendo assim, é possível ajustar a constante da gravitação de Newton para trazer a escala da gravitação quântica para aproximadamente 1 TeV. Isso resolve o problema pois nesse caso a contribuição dos pares de partículas virtuais seria da ordem ~ 1 TeV, que é apenas uma ordem de grandeza diferente da massa do Higgs, ao invés de 17 ordens de grandeza.
O trabalho de Nima e Cia. abriu uma nova arena para a construção de alternativas ao Modelo Padrão. Atualmente, o mais estudado é o modelo de Randall-Sundrum[5].
Nos modelos com dimensões extras há novas partículas, pois para cada partícula há um campo associado (por exemplo, para o fóton há o campo eletromagnético) que agora pode "vibrar" em mais dimensões. As vibrações nas dimensões extras são percebidas como partículas elementares, chamadas de parceiros Kaluza-Klein. Então, por exemplo, para o campo eletromagnético há o fóton e toda uma torre de excitações Kaluza-Klein de massa ~ 1 TeV. Todas essas partículas poderiam ser, em princípio, observadas no LHC (indireta ou diretamente).
É extremamente excitante imaginar que daqui a poucos anos poderemos obter de um experimento como o LHC informação sobre algo tão fundamental como o número de dimensões que existe no universo, em especial se o resultado for que há mais do que apenas 4 [6].

Em 2001, inspirados pela descoberta dos modelos de dimensões extras, Nima, Andrew Cohen e Howard Georgi encontraram outra alternativa [7]. Eles mostraram que é possível construir um modelo onde o bóson de Higgs tem uma simetria extra que "protege" a massa de contribuições de partículas virtuais. O segredo é o que se chamasimetria de custódia, que impõe que se a massa do Higgs fosse zero então nenhuma partícula virtual poderia contribuir para a massa do Higgs. O resultado é que todas as contribuições de partículas virtuais passam a ser elas próprias proporcionais ao valor da massa do Higgs. Assim, se a massa do Higgs for da ordem de 100 GeV, todas as contribuições de partículas virtuais são também da ordem de 100 GeV, e não ocorre nenhuma catástrofe. Vários modelos foram construídos baseados nesta idéia, e eles vão sobre o nome genérico de Little Higgs.

Será que o LHC vai revelar que há supersimetria? Technicolor? Dimensões extras? Little Higgses? Ou será que o LHC vai apenas encontrar o bóson de Higgs do Modelo Padrão e nada mais? Lembremos que o que está em jogo aqui é a compreensão de o que na Naturezapermite que exista a unificação eletrofraca, i.e. como é possível que exista uma única simetria para a força fraca e o eletromagnetismo quando o fóton não possui massa mas os bósons W e Z são pesados.

E ainda há muito mais coisas curiosas para falar... Vão ficar para um próximo post! cool

Nota: terei o maior prazer em responder perguntas sobre o texto, que podem ser deixadas como comentários.

Física de partículas


A Física de partículas é um ramo da Física que estuda os constituintes elementares da matéria e da radiação, e a interação entre eles e suas aplicações. É também chamada de Física de altas energias, porque muitas partículas elementares só podem ser detectadas a energias elevadas. O elétron e o próton foram as únicas partículas aceleradas até os dias de hoje, outras nunca foram detectadas (como o gráviton) e as restantes foram detectadas através da radiação cósmica (como o méson pi e o méson mu).

A Física de partículas, estudada pela Mecânica Quântica (parte da Física Moderna), busca o fundamental, o nível mais básico da matéria e da Natureza. Todo o nosso mundo visível se fundamenta nesse nível invisível das partículas elementares. Podemos chamar de partículas elementares toda a porção indivisível da matéria, como os elétrons, os prótons, os nêutrons e outras.

Breve história

Os gregos antigos formularam dois conceitos sobre Física de Partículas. O primeiro foi formulado por Tales de Mileto e diz respeito à eletricidade. O segundo foi formulado por Demócrito e diz que toda matéria pode ser dividida até chegar em um ponto que se encontraria a parte mais fundamental e indivisível da matéria a que Demócrito deu o nome de átomo. Ele dizia que o átomo não poderia ser criado ou destruído e que toda a matéria conhecida seria formada por diversas combinações de diferentes átomos. Suas ideias se aproximavam muito dos atuais conceitos de física atômica.

As ideias de Demócrito só voltaram a ser revistas no século XIX, por Dalton. As de Tales de Mileto foram revistas a partir do século XV.

Principais partículas e antipartículas conhecidas: Elétron, pósitron, próton, antipróton, nêutron, antinêutron, neutrino, antineutrino, Mésons (pi+, pi0, pi-, mu+, mu-, k+, k-, k0), hiperons (lambda 0, sigma +, sigma 0, sigma -) e fótons.


Partículas subatômicas


A pesquisa moderna da física da partícula é focalizada nas partículas subatômicas, que têm dimensões menores que as dos átomos. Incluem constituintes atômicos tais como elétrons, prótons, e nêutrons (os prótons e os nêutrons são partículas compostas, feita de quarks), partículas produzidas por processos radiativos e de espalhamento tais como fótons, neutrinos, e múons, bem como uma larga escala de partículas exóticas.

  • Elétron: Partícula mais conhecida e mais estudada. Massa de repouso: 9,1083 x 10−31 kg, carga elétrica: − 1,602 x 10−19 C, Spin: 1/2 ħ
  • Pósitron: Já era previsto por Paul Dirac e sua existência foi confirmada em 1930-1940 pelo físico americano Anderson. Possui massa de repouso e spin iguais aos do elétron. Carga elétrica de mesmo módulo e sinal contrário.
  • Próton: É um núcleon. Possui massa 1836,12 vezes a massa do elétron. Mesmo spin e carga de sinal contrário.
  • Antipróton: Descoberto em 1955. Já se suspeitava que existissem outras antipartículas desde a descoberta do pósitron. Possui mesma massa e spin que o próton, mas carga de sinal oposto (sinal negativo).
  • Nêutron: Possui carga nula, massa 1836,65 vezes a massa do elétron e spin 1/2 ħ. Pode se desintegrar dando origem a um próton, um elétron e um neutrino apenas quando está livre (fora do núcleo).
  • Antinêutron: Possui exatamente as mesmas características do nêutron, mas organização interna diferente. Um nêutron é composto de um quark up e dois quarks down. Logo, imagina-se que o antinêutron seja formado por um antiquark up e dois antiquarks down.
  • Fótons: São chamados de quantum do campo eletromagnético. Possui massa e carga elétrica zero e spin 1 ħ.
  • Grávitons: Analogamente ao fóton, o gráviton é o quantum do campo gravitacional. Não se tem muita informação experimental sobre ele. Só existe com velocidades próximas ou iguais a c (velocidade da luz no vácuo).
  • Mésons: quer dizer, massa média. São partículas que possuem massa entre a do elétron e a do próton. Existem oito tipos de mésons:
  • Mésons pi +, - e 0, méson mu +, - , méson k+, - e 0.
  • Hiperons: Partículas de massa maior que a do próton. Pode ser dividido em seis tipos:
  • Hiperons lambda 0, hiperon sigma +, -, 0 , hiperon csi+, 0
  • Neutrinos: O neutrino surge da desintegração de um nêutron em próton e elétron. Possui massa menor que 0,000005 vezes a massa do elétron e até agora foram descobertos quatro tipos de neutrinos diferentes.
  • Interações fundamentais

São quatro as interações fundamentais:

  1. Interação gravitacional
  2. Interação eletromagnética
  3. Interações nucleares fortes: possuem natureza atrativa e repulsiva, dependendo da distância. Se estiver a uma distância d maior que 0,4 férmions, torna-se repulsiva. Possui intensidade maior que a força gravitacional e, até a uma determinada distância (raio do núcleo), maior que a eletromagnética. É responsável pela união de prótons e nêutrons no núcleo, visto que é independente da carga elétrica.
  4. Interação nuclear fraca: É mais forte que a interação gravitacional. Há uma teoria que une a interação fraca com a eletromagnética, afirmando que trata-se da mesma interação sob duas formas chamada interação eletrofraca. Foi formulada e está sendo desenvolvida uma teoria de unificação das 4 interações fundamentais conhecida como Teoria da Supergravidade.


Livros recomendados

  • O Discreto charmes das partícula elementares ( Cristina Abdala)

quinta-feira, 9 de junho de 2011

Dispersão (óptica)



A dispersão na óptica é o fenómeno que causa a separação de uma onda em várias componentes espectrais com diferentes frequências, por causa da dependência da velocidade da onda com sua frequência, ao se mudar a densidade do meio, ondas de diferentes frequências irão tomar diversos ângulos na refracção. Há dois tipos de fonte de dispersão material (influenciada pela densidade do meio) e por dispersão no guia de ondas, que por causa das soluções do modo transverso para ondas confinadas lateralmente em um guia de ondas finito, normalmente dependendo da frequência das ondas (tamanho relativo da onda, do comprimento de onda e do guia de ondas). Dispersão material em ondas electromagnéticas, a velocidade da fase de uma onda é dada pelo meio onde:

V = c/N
Onde:c é a velocidade da luz no vácuo e n é o índice de refração do meio.

Em geral, o índice de refracção é uma função da freqüência, ou alternativamente, com respeito ao comprimento de onda. O comprimento de onda depende do índice de refração do material de acordo com a fórmula. O efeito mais freqüentemente visto da dispersão é a separação da luz branca no espectro de luz por um prisma. Como um prisma é mais denso que o ambiente, para cada freqüência há um ângulo de refração diferente, como a cor branca é uma composição de todas as cores, ou a sobreposição de várias ondas de diferentes freqüências, se dá a dispersão separando cada uma dessas freqüências por um ângulo de refração diferente. Para a luz visível, e para a maioria das matérias transparentes temos: 1
fonte: http://pt.wikipedia.org/wiki/Dispers%C3%A3o_(%C3%B3ptica)

Lentes Esféricas


Lentes são dispositivos empregados em um grande número de instrumentos, tais como os óculos, a câmera fotográfica, o telescópio, o microscópio e muitos outros equipamentos de nosso cotidiano. As lentes são constituídas por um meio transparente que pode ser um vidro ou mesmo o plástico, limitado por faces curvas. Elas podem apresentar faces côncavas ou convexas.

Em razão da sua grande importância na prática diária, o estudo das lentes esféricas é muito importante para o entendimento de como se formam as imagens. Desde simples óculos até modernos e sofisticados equipamentos de observação e projeção, as lentes são largamente utilizadas. O olho humano, por exemplo, é uma verdadeira máquina fotográfica. Esse tem a capacidade de produzir a imagem de objetos externos, e essa imagem é formada sobre a retina. Quando não se enxerga bem, o problema encontra-se, na maioria das vezes, na formação da imagem, e para corrigir tal problema se faz uso dos óculos.

As lentes esféricas possuem classificações e características que diferem uma lente de outra. Elas podem ser classificadas da seguinte forma:

Lentes de bordas finas: quando as bordas são mais finas que a região central.


´
Lentes de bordas grossas: quando a região central é mais fina em relação às bordas, ou seja, nesse caso ocorre o contrário das lentes de bordas finas, veja:




As lentes esféricas podem apresentar dois comportamentos distintos com relação aos raios que incidem sobre as mesmas. Elas podem ser divergentes ou convergentes. Em uma lente convergente os raios de luz incidem sobre a lente e refratam-se de forma que as direções se convergem para o mesmo ponto. Nas lentes divergentes ocorre que os raios de luz paralelos entre si, que incidem sobre a lente, refratam-se em direções diferentes que divergem em um mesmo ponto.

A máquina fotográfica

O funcionamento de uma máquina fotográfica é muito semelhante ao olho humano. Na máquina existe um sistema denominado de objetiva. Esse sistema funciona como uma lente convergente que forma uma imagem real e invertida do objeto que está sendo fotografado. Para que se possa obter uma boa imagem, ou seja, para que ela fique bem nítida, a máquina possui um dispositivo que tem a capacidade de regular a posição da objetiva, deixando o objeto mais perto ou longe da mesma.

A luz proveniente do objeto ao entrar na câmera penetra sobre o filme, onde ocorrem reações químicas fazendo com que a imagem fique nele.

fonte: http://www.mundoeducacao.com.br/fisica/lentes-esfericas.htm

quarta-feira, 1 de junho de 2011

Grande Colisor de Hádrons - LHC

O Grande Colisor de Hádrons ou Grande Colisionador de Hadrões (português europeu) (em inglês: Large Hadron Collider - LHC) do CERN, é o maior acelerador de partículas e o de maior energia existente do mundo. Seu principal objetivo é obter dados sobre colisões de feixes de partículas, tanto de prótons a uma energia de 7 TeV (1,12 microjoules) por partícula, ou núcleos de chumbo a energia de 574 TeV (92,0 microjoules) por núcleo. O laboratório localiza-se em um túnel de 27 km de circunferência, bem como a 175 metros abaixo do nível do solo na fronteira franco-suíça, próximo a Genebra, Suíça.



História

O LHC entrou em funcionamento em 10 de Setembro de 2008.

A primeira colisão entre prótons ocorreu 30 de Março de 2010.

Interrupção no funcionamentoEm 19 de setembro de 2008, ocorreu um incidente no setor 3-4 do LHC que resultou em grande vazamento de hélio no túnel. Segundo uma nota de imprensa publicada pelo CERN no dia seguinte, foram feitas investigações preliminares que apontaram como provável causa do problema um defeito na ligação elétrica entre dois ímãs, o que causou a falha mecânica.

A Organização informou na nota que o setor teria de ser objeto de reparos, o que interromperia o funcionamento do LHC por, no mínimo, dois mesesOs reparos demorariam apenas alguns dias, mas o setor onde ocorreu o incidente deve ser esfriado para tornar possível a manutenção, consequentemente levando mais tempo.

O retorno ao funcionamento

Depois de ficar desligado por quatorze meses, o LHC foi religado na sexta-feira, dia 20 de Novembro de 2009, segundo James Gilles, porta-voz do CERN.

Os primeiros testes duram apenas uma fração de segundo, onde as partículas somente podem dar meia-volta ou uma volta em torno do anel do acelerador. A circulação de partículas no gigantesco equipamento começará em um primeiro momento em baixa energia, com 450 GeV, e quando os cientistas injetarem feixes em direções opostas se produzirão, a essa velocidade, as primeiras colisões.

A partir de então, o experimento consistirá em ir aumentando progressivamente a potência da circulação dos prótons, até chegar ao momento mais esperado e temido por alguns: as primeiras colisões de partículas a velocidade próxima à da luz, cujos primeiros cálculos apontam para que possa ocorrer dois meses após seu religamento.

Nesse momento, serão recriados os instantes posteriores ao Big Bang, o que dará informações chaves sobre a formação do universo e confirmará, ou não, a teoria da física baseada no Bóson de Higgs.

Características



Durante a construção do LHC no túnel do que foi o LEP.Instalado no túnel do anterior LEP (ver foto à direita), e depois de ter sido completamente esvaziado antes de ser preparado como LHC, tem forma circular e um perímetro de 27 quilômetros. Ao contrário dos demais aceleradores de partículas, a colisão será entre prótons (português brasileiro) ou protões (português europeu), e não entre pósitrons e elétrons (como no LEP), entre prótons e antiprótons (como no Tevatron) ou entre elétrons (português brasileiro) ou electrões (português europeu) e prótons (como no HERA). O LHC irá acelerar os feixes de prótons até atingirem 7 TeV (assim, a energia total de colisão entre dois prótons será de 14 TeV) e depois fá-los-á colidir em quatro pontos distintos. A luminosidade nominal instantânea é 1034 cm−2s−1, a que corresponde uma luminosidade integrada igual a 100 fb−1 por ano. Com esta energia e luminosidade espera-se observar o bóson de Higgs e assim confirmar o modelo padrão das partículas elementares.

Sua construção e entrada em funcionamento foram alvo de um filme da BBC sobre um possível fim do mundo, e têm gerado uma enorme polêmica na Europa.

Constituição
Instalando o CMS (compact muon solenoid) "Solenóide de Múon Compacto".Possui um túnel a 100 metros ao menos debaixo da terra na fronteira da França com a Suíça, onde os prótons serão acelerados no anel de colisão que tem cerca de 8,6 km de diâmetro.

Amplificadores serão usados para fornecer ondas de rádio que são projetadas dentro de estruturas repercussivas conhecidas como cavidades de frequência de rádio. Exatamente 1232 ímãs bipolares supercondutores de 35 toneladas e quinze metros de comprimento agirão sobre as transferências de energias dentro do LHC.

Os detectores de partículas ATLAS, ALICE, CMS e LHCb, que monitoram os resultados das colisões, possuem mais ou menos o tamanho de prédios de cinco andares (entre 10 e 25 metros de altura) e 12 500 toneladas. O LHC custou cerca de três bilhões de euros ao contribuinte europeu.

Objetivos
Um evento simulado no detector de CMS, com o aparecimento do Bóson de Higgs.Um dos principais objetivos do LHC é tentar explicar a origem da massa das partículas elementares e encontrar outras dimensões do espaço, entre outras coisas. Uma dessas experiências envolve a partícula bóson de Higgs. Caso a teoria dos campos de Higgs estiver correta, ela será descoberta pelo LHC. Procura-se também a existência da supersimetria. Experiências que investigam a massa e a fraqueza da gravidade serão um equipamento toroidal do LHC e do Solenoide de Múon Compacto (CMS). Elas irão envolver aproximadamente 2 mil físicos de 35 países e dois laboratórios autónomos — o JINR (Joint Institute for Nuclear Research) e o CERN.

Críticas e riscos

Alguns cientistas acreditam que este equipamento pode provocar uma catástrofe de dimensões cósmicas, como um buraco negro que acabaria por destruir a Terra[carece de fontes?]. Para tanto, corre um processo num tribunal do Havaí[carece de fontes?] tentando impedir a experiência, até que haja uma total comprovação de que não haja riscos. Outros acusam o CERN de não ter realizado os estudos de impacto ambiental necessários[carece de fontes?]. No entanto, apesar das alegações de uma suposta criação de um buraco negro, o que de fato poderia ocorrer seria a formação de strange quarks, possibilitando uma reação em cadeia e gerando a matéria estranha; esta possui a característica de converter a matéria ordinária em matéria estranha, logo gerando uma reação em cadeia na qual todo o planeta seria transformado em uma espécie de matéria estranha[carece de fontes?].

Apesar das alegações "catastróficas", físicos teóricos de notável reputação como Stephen Hawking e Lisa Randall afirmam que tais teorias são absurdas, e que as experiências foram meticulosamente estudadas e revisadas e estão sob controle[carece de fontes?].

Entretanto, se um buraco negro fosse produzido dentro do LHC, ele teria um tamanho milhões de vezes menor que um grão de areia, e não viveria mais de 10−27 segundos (ou 0,0000000000000000000000000001 segundo), pois por ser um buraco negro, emitiria radiação e se extinguiria.

Mas, supondo que mesmo assim ele continuasse estável, continuaria sendo inofensivo. Esse buraco negro teria sido criado à velocidade da luz (300 mil km por segundo) e continuaria a passear neste ritmo se não desaparecesse. Em menos de 1 segundo ele atravessaria as paredes do LHC e se afastaria em direção ao espaço. A única maneira de ele permanecer na Terra é se sua velocidade for diminuída a 15 km por segundo. E, supondo que isto ocorresse, ele iria para o centro da Terra, devido à gravidade, mas continuaria não sendo ameaçador. Para representar perigo, seria preciso que ele adquirisse massa, mas com o tamanho de um próton, ele passaria pela Terra sem colidir com outra partícula (não parece, mas o mundo ultramicroscópico é quase todo formado por vazio), e ele só encontraria um próton para somar à sua massa a cada 30 minutos a 200 horas. Para chegar a ter 1 miligrama, seria preciso mais tempo do que a idade atual do universo.

O cientista do MIT, Ph.D em Astrofísica pela Universidade de Bolonha, o brasileiro Gabriel Moraes Ernst, considera a teoria concernente com as principais vertentes de análise, ao considerar a aplicabilidade da transferência de pósitrons com base na massa do buraco negro gerador.



Recordes
O grande acelerador de partículas acelerou em 1 de novembro de 2009 partículas a uma velocidade nunca antes alcançada.

O LHC tornou-se o acelerador de partículas mais poderoso do mundo, ao impelir os seus dois feixes de protões a uma energia de 1,18 Tera electrão-volt (TeV).

O recorde era detido por um dos concorrentes do CERN, o Fermilab de Chicago, que conseguiu acelerar partículas a uma velocidade de 0,98 T em 2001.[9]

Em 30 de março de 2002 conseguiu-se pela primeira vez a colisão de feixes de prótons a 2 tera-elétron volts com sucesso (5,9 em cada feixe).



E datas
A ideia do Grande Colisionador de Hadrões (LHC) surgiu no princípio dos anos 80 do século XX quando o LEP Grande Colisor de Elétrons e Pósitrons, o precedente grande acelerador de CERN, ainda estava em … construção, mas os cientistas já tinham começado a pensar no 'após LEP' reutilizando o seu túnel de 27 km para aí instalar uma máquina muito mais potente.

Fazer desse projecto científico ambicioso uma realidade, veio a tornar-se uma tarefa altamente complexa. Construção civil, tecnologia na ponta do progresso, novas abordagens de armazenamento de dados informáticos e análise de dados; um grande número de pessoas trabalharam arduamente durante anos para conseguir tais resultados.

1984 : um simpósio em Lausana na Suíça marca o início oficial do projecto LHC
1989 : aparecem os primeiros embriões de colaboração
1992 : uma reunião em Évian-les-Bains, na França, marca o início das experiências LHC
1994 : o Conselho do CERN aprova a construção do LHC
1995 : é publicado o estudo da concepção técnica do LHC
2000 : chega o primeiros dos 1 232 ímanes dipolares principais, de série
2005 : realiza-se a primeira interconexão entre dois ímanes. Para realizar as 1700 interconeções do LHC, serão necessárias 123 000 operações
2006 : começo da construção do Centro de Controlo do CERN (CCC) que reúne todos as antigas salas de controlo dos aceleradores, da criogenia e da infra-extructuras.
termina a construção do maior 'refrigerador' do mundo com 27 km de linhas criogénicas para o transporte do hélio gasoso ou líquido para arrefecer os ímanes supracondutores.
termina a fabricação dos ímanes do LHC com a entrega do último dos 1 232 ímanes dipolares de 15 m de comprimento que serão utilizados para guiar os feixes assim como os 392 quadripolos de 5 ou 7 m de comprimento.
2008 : os 27 km do LHC são refrigerados a -2710C, logo a dois graus acima do zero absoluto.
as partículas circulam pela primeira vez no LHC.
dois pacotes de partículas aceleradas na cadeia de dos aceleradores do CERN são enviados nos dois sentidos de circulação do LHC - em sentidos contrários.
2009 : depois de reparado o incidente de Setembro 2008, o LHC arranca novamente e é observada a primeira colisão a 1.18 TeV em Novembro
2010 : é atingida a energia de 3.5 Tev e nesse mesmo mês de Março é assinalada a primeira colisão, a uma energia total de 7 Tev!
Referência CERN- Bulletin.
fonte: http://pt.wikipedia.org/wiki/Grande_Colisor_de_H%C3%A1drons