Sejam bem-vindos!

RELAXE, APROVEITE E DELEITE-SE NESTE BLOG.

terça-feira, 25 de outubro de 2011

Pedagogia do oprimido

Paulo Freire é caracterizado com um pensador que se comprometeu, além das idéias, com a própria vida, com a própria existência; na Pedagogia do Oprimido ele nos apresenta sua experiência cativada no exílio durante cinco anos, bem como nos mostra o papel conscientizador da educação numa ação libertadora do próprio "medo da liberdade".Para Paulo Freire vivemos numa sociedade dividida em classes, sendo que os privilégios de uns impedem que a maioria usufrua dos bens produzidos e, coloca como um desses bens produzidos e necessários pata concretizar a vocação necessária do ser mais, a educação, da qual é excluída grande parte da população do Terceiro Mundo.Refere-se então a dois tipos de pedagogia: a pedagogia dos opressores, onde a educação existe como uma prática de dominação e a pedagogia do oprimido que precisa ser realizada para que surja uma educação com prática de liberdade.

fonte:http://www.webartigos.com/artigos/resumo-de-039-039-pedagogia-do-oprimido-039-039/40397/

sábado, 2 de julho de 2011

ONDAS

Classificação das ondas

Uma onda é um movimento causado por uma perturbação, e esta se propaga através de um meio.

Um exemplo de onda é tido quando joga-se uma pedra em um lago de águas calmas, onde o impacto causará uma perturbação na água, fazendo com que ondas circulares se propagem pela superfície da água.



Também existem ondas que não podemos observar a olho nu, como, por exemplo, ondas de rádio, ondas de televisão, ondas ultra-violeta e microondas.

Além destas, existem alguns tipos de ondas que conhecemos bem, mas que não identificamos normalmente, como a luz e o som.

Mas o que elas têm em comum é que todas são energias propagadas através de um meio, e este meio não acompanha a propagação.

Conforme sua natureza as ondas são classificadas em:

•Ondas Mecânicas: são ondas que necessitam de um meio material para se propagar, ou seja, sua propagação envolve o transporte de energia cinética e potencial e depende da elasticidade do meio. Por isto não é capaz de propagar-se no vácuo. Alguns exemplos são os que acontecem em molas e cordas, sons e em superfícies de líquidos.
•Ondas Eletromagnéticas: são ondas geradas por cargas elétricas oscilantes e sua propagação não depende do meio em que se encontram, podendo propagar-se no vácuo e em determinados meios materiais. Alguns exemplos são as ondas de rádio, de radar, os raios x e as microondas.
Todas as ondas eletromagnéticas tem em comum a sua velocidade de propagação no vácuo, próxima a 300000km/s, que é equivalente a 1080000000km/h.

Por que as ondas do mar quebram?

Sabendo que as ondas em geral têm como característica fundamental propagar energia sem que haja movimentação no meio, como explica-se o fenômeno de quebra das ondas do mar, causando movimentação de água, próximo à costa?

Em águas profundas as ondas do mar não transportam matéria, mas ao aproximar-se da costa, há uma brusca diminuição da profundidade onde se encontram, provocando a quebra destas ondas e causando uma movimentação de toda a massa de água e a formação de correntezas.

Após serem quebradas, as ondas do mar deixam de comportar-se como ondas.

Quanto a direção de propagação as ondas são classificadas como:

•Unidimensionais: que se propagam em apenas uma direção, como as ondas em cordas e molas esticadas;
•Bidimensionais: são aquelas que se propagam por uma superfície, como as água em um lago quando se joga uma pedra;
•Tridimensionais: são capazes de se propagar em todas as dimensões, como a luz e o som.
Quanto à direção da vibração as ondas podem ser classificadas como:

•Transversais: são as que são causadas por vibrações perpendiculares à propagação da onda, como, por exemplo, em uma corda:


•Longitudinais: são ondas causadas por vibrações com mesma direção da propagação, como as ondas sonoras.

Componentes de uma onda

Uma onda é formada por alguns componentes básicos que são:


Sendo A a amplitude da onda.

É denominado comprimento da onda, e expresso pela letra grega lambida (λ), a distância entre duas cristas ou dois vales consecutivos.

Chamamos período da onda (T) o tempo decorrido até que duas cristas ou dois vales consecutivos passem por um ponto e freqüência da onda (f) o número de cristas ou vales consecutivos que passam por um mesmo ponto, em uma determinada unidade de tempo.

Portanto, o período e a freqüência são relacionados por:

F = 1/T

OU

T = 1/F

A unidade internacionalmente utilizada para a freqüência é Hertz (Hz) sendo que 1Hz equivale à passagem de uma crista ou de um vale em 1 segundo.

Para o estudo de ondas bidimensionais e tridimensionais são necessários os conceitos de:

•frente de onda: é a fronteira da região ainda não atingida pela onda com a região já atingida;
•raio de onda: é possível definir como o raio de onda a linha que parte da fonte e é perpendicular às frentes de onda, indicando a direção e o sentido de propagação.

<

Continuem visitando.
Em breve mais informações sobre ondas.

fonte: http://www.sofisica.com.br/conteudos/Ondulatoria/Ondas/classificacao2.php

sábado, 18 de junho de 2011

Física da eletricidade


2009-09-30
Energia elétrica ou eletricidade é como se chamam os fenômenos em que estão envolvidas cargas elétricas. Ela pode ser gerada através de fontes renováveis de energia (a força das águas e dos ventos, o sol e a biomassa), ou não renováveis (combustíveis fósseis e nucleares). No Brasil, existem muitos rios. Portanto, a energia hidráulica é mais utilizada do que as outras. Mas também existem usinas termelétricas no País.

O processo de transformação da energia elétrica é parecido com o que fazia funcionar os moinhos de água. Durante muito tempo eles foram bastante utilizados para moer grãos. A água dos rios dava impulso as rodas d’água. Essas rodas, por sua vez, faziam girar as pás dos moinhos.
Nas hidroelétricas, a água dos rios, armazenada em reservatórios, faz girar enormes pás. Elas acionam grandes motores, chamados de turbinas, que são responsáveis pela geração de eletricidade. Este é um exemplo da transformação da energia hídrica em energia elétrica.



Ao ser gerada, a energia elétrica é conduzida por cabos até a subestação elevadora. Lá, transformadores elevam o valor da tensão elétrica (voltagem). Em alta voltagem, a eletricidade pode percorrer longas distâncias. Ao chegar próximo onde será consumida, a voltagem da energia é reduzida novamente, através de transformadores.
Os raios de uma tempestade, quando um deles cai sobre um animal, por exemplo, a descarga elétrica é tão forte que pode até mata-lo.

Eletricidade no Brasil

1879 – A eletricidade começou a ser usada no Brasil, na Europa e nos Estados Unidos, logo após o invento do Dínamo e da Lâmpada Elétrica. No mesmo ano, D. Pedro II inaugurou a iluminação da estrada de ferro.

1881 – A primeira iluminação externa pública do País foi inaugurada na atual Praça de República, em São Paulo.
1883 – Entrou em operação a primeira usina hidrelétrica do País, instalada na cidade de Diamantina, Minas Gerais. D. Pedro II inaugurou, na cidade de Campos, o primeiro serviço público municipal de iluminação elétrica do Brasil e da América do Sul.
1889 – Começou a funcionar a primeira hidrelétrica de grande porte no País, a Marmelos-Zero, da Companhia Mineira de Eletricidade.

1892 – Os bondes movidos à energia elétrica foram instalados de forma permanente no Rio de Janeiro.
1899 – Criação da São Paulo Light.

1903 – O primeiro texto de lei disciplinando o uso de energia elétrica no País foi aprovado pelo Congresso Nacional.
1908 – Entrou em operação a usina hidrelétrica Fontes Velha, a maior do Brasil e uma das maiores do mundo.

1937 – O presidente Getúlio Vargas inaugurou, no Rio de Janeiro, o primeiro trecho eletrificado da Estrada de Ferro da Central do Brasil.
1939 – O presidente Getúlio Vargas criou o Conselho Nacional de Águas e Energia (CNAE) para sanear os problemas de suprimento, regulamentação e tarifa referentes à indústria de energia elétrica do País.

1943 – Começaram a ser criadas várias empresas estaduais e federais como a Celg, Chesf, Cemig, Copel, Celesc, Cemat, Escelsa, Furnas, Coelba, Cemar, entre outras.

1952 – Criado o Banco Nacional de Desenvolvimento Econômico (BNDES) para atuar nas áreas de energia e transporte.

1960 – Criação do Ministério das Minas e Energia.
1961– Criação da Eletrobrás.
1963 – Começou a funcionar a usina de Furnas, permitindo interligação dos estados do Rio de Janeiro, Minas Gerais e São Paulo.
1965 – Criado o Departamento Nacional de Águas e Energia, encarregado da regulamentação dos serviços de energia elétrica no País.

1979 – Compra da Light – Serviços de Eletricidade pelo Governo Federal.

1984 – Entrada em operação da usina de Itaipu, a maior hidrelétrica do mundo.
1985 – Criação do Programa Nacional de Combate ao Desperdício de Energia Elétrica (Procel). Entrou em operação a Usina Termonuclear Angra I, primeira usina nuclear do Brasil.

1998 – O Mercado Atacadista de Energia Elétrica (MAE) foi regulamentado, consolidando a distinção entre as atividades de geração, transmissão, distribuição e comercialização de energia elétrica. Foram estabelecidas as regras de organização do Operador Nacional do Sistema Elétrico (NOS), para substituir o Grupo Coordenador para Operação Interligada (GCOI).

William Thomson


William Thomson, 1º barão Kelvin, (no Brasil é mais conhecido como Lorde Kelvin) OM, PRS, PRSE (Belfast, 26 de junho de182417 de dezembro de 1907) foi um físico-matemático e engenheiro britânico, nascido na Irlanda.

Considerado um líder nas ciências físicas do século XIX. Ele fez importantes contribuições na análise matemática da eletricidade etermodinâmica, e fez muito para unificar as disciplinas emergentes da física em sua forma moderna. Ele é amplamente conhecido por desenvolver a escala Kelvin de temperatura absoluta (onde o zero absoluto é definido como 0 K). O título de Barão Kelvin foi dado em homenagem a suas realizações.

A Física de partícula dos últimos 30 anos

Uma das alegações mais comuns de alguns livros de divulgação que tratam sobre supercordas é a de que a física de partículas esteve mais ou menos congelada do ponto de vista de novas idéias teóricas nos últimos 30 anos. Woit, Greene, Kaku são exemplos de textos com essa alegação: após a descoberta da unificação eletrofraca e dos métodos de cálculo nas chamadas teorias de calibre que aconteceram nos anos 60 e 70, pelos últimos 30 anos a física de partículas apenas viu confirmação do cenário teórico geral estabelecido, sem necessidade de novas idéias.

Isso é verdade em parte, mas não é toda a história. tongue Como eu quero mostrar neste e nos próximos posts, a física de partículas nos últimos 30 anos foi um terreno muito fértil para problemas desafiadores e grandes dificuldades teóricas, que acabaram por desenvolver uma série de novas e importantes técnicas que mudaram drasticamente a visão da física fundamental que se tinha nos anos 70. Algumas dessas idéias ainda serão testadas no LHC, e dada a situação extremamente obscura da nossa compreensão de alguns problemas da física de partículas, é bem provável que algo completamente inesperado possa surgir nos próximos anos, criando ainda mais excitação para novas idéias. grin

A descoberta das teorias efetivas


Na década de 40, Freeman Dyson descobriu que teorias de física de partículas com certas características tinham uma receita simples que permitia calcular qualquer fenômeno físico e obter uma resposta finita. As teorias que satisfazem os critérios de Dyson são chamadas de teorias renormalizáveis. Outras teorias pareciam simplesmente prever que qualquer processo físico teria probabilidade infinita de ocorrer, o que não faz sentido uma vez que nada pode ter mais que 100% de probabilidade.

O problema técnico resolvido por Dyson foi o principal motivador do desenvolvimento da teoria eletrofraca e da cromodinâmica quântica: ambas são teorias renormalizáveis. No entanto, no final dos anos 70, o gênio Steven Weinberg mostrou como fazer cálculos com qualquer teoriaem física de partículas. Ficou claro que as teorias renormalizáveis são apenas um caso particular de teorias mais gerais, e que correspondem apenas a uma primeira aproximação. As teorias mais gerais são hoje genericamente chamadas de teorias efetivas (antigamente chamadas denão-renormalizáveis).

Esta descoberta impulsionou uma série de desenvolvimentos muito importantes, em especial para a física da força nuclear forte, pois é impossível usar a QCD diretamente para estudar hádrons em baixas energias. Porém, é possível escrever teorias efetivas que descrevem hádrons mas que são intimamente relacionadas com a QCD. A relação das teorais efetivas de hádrons com a QCD é a mesma entre as teorias que descrevem a magnetização dos materiais com a física atômica: ao invés de começar do problema do movimento de N átomos, ignora-se todos os graus de liberdade dos átomos, exceto o momento magnético, e constrói-se então um modelo para a interação de N momentos magnéticos. Desse modo, foi possível durante os anos 90 fazer cálculos analíticos de propriedades dos hádrons partindo da QCD. Em especial, Mark Wise, Mikhail Voloshin e Nathan Isgur descobriram no final de 1989uma nova simetria das interações fortes, e desenvolveram uma teoria efetiva com base nesta simetria que permitiu calcular analiticamente o comportamento dos mésons que contém quarks charmed e bottom[1]. Esta teoria é conhecida como a teoria efetiva de quarks pesados (HQEFT), e antes dela pensava-se que somente cálculos numéricos complicados da QCD poderiam providenciar previsões para as propriedades dos mésons com quarks charmed e bottom. Os três receberam em 2001 o Prêmio J. J. Sakurai de Física Teórica da American Physical Society pelo desenvolvimento da teoria e suas conseqüências.

O problema da hierarquia


Um dos componentes fundamentais do modelo de unificação eletrofraca da física de partículas é a existência do chamado bóson de Higgs. No entanto, em 1979, Kenneth Wilson mostrou que a existência do bóson de Higgs constitui automaticamente um problema[2], hoje conhecido como o problema da hierarquia.
Wilson percebeu que a contribuição das partículas virtuais para a massa do bóson de Higgs é da ordem de 1019 GeV [3]. No entanto, a massa do bóson de Higgs é experimentalmente vinculada para ser da ordem de 100 GeV. A única solução é ajustar um parâmetro da teoria em mais ou menos 17 algarismos significativos para ser idêntico a contribuição das partículas virtuais:

Massa do Higgs = (parâmetro da teoria) + (partículas virtuais)

Qual a razão do parâmetro da teoria provocar um cancelamento tão perfeito da contribuição das partículas virtuais? O Modelo Padrão não tem uma resposta para essa pergunta!
Isto levou logo em 1979 Leonard Susskind [2] a propor uma alternativa a existência do bóson de Higgs, a teoria conhecida por Technicolor, que prevê a existência de uma nova força forte na Natureza. Mais tarde foi percebido que a supersimetria também resolve o problema da hierarquia, pois a contribuição de cada partícula virtual do Modelo Padrão para massa do Higgs é cancelada por uma partícula de spin diferente.
No entanto, tanto a supersimetria como Technicolor eventualmente requerem um certo ajuste arbitrário de parâmetros e simetrias discretas para poder evadir o problema da hierarquia, o que na prática não o resolve completamente, apenas o transfere para um outro lugar: a tentativa de justificar as escolhas de parâmetros nestas teorias.
Durante vários anos não surgiu nenhuma alternativa viável para supersimetria ou Technicolor, até que em 1998 Nima Arkani-Hamed, Savas Dimopoulos e Gia Dvali mostraram que se existem mais dimensões espaciais no universo então há um cenário possível que resolve o problema [4].
Se há dimensões extras no universo, então a potência irradiada por grávitons que podemos observar nas 3D é menor que a potência total irradiada, devido ao fato que parte dos grávitons se propagam nas dimensões extras. Sendo assim, é possível ajustar a constante da gravitação de Newton para trazer a escala da gravitação quântica para aproximadamente 1 TeV. Isso resolve o problema pois nesse caso a contribuição dos pares de partículas virtuais seria da ordem ~ 1 TeV, que é apenas uma ordem de grandeza diferente da massa do Higgs, ao invés de 17 ordens de grandeza.
O trabalho de Nima e Cia. abriu uma nova arena para a construção de alternativas ao Modelo Padrão. Atualmente, o mais estudado é o modelo de Randall-Sundrum[5].
Nos modelos com dimensões extras há novas partículas, pois para cada partícula há um campo associado (por exemplo, para o fóton há o campo eletromagnético) que agora pode "vibrar" em mais dimensões. As vibrações nas dimensões extras são percebidas como partículas elementares, chamadas de parceiros Kaluza-Klein. Então, por exemplo, para o campo eletromagnético há o fóton e toda uma torre de excitações Kaluza-Klein de massa ~ 1 TeV. Todas essas partículas poderiam ser, em princípio, observadas no LHC (indireta ou diretamente).
É extremamente excitante imaginar que daqui a poucos anos poderemos obter de um experimento como o LHC informação sobre algo tão fundamental como o número de dimensões que existe no universo, em especial se o resultado for que há mais do que apenas 4 [6].

Em 2001, inspirados pela descoberta dos modelos de dimensões extras, Nima, Andrew Cohen e Howard Georgi encontraram outra alternativa [7]. Eles mostraram que é possível construir um modelo onde o bóson de Higgs tem uma simetria extra que "protege" a massa de contribuições de partículas virtuais. O segredo é o que se chamasimetria de custódia, que impõe que se a massa do Higgs fosse zero então nenhuma partícula virtual poderia contribuir para a massa do Higgs. O resultado é que todas as contribuições de partículas virtuais passam a ser elas próprias proporcionais ao valor da massa do Higgs. Assim, se a massa do Higgs for da ordem de 100 GeV, todas as contribuições de partículas virtuais são também da ordem de 100 GeV, e não ocorre nenhuma catástrofe. Vários modelos foram construídos baseados nesta idéia, e eles vão sobre o nome genérico de Little Higgs.

Será que o LHC vai revelar que há supersimetria? Technicolor? Dimensões extras? Little Higgses? Ou será que o LHC vai apenas encontrar o bóson de Higgs do Modelo Padrão e nada mais? Lembremos que o que está em jogo aqui é a compreensão de o que na Naturezapermite que exista a unificação eletrofraca, i.e. como é possível que exista uma única simetria para a força fraca e o eletromagnetismo quando o fóton não possui massa mas os bósons W e Z são pesados.

E ainda há muito mais coisas curiosas para falar... Vão ficar para um próximo post! cool

Nota: terei o maior prazer em responder perguntas sobre o texto, que podem ser deixadas como comentários.

Física de partículas


A Física de partículas é um ramo da Física que estuda os constituintes elementares da matéria e da radiação, e a interação entre eles e suas aplicações. É também chamada de Física de altas energias, porque muitas partículas elementares só podem ser detectadas a energias elevadas. O elétron e o próton foram as únicas partículas aceleradas até os dias de hoje, outras nunca foram detectadas (como o gráviton) e as restantes foram detectadas através da radiação cósmica (como o méson pi e o méson mu).

A Física de partículas, estudada pela Mecânica Quântica (parte da Física Moderna), busca o fundamental, o nível mais básico da matéria e da Natureza. Todo o nosso mundo visível se fundamenta nesse nível invisível das partículas elementares. Podemos chamar de partículas elementares toda a porção indivisível da matéria, como os elétrons, os prótons, os nêutrons e outras.

Breve história

Os gregos antigos formularam dois conceitos sobre Física de Partículas. O primeiro foi formulado por Tales de Mileto e diz respeito à eletricidade. O segundo foi formulado por Demócrito e diz que toda matéria pode ser dividida até chegar em um ponto que se encontraria a parte mais fundamental e indivisível da matéria a que Demócrito deu o nome de átomo. Ele dizia que o átomo não poderia ser criado ou destruído e que toda a matéria conhecida seria formada por diversas combinações de diferentes átomos. Suas ideias se aproximavam muito dos atuais conceitos de física atômica.

As ideias de Demócrito só voltaram a ser revistas no século XIX, por Dalton. As de Tales de Mileto foram revistas a partir do século XV.

Principais partículas e antipartículas conhecidas: Elétron, pósitron, próton, antipróton, nêutron, antinêutron, neutrino, antineutrino, Mésons (pi+, pi0, pi-, mu+, mu-, k+, k-, k0), hiperons (lambda 0, sigma +, sigma 0, sigma -) e fótons.


Partículas subatômicas


A pesquisa moderna da física da partícula é focalizada nas partículas subatômicas, que têm dimensões menores que as dos átomos. Incluem constituintes atômicos tais como elétrons, prótons, e nêutrons (os prótons e os nêutrons são partículas compostas, feita de quarks), partículas produzidas por processos radiativos e de espalhamento tais como fótons, neutrinos, e múons, bem como uma larga escala de partículas exóticas.

  • Elétron: Partícula mais conhecida e mais estudada. Massa de repouso: 9,1083 x 10−31 kg, carga elétrica: − 1,602 x 10−19 C, Spin: 1/2 ħ
  • Pósitron: Já era previsto por Paul Dirac e sua existência foi confirmada em 1930-1940 pelo físico americano Anderson. Possui massa de repouso e spin iguais aos do elétron. Carga elétrica de mesmo módulo e sinal contrário.
  • Próton: É um núcleon. Possui massa 1836,12 vezes a massa do elétron. Mesmo spin e carga de sinal contrário.
  • Antipróton: Descoberto em 1955. Já se suspeitava que existissem outras antipartículas desde a descoberta do pósitron. Possui mesma massa e spin que o próton, mas carga de sinal oposto (sinal negativo).
  • Nêutron: Possui carga nula, massa 1836,65 vezes a massa do elétron e spin 1/2 ħ. Pode se desintegrar dando origem a um próton, um elétron e um neutrino apenas quando está livre (fora do núcleo).
  • Antinêutron: Possui exatamente as mesmas características do nêutron, mas organização interna diferente. Um nêutron é composto de um quark up e dois quarks down. Logo, imagina-se que o antinêutron seja formado por um antiquark up e dois antiquarks down.
  • Fótons: São chamados de quantum do campo eletromagnético. Possui massa e carga elétrica zero e spin 1 ħ.
  • Grávitons: Analogamente ao fóton, o gráviton é o quantum do campo gravitacional. Não se tem muita informação experimental sobre ele. Só existe com velocidades próximas ou iguais a c (velocidade da luz no vácuo).
  • Mésons: quer dizer, massa média. São partículas que possuem massa entre a do elétron e a do próton. Existem oito tipos de mésons:
  • Mésons pi +, - e 0, méson mu +, - , méson k+, - e 0.
  • Hiperons: Partículas de massa maior que a do próton. Pode ser dividido em seis tipos:
  • Hiperons lambda 0, hiperon sigma +, -, 0 , hiperon csi+, 0
  • Neutrinos: O neutrino surge da desintegração de um nêutron em próton e elétron. Possui massa menor que 0,000005 vezes a massa do elétron e até agora foram descobertos quatro tipos de neutrinos diferentes.
  • Interações fundamentais

São quatro as interações fundamentais:

  1. Interação gravitacional
  2. Interação eletromagnética
  3. Interações nucleares fortes: possuem natureza atrativa e repulsiva, dependendo da distância. Se estiver a uma distância d maior que 0,4 férmions, torna-se repulsiva. Possui intensidade maior que a força gravitacional e, até a uma determinada distância (raio do núcleo), maior que a eletromagnética. É responsável pela união de prótons e nêutrons no núcleo, visto que é independente da carga elétrica.
  4. Interação nuclear fraca: É mais forte que a interação gravitacional. Há uma teoria que une a interação fraca com a eletromagnética, afirmando que trata-se da mesma interação sob duas formas chamada interação eletrofraca. Foi formulada e está sendo desenvolvida uma teoria de unificação das 4 interações fundamentais conhecida como Teoria da Supergravidade.


Livros recomendados

  • O Discreto charmes das partícula elementares ( Cristina Abdala)

quinta-feira, 9 de junho de 2011

Dispersão (óptica)



A dispersão na óptica é o fenómeno que causa a separação de uma onda em várias componentes espectrais com diferentes frequências, por causa da dependência da velocidade da onda com sua frequência, ao se mudar a densidade do meio, ondas de diferentes frequências irão tomar diversos ângulos na refracção. Há dois tipos de fonte de dispersão material (influenciada pela densidade do meio) e por dispersão no guia de ondas, que por causa das soluções do modo transverso para ondas confinadas lateralmente em um guia de ondas finito, normalmente dependendo da frequência das ondas (tamanho relativo da onda, do comprimento de onda e do guia de ondas). Dispersão material em ondas electromagnéticas, a velocidade da fase de uma onda é dada pelo meio onde:

V = c/N
Onde:c é a velocidade da luz no vácuo e n é o índice de refração do meio.

Em geral, o índice de refracção é uma função da freqüência, ou alternativamente, com respeito ao comprimento de onda. O comprimento de onda depende do índice de refração do material de acordo com a fórmula. O efeito mais freqüentemente visto da dispersão é a separação da luz branca no espectro de luz por um prisma. Como um prisma é mais denso que o ambiente, para cada freqüência há um ângulo de refração diferente, como a cor branca é uma composição de todas as cores, ou a sobreposição de várias ondas de diferentes freqüências, se dá a dispersão separando cada uma dessas freqüências por um ângulo de refração diferente. Para a luz visível, e para a maioria das matérias transparentes temos: 1
fonte: http://pt.wikipedia.org/wiki/Dispers%C3%A3o_(%C3%B3ptica)