id
stringlengths
3
7
title
stringlengths
1
250
text
stringlengths
5
401k
1354
Noruega
Noruega A Noruega (em "bokmål": ; em "nynorsk": ), oficialmente Reino da Noruega (em "bokmål": "Kongeriket Norge", em "nynorsk": "Kongeriket Noreg"), é um país nórdico, situado na Europa do Norte, onde ocupa a parte ocidental da Península Escandinava, e ainda a ilha de Jan Mayen e o arquipélago ártico de Esvalbarda, através do Tratado de Esvalbarda. A parte continental do país faz fronteira a leste com a Suécia e a norte com a Finlândia e a Rússia. O Reino Unido e as Ilhas Faroe estão a oeste, através do Mar do Norte, a Islândia e a Groenlândia estão a oeste, através do mar da Noruega, e a Dinamarca fica próxima ao extremo sul do país, através do estreito de Escagerraque. A Ilha Bouvet, no Atlântico sul, e a Ilha de Pedro I, no oceano glacial Antártico, são territórios dependentes (norueguês: "Biland") da Noruega, mas não são considerados parte do Reino. A Noruega também reivindica uma parte da Antártida conhecida como Terra da Rainha Maud, uma reivindicação que foi reconhecida pela Austrália, França, Nova Zelândia e Reino Unido. A extensa linha costeira da Noruega, de frente para o oceano Atlântico Norte e para o mar de Barents, é a casa de seus famosos fiordes. A Noruega mantém o modelo social escandinavo, baseado no modelo nórdico, na saúde universal, no ensino superior subsidiado e em um regime abrangente de previdência social. A Noruega foi classificada como o país mais desenvolvido do mundo em todos os relatórios de desenvolvimento humano desde 2001 (com dados referentes entre 1999 e 2010). Em 2009, o país foi novamente classificado pela ONU como o melhor país do mundo para se viver. A Noruega também foi avaliada como o país mais pacífico do mundo em uma pesquisa realizada em 2007 pelo Índice Global da Paz. E em 2017 um estudo feito por peritos internacionais, com apoio da ONU, classificou a Noruega como o país mais feliz do mundo, superando a Dinamarca que liderou o "ranking" no ano anterior. Apesar de ter rejeitado a adesão à União Europeia em dois referendos, a Noruega mantém laços estreitos com o bloco e com seus países-membros, bem como com os Estados Unidos. O país é considerado um participante de destaque na diplomacia e na cooperação internacional, tendo sido profundamente envolvido nos fracassados Acordos de Oslo e nas negociações de uma trégua entre o governo do Seri Lanca e os Tigres Tâmil. A Noruega continua a ser um dos maiores contribuintes financeiros da Organização das Nações Unidas e participa com as forças da ONU em missões internacionais de paz, como no Afeganistão, Kosovo e Darfur. Um estado unitário com subdivisões administrativas em dois níveis conhecidos como condados ("fylker") e comunas ("kommuner"), a Noruega é uma monarquia constitucional hereditária e uma democracia parlamentar, com o rei como seu Chefe de Estado. Os lapões têm uma certa dose de autodeterminação e influência sobre seus territórios tradicionais, através do Parlamento Lapônio e da Lei da Dinamarca. A Noruega é um dos membros fundadores das Nações Unidas, da Organização do Tratado do Atlântico Norte (OTAN), do Conselho da Europa (COE) e do Conselho Nórdico, além de ser membro do Espaço Econômico Europeu, da Organização Mundial do Comércio (OMC) e da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Etimologia. Etimologistas acreditam que o nome do país significa "o caminho para o norte" (ou o "caminho do norte"), que em nórdico antigo teria sido "nor veg" ou "*norð vegr". O nome nórdico antigo para Noruega era "Noregr", o anglo-saxão "Norþ weg" e latim medieval "Northvegia". O nome oficial do Reino da Noruega em "bokmål" é "Kongeriket Norge", enquanto que em "nynorsk" é "Kongeriket Noreg", ambos apenas um par de letras retiradas do termo original "caminho do norte": "Nor(d)-(v)eg". De acordo com outra teoria, o nome do país advém da palavra "nór", que significa "estreito" ou "norte", referindo-se à rota de navegação do arquipélago interno, através da terra ("caminho estreito"). A interpretação como "norte", refletida nas formas inglesa e latina do nome, teria sido devido à etimologia popular posterior. Esta última visão teve origem com o filólogo Niels Halvorsen Trønnes em 1847, sendo também defendido pelo estudante de língua e ativista Klaus Johan Myrvoll e adotado pelo professor de filologia Michael Schulte. A forma "Nore" ainda é usada em nomes de lugares como a vila de Nore e o lago Norefjorden, no antigo condado de Buskerud, e ainda tem o mesmo significado. Entre outros argumentos a favor da teoria, destaca-se que a palavra tem uma vogal longa na poesia escandinava e não é atestada com "<ð>" em nenhum texto ou inscrição nativa nórdica (as primeiras atestações rúnicas têm as grafias "nuruiak" e "nuriki"). Essa teoria ressuscitada recebeu alguma reação de outros estudiosos por vários motivos, em parte pela presença incontroversa do elemento "norðr" no etnônimo "norðrmaðr", e o adjetivo "norrǿnn" ("norte, norueguês"), bem como as primeiras declarações das formas latina e anglo-saxônica. Por volta de 890, Ótaro de Halogalândia distinguiu os noruegueses ("nordmenn", o povo de Norvegr) dos lapões e dos dinamarqueses. Enquanto ele identificava o povo lapões por seu modo de vida nômade, os dinamarqueses ele identificava geograficamente ou politicamente. De acordo com Ótaro, os dinamarqueses dominavam Escagerraque e Categate, os corpos de água que separam a Dinamarca da península escandinava. Os noruegueses, por outro lado, viviam no Mar do Norte, na costas do Atlântico, e estavam ligados às ilhas do Atlântico Norte. A Noruega de Ótaro cobria uma área muito menor do que a Noruega atual. História. Pré-história e Era Viquingue. Os primeiros habitantes foram os membros da cultura de Arensburgo (11 a ), que era uma cultura do fim do Paleolítico Superior durante o último período de frio no final da glaciação Weichsel. A cultura é nomeada por conta da vila de Arensburgo, 25 km (15,53 milhas) a nordeste de Hamburgo, no estado alemão de Eslésvico-Holsácia, onde flechas de madeira foram encontradas. A Era Viquingue foi caracterizada pela expansão e emigração de marinheiros viquingues. Segundo a tradição, Haroldo Cabelo Belo unificou os viquingues em 872, após a Batalha do Fiorde de Hafrs em Stavanger, tornando-se o primeiro rei da Noruega unida. (A data de 872 pode ser um tanto arbitrária. Na verdade, a data real pode ser um pouco antes de 900). O reino de Haroldo era formado, principalmente, por um Estado costeiro no sul da Noruega. Haroldo Cabelo Belo governou com mão forte e, de acordo com as sagas, muitos noruegueses deixaram o país para viver na Islândia, nas Ilhas Faroé, na Groenlândia e em partes da Grã-Bretanha e da Irlanda. As cidades irlandesas modernas de Dublim, Limerico e Waterford foram fundadas por colonos noruegueses. A mitologia nórdica foi lentamente substituída pela cristã nos séculos X e XI. Isto é em grande parte atribuído aos reis missionários e . Em meados do , tornou-se o primeiro rei cristão da Noruega, apesar de sua tentativa de introduzir a religião ter sido rejeitada. Nascido em algum momento entre 963-969, Olavo I partiu com incursões na Inglaterra, com 390 navios. Ele atacou Londres durante esta invasão. Chegando na Noruega em 995, Olavo desembarcou em Moster. Lá, ele construiu uma igreja que se tornou a primeira igreja cristã já construída em solo norueguês. De Moster, Olavo navegou para o norte até Trontêmio, onde foi aclamado Rei da Noruega por Eyrathing em 995. O feudalismo nunca se desenvolveu na Noruega e na Suécia como aconteceu no resto da Europa. No entanto, a administração do governo assumiu um caráter feudal muito conservador. A Liga Hanseática forçou a realeza a ceder maiores concessões sobre o comércio exterior e a economia. A Liga tinha esse poder sobre a realeza por causa dos empréstimos que tinha feito para a realeza e pela grande dívida que os reis carregavam. O controle monopolista da Liga sobre a economia da Noruega exerceu pressão sobre todas as classes, especialmente para os camponeses, na medida em que não existia uma classe burguesa real na Noruega. União de Calmar. Após a morte de , Rei da Noruega, em 1319, Magno, em apenas três anos, herdou o trono como . Ao mesmo tempo, um movimento para fazer de Magno o Rei da Suécia foi bem-sucedido. (neste momento ambos os reis da Suécia e da Dinamarca foram eleitos para o trono por seus respectivos príncipes.) Assim, com a sua eleição ao trono da Suécia, a Suécia e a Noruega tornaram-se unidas sob o governo do rei . Em 1349, a peste negra alterou radicalmente Noruega, matando entre 50% e 60% ​​de sua população e deixou-a em um período de declínio econômico e social, que deixou o país muito pobre. Embora o taxa de mortalidade fosse comparável com a do resto da Europa, a recuperação econômica norueguesa levou muito mais tempo por causa da população pequena e dispersa do país. Antes da peste, a população era de apenas cerca de 500 mil pessoas. Após a praga, muitas fazendas ficaram inativas, enquanto a população aumentava lentamente. Os inquilinos das poucas fazendas sobreviventes conseguiram barganhar com seus proprietários muito fortalecidos. O rei Magno VII governou a Noruega até 1350, quando seu filho, Haquino, foi colocado no trono como . Em 1363, Haquino VI casou-se com Margarida, a filha do rei . Após a morte de Haquino VI, em 1379, seu filho, , tinha apenas 10 anos de idade na época, já tinha sido eleito para o trono da Dinamarca em 3 de maio de 1376. Assim, a partir da adesão de Olavo ao trono da Noruega, a Dinamarca e Noruega entraram em uma união pessoal. A mãe de Olavo e viúva de Haquino, a rainha Margarida, manteve as relações exteriores da Dinamarca e da Noruega durante a menoridade de Olavo IV. Margarida estava trabalhando em direção a uma união entre Suécia, Dinamarca e Noruega por ter Olavo como eleito para o trono sueco. Ela estava à beira de alcançar esse objetivo, quando Olavo IV morreu repentinamente. No entanto, a Dinamarca fez de Margarida a governante temporária após a morte de Olavo. Em 2 de fevereiro de 1388, a Noruega seguiu o exemplo e coroou Margarida. A rainha Margarida sabia que seu poder estaria mais seguro se ela fosse capaz de encontrar um rei para governar em seu lugar. Ela então apostou em Érico da Pomerânia, neto de sua irmã. Assim, em uma reunião de todos os escandinavos realizada em Calmar, Érico da Pomerânia foi coroado rei de todos os três países escandinavos. Assim, a política real resultou em uniões pessoais entre os países nórdicos, acabou trazendo os tronos da Noruega, Dinamarca e Suécia sob o controle da rainha Margarida, quando o país entrou para a União de Calmar. Eras moderna e contemporânea. Enfraquecida, entra sob domínio da Dinamarca e foi subordinada a essa até o fim das Guerras Napoleônicas, quando a conquista sueca sobre os dinamarqueses faz com que a Noruega entre em união pessoal com a Suécia (ver Reinos Unidos da Suécia e Noruega). Apesar do poder ter ficado na mão dos monarcas suecos, a união foi igualitária, e os noruegueses desfrutaram de grande liberdade política e sociocultural, o reino teve duas línguas, o norueguês e o sueco, e duas capitais, Cristiânia (atual Oslo) e Estocolmo. A união teve fim pacificamente 91 anos depois, em 1905. Durante a Segunda Guerra Mundial, a Alemanha Nazista leva a cabo a Operação Weserübung, que invade a Noruega e a Dinamarca simultaneamente em 9 de abril de 1940. A Dinamarca se rende, mas a Noruega, que possuía uma das maiores frotas marítimas europeias, bem como sua localização próxima à costa britânica, é apoiada pelos britânicos, que encaram a resistência dos noruegueses aos nazistas como crucial. Para tal, os ingleses e franceses enviam tropas para desocupar os principais portos do país e recuperar a marinha norueguesa do poder alemão. Durante dois meses de intensa resistência aos nazistas, tropas soviéticas entram em solo norueguês para atuarem contra os finlandeses na Guerra de Inverno, e enquanto cidades como Narvik, Oslo e Stavanger se viam entre o poder britânico e o nazista, cidades como Kirkenes e Vadsø eram disputadas pelos soviéticos e nazistas. Igualmente tensa era a situação na fronteira com a Suécia, que relutou em permanecer neutra, apesar das frequentes ameaças de invasão. Em 1949, a Noruega torna-se um dos membros fundadores da OTAN. Na segunda metade do , com o desenvolvimento da indústria do petróleo, a Noruega emergiu como um dos países mais desenvolvidos do mundo, fortaleceu sua moeda e desenvolveu políticas de bem estar social e sócio-democratas. A população norueguesa rejeitou duas vezes o convite de adesão à União Europeia, apesar de vários acordos existentes entre o bloco económico e o país. Em 22 de julho de 2011, a Noruega foi atingida por dois ataques terroristas. Um dirigida à sede executiva do governo em Oslo e um em um acampamento de jovens organizado pela organização juvenil (AUF) do Partido Trabalhista Norueguês (AP) na ilha de Utøya em Tyrifjorden, Buskerud. Foram considerados os piores atentados das últimas décadas na Europa e mesmo na própria Noruega que nunca tinham presenciado nada assim. Geografia. Possui uma área de , uma parte da qual se distribui por mais de ilhas. Na área continental, predomina a paisagem de montanhas, platôs e fiordes. A Noruega possui uma fronteira territorial de , sendo com a Suécia ao leste, 727 km com a Finlândia ao nordeste e 196 km com a Rússia no extremo norte. Ao sul a Noruega se separa da Dinamarca pelo estreito de Escagerraque. A extensão aproximada do país, de norte a sul, é de . O terreno glacial é formado em maior parte por platôs altos e montanhas ásperas, através dos quais aparecem vales férteis; possui pequenas e irregulares planícies, fiordes e tundra ao norte. Embora a distância entre os pontos opostos do país seja de apenas 1770 km, a grande quantidade de ilhas e a costa bastante recortada fazem que o país tenha cerca de 101 000 km de linha costeira — extensão que, esticada, seria suficiente para circular o globo duas vezes e meia. O clima da Noruega pode ser oceânico, continental, subártico e alpino, com verões amenos e invernos longos e rigorosos, com ventos fortes e alta precipitação de neve; porém, diferentemente dos outros países escandinavos, uma grande faixa litorânea do país à beira do Mar do Norte e do Mar da Noruega é aquecida pela corrente do Golfo, fazendo com que apresente-se mesmo no mês mais frio, janeiro, regiões com temperaturas médias superiores a 0 °C, sendo mais comum precipitações em forma de chuva do que neve, como é o caso de Bergen, que em janeiro registra médias em torno de 2 °C. Já as ilhas Lofoten apresentam a maior anomalia climática positiva no que diz respeito à latitude, entretanto, na fronteira com a Finlândia no condado de Troms og Finnmark, os termómetros podem registrar 40 °C negativos entre dezembro e março. A mais alta temperatura registrada no país foi 35,6 °C em Nesbyen, enquanto a mínima foi -51,4 °C em Karasjok. Devido ao clima e à natureza do terreno, a Noruega tem uma vida animal variada e adaptada às circunstâncias. Na costa atlântica abundam as aves, sendo a destacar os airos, as gaivotas, os fradinhos, os pombaletes e os gansos-patola. Nas florestas, vivem alces, linces, cabritos-monteses, lebres, raposas e esquilos. Nas água dos fiordes, das ilhas e dos braços-de-mar, podem ser vistas orcas, cachalotes, toninhas e focas. Nas serranias, podem ser observados os veados, as renas e as perdizes, e, mais raramente, os bois-almiscarados. No norte ártico, encontramos as raposas-do-ártico e as perdizes-do-ártico. Em Svalbard, o visitante pode ver ursos-polares, raposas-do-ártico e renas. Biodiversidade. O número total de espécies presentes na Noruega inclui 16 000 espécies de insetos (provavelmente mais 4 000 espécies ainda a serem descritas), 20 000 espécies de algas, 1 800 espécies de líquen, 1 050 espécies de musgos, 2 800 espécies de plantas vasculares, 7 000 espécies de fungos, 450 espécies de pássaros (250 espécies exclusivas do país), 90 espécies de mamíferos, 45 espécies de peixes de água doce, 150 espécies de peixes de água salgada, 1 000 espécies de invertebrados de água doce e 3 500 espécies de invertebrados de água salgada. Cerca de 40 000 dessas espécies foram descritas e estão catalogadas pela comunidade científica. A lista vermelha abrange 4 599 espécies. A Noruega é formada por cinco ecorregiões terrestres: florestas mistas sarmáticas, florestas de coníferas costeiras escandinavas, taiga escandinava e russa, tundra da península de Kola e florestas de bétulas e prados de altitude escandinavos. Dezessete espécies estão listadas como ameaçadas de extinção em escala global. Considerando a biodiversidade ameaçada de extinção, e aquelas quase ameaçadas, o número total chega a 3 682 espécies, incluindo 418 espécies de fungos, muitos dos quais estão intimamente associados com as pequenas áreas remanescentes de florestas antigas, além de 36 espécies de pássaros e dezesseis espécies de mamíferos. Em 2010, cerca de 2 398 espécies foram listadas como ameaçadas de extinção ou vulneráveis, sendo que deste total 1 250 foram listadas como vulneráveis ​​(VU), 871 como em perigo (EN) e 276 espécies como criticamente ameaçadas (CR). Entre estas espécies está o castor-europeu, o lobo-cinzento, a raposa-do-ártico (população estável em Esvalbarda) e a rã europeia. O maior predador nas águas norueguesas é o cachalote e o maior peixe é o tubarão-frade. O maior predador em terra é o urso polar, enquanto o urso pardo é outro predador notável. O maior animal terrestre do território norueguês é o alce (inglês americano: moose). O alce da Noruega é conhecido por seu tamanho e força e costuma ser chamado de "skogens konge", que signifca "rei da floresta". Demografia. A população da Noruega é de cerca de 5,1 milhões. A maioria dos noruegueses são de origem norueguesa, um povo germânico setentrional. Os lapões ("sami") tradicionalmente habitam as regiões central e norte da Noruega e da Suécia, bem como no norte da Finlândia e da Rússia, na península de Kola. Outra minoria nacional são o povo Kven, que são descendentes de povos de língua finlandesa, que se mudaram para o norte da Noruega entre os séculos XVIII e o . Tanto os povos lapões e Kven foram submetidos a uma forte política de assimilação pelo governo norueguês do até aos anos 1970. Por causa deste "processo de norueguização", muitas famílias de ancestralidade lapã ou Kven agora se auto-identificam como étnicos noruegueses. Outros grupos reconhecidos como minorias nacionais da Noruega são os judeus, os "skogfinns" e os noruegueses e suecos romanis (um ramo do povo Romani). Nos últimos anos, a imigração foi responsável por mais da metade do crescimento da população da Noruega. De acordo com o "Estatísticas da Noruega", um total de imigrantes registrados chegaram ao país em 2007, 35% superior ao número de 2006. No início de 2010, existiam pessoas de origem imigrante na Noruega (ou seja, imigrantes ou filhas de pais imigrantes), compreendendo 11,4% da população total. eram provenientes de países ocidentais (União Europeia/Associação Europeia de Livre Comércio, Estados Unidos, Canadá, Austrália e Nova Zelândia) e eram de outros países. Os maiores grupos de imigrantes, por país de origem, em ordem de tamanho, são poloneses, suecos, paquistaneses, iraquianos, somalis, alemães, vietnamitas e dinamarqueses. Os noruegueses de origem paquistanesa são o maior grupo minoritário visível na Noruega e a maioria dos seus membros vivem em torno de Oslo. A população imigrante iraquiana tem demonstrado um grande aumento nos últimos anos. Após o alargamento da UE em 2004, também tem havido um afluxo de imigrantes da Europa Central e Oriental, especialmente da Polônia. O maior aumento, em 2007, foi de imigrantes da Polônia, Alemanha, Suécia, Lituânia e Rússia. Religião. A maioria dos noruegueses são membros da Igreja da Noruega (protestante, de confissão luterana). Todavia, têm uma participação muito baixa nas atividades e ritos religiosos, permanecendo na igreja do estado para usarem os serviços de batismo, crisma, casamento e funeral, ritos que têm forte legitimidade cultural no país. Cerca de 75% dos noruegueses eram membros da Igreja Estatal da Noruega (Igreja Luterana da Noruega) em 1 de janeiro de 2014, uma queda de 1% em relação ao ano anterior e uma queda de quase 5% quando comparado com os cinco anos anteriores. No entanto, apenas 20% dos noruegueses dizem que a religião ocupa um espaço importante em sua vida (de acordo com uma pesquisa recente da Gallup), fazendo da Noruega um dos países mais seculares do mundo (só na Estônia, Suécia e Dinamarca os percentuais de pessoas que consideram a religião um fator importante é menor). No início de 1990, estimou-se que entre 4,7% e 5,3% dos noruegueses frequentavam a igreja semanalmente. Este valor caiu para apenas 2% em 2008, colocando a Noruega, na parte inferior da classificação da frequência à igreja na Europa. Em 2010, o governo da Noruega informou ainda uma queda adicional na frequência à igreja em 2009. Segundo o Eurobarômetro, uma recente, porém um pouco desatualizada, enquete de 2005 dizia que 32% dos cidadãos noruegueses responderam que "acreditam que existe um Deus". Isso se alinha com outro estudo realizado pela "Gustafsson and Pettersson" (2002), segundo a qual 72% dos noruegueses não acreditam em um "Deus pessoal". Pouco mais de 10% da população não tem religião. Em 1 de janeiro de 2009, outros 9%, ou pessoas, eram membros de comunidades religiosas independentes da Igreja da Noruega. Outras denominações cristãs totalizam cerca de 4,9% da população, a maior das quais é a Igreja Católica, que oficialmente contava com membros em 2009. Outros incluem os pentecostais (39 600), a Igreja Luterana Evangélica Livre da Noruega (19 300), metodistas (11 000), batistas (9 400), ortodoxos (7 700), adventistas (5 100), assírios e caldeus, e outros. As congregações luteranas sueca, finlandesa e islandesa na Noruega tem cerca de 22 500 membros no total. Língua. A língua oficial da Noruega é o norueguês — uma língua germânica muito próxima do dinamarquês e do sueco. A língua norueguesa tem duas formas — o bokmål e o nynorsk, sendo o bokmål falado pela maioria dos habitantes. A minoria lapônias fala o lapão, e a minoria kven (fino-norueguesa) fala o kven, uma língua aparentada com o finlandês e o meänkieli. Grande parte da população da Noruega é fluente na língua inglesa, 90% dos noruegueses nascidos depois da Segunda Guerra Mundial, declaram falar inglês. Governo e política. Segundo a Constituição da Noruega, que foi aprovada em 17 de maio de 1814 e inspirada pela Declaração de Independência dos Estados Unidos e pela Revolução Francesa de 1776 e 1789, respectivamente, a Noruega é uma monarquia constitucional unitária com um sistema parlamentar de governo, onde o Rei da Noruega é o chefe de Estado e o primeiro-ministro é o chefe de governo. O poder é repartido entre os poderes legislativo, executivo e judiciário do governo, tal como definido pela Constituição, que serve como documento legal supremo do país. A monarquia oficialmente retém o poder executivo, no entanto, após a introdução de um sistema parlamentar de governo, os deveres do monarca, desde então, tornaram-se estritamente representativos e cerimoniais, como a nomeação formal e a demissão do primeiro-ministro e outros ministros do governo executivo. Assim, o monarca é o comandante-em-chefe das Forças Armadas da Noruega, a autoridade suprema da Igreja da Noruega, e atua como principal representante diplomático no exterior e um símbolo da unidade nacional. Na prática, o primeiro-ministro é responsável pelo exercício de poderes executivos. Desde a sua ascensão em 1991, da Casa de Eslésvico-Holsácia-Sonderburgo-Glucsburgo é o Rei da Noruega, o primeiro, desde o , que realmente nasceu no país. Haquino Magno é o príncipe herdeiro legal e legítimo do trono e do Reino. Constitucionalmente, o poder legislativo é exercido pelo governo e pelo Parlamento da Noruega, mas o último é o legislador supremo e um corpo unicameral. Uma proposição pode tornar-se lei por maioria simples entre os 150 representantes, que são eleitos com base na representação proporcional de 19 circunscrições para mandatos de quatro anos. Um adicional de 19 lugares ("lugares de nivelamento") são alocados em uma base nacional para fazer com que a representação no parlamento corresponda melhor com o voto popular. Como resultado, atualmente há 169 deputados no total. Há também um limite de eleição de 4% para ganho de lugares de nivelamento no Parlamento. Como tal, a Noruega é fundamentalmente estruturada como uma democracia representativa. Chamado "Storting", o que significa "Grande Assembleia", os membros do Parlamento podem ratificar tratados e acusar membros do governo se os seus atos são declarados inconstitucionais, e como tal têm o poder de retirá-los do cargo em caso de um processo de "impeachment". A posição do primeiro-ministro, chefe de governo da Noruega, é atribuída ao membro do Parlamento que consegue a confiança de uma maioria no Parlamento, geralmente o líder atual do maior partido político ou através de uma coligação de partidos. No entanto, a Noruega tem sido governada por governos de minoria. Relações internacionais. Noruega mantém embaixadas em 86 países, enquanto 60 países mantêm uma embaixada na Noruega, todos eles na capital, Oslo. A Noruega é um dos membros fundadores da Organização das Nações Unidas (ONU), da Organização do Tratado do Atlântico Norte (OTAN), do Conselho da Europa e da Associação Europeia de Comércio Livre (EFTA). O país emitiu pedidos de adesão à União Europeia (UE) e aos seus antecessores em 1962, 1967 e 1992, respectivamente. Enquanto Dinamarca, Suécia e Finlândia obtiveram a adesão ao bloco europeu, o eleitorado norueguês rejeitou os tratados de adesão, em referendos realizados em 1972 e 1994. Após o referendo de 1994, a Noruega manteve sua participação no Espaço Econômico Europeu (EEE), um acordo que concede o acesso do país ao mercado interno da UE, com a condição de que a Noruega implemente os atos legislativos, que são considerados relevantes da UE. Sucessivos governos noruegueses, desde 1994, solicitaram a participação em partes da cooperação da UE que vão além das disposições do acordo EEE. A participação sem direito a voto para a Noruega foi concedida, por exemplo, na Política de Defesa e de Segurança Comum, no Acordo de Schengen e na Agência Europeia de Defesa, bem como em 19 programas diferentes. Forças armadas. As Forças Armadas da Noruega mantém cerca de 25 mil pessoas, incluindo trabalhadores civis. De acordo com planos de mobilização de 2009, a mobilização completa gera cerca de 83 mil combatentes. A Noruega tem conscrição (incluindo um treinamento de 6 a 12 meses de duração); em 2013, o país tornou-se o primeiro na Europa e na OTAN a recrutar mulheres assim como homens. No entanto, devido à menor necessidade de recrutamentos após a Guerra Fria, que terminou com a dissolução da União Soviética, o número de recrutas é menor atualmente. As forças armadas são subordinadas ao Ministério da Defesa norueguês. O comandante-em-chefe é o rei . Os militares noruegueses estão divididos nos seguintes ramos: Exército, Marinha Real e Força Aérea Real. Em resposta por ter sido invadido pela Alemanha nazista em 1940, o país foi uma das nações fundadoras da Organização do Tratado do Atlântico Norte (OTAN), em 4 de abril de 1949. Atualmente, a Noruega contribui na Força Internacional de Assistência à Segurança (ISAF) no Afeganistão. Além disso, a Noruega tem contribuído em diversas missões para as Nações Unidas, a OTAN e para a Política de Defesa e de Segurança Comum da União Europeia. Subdivisões. A Noruega está dividida em 11 condados ("fylke") e em 356 comunas ("kommune") Economia. Os noruegueses possuem o segundo maior PIB "per capita" nominal (depois de Luxemburgo) e o terceiro maior PIB (PPC) "per capita" do mundo. A Noruega também manteve o primeiro lugar entre todos os países do mundo no Índice de Desenvolvimento Humano (IDH) por seis anos consecutivos (2001-2006), e depois recuperou essa posição em 2009. A economia norueguesa é um exemplo de uma economia mista, um país social-democrata com um estado de bem-estar social capitalista próspero, com uma combinação de atividades de mercado livre e de grandes propriedades estatais em determinados setores-chave. O Estado tem grandes posições acionistas nos principais setores industriais, tais como no estratégico setor de petróleo (Statoil), na produção de energia hidrelétrica (Statkraft), na produção de alumínio (Norsk Hydro), no maior banco norueguês (DnB NOR), e em telecomunicações (Telenor). Através dessas grandes empresas, o governo controla aproximadamente 30% dos valores das ações na Bolsa de Valores de Oslo. Quando as empresas não cotadas na bolsa estão incluídas, o Estado tem participação ainda maior na propriedade (principalmente da participação direta em licenças de petróleo). A Noruega é uma nação voltada, principalmente, para a navegação e tem a 6ª maior frota mercante mundial, com embarcações mercantes de propriedade norueguesa. O custo de vida na Noruega é cerca de 30% maior do que nos Estados Unidos e 25% maior do que no Reino Unido. O padrão de vida na Noruega está entre os maiores do mundo. A revista "Foreign Policy" classificou a Noruega, no Índice de Estados Falhados de 2009, como o país com melhor funcionamento e estabilidade do mundo. A continuação das exportações de petróleo e gás, uma economia saudável e a substancial riqueza acumulada, levam a conclusão de que a Noruega irá permanecer entre os países mais ricos do mundo em um futuro previsível. Os níveis de produtividade horária, bem como salário médio por hora na Noruega estão entre os maiores do mundo. Os valores igualitários da sociedade norueguesa garantem que a diferença salarial entre o menor trabalhador assalariado e o diretor executivo da maioria das empresas seja muito menor do que em economias ocidentais comparáveis. Isso também é evidente pelo baixo coeficiente de Gini do país. Recursos. Nas duas primeiras décadas após a Segunda Guerra Mundial, o país experimentou um rápido crescimento econômico devido ao transporte marítimo, a marinha mercante norueguesa e pela industrialização doméstica, já a partir da década de 1970 o crescimento foi resultado da descoberta de grandes jazidas de petróleo no mar do Norte e no Mar da Noruega. Hoje o país é classificado como o mais rico do mundo, com a maior reserva de capital "per capita" do que qualquer outra nação. Em agosto de 2009 o fundo de riqueza soberana da nação anunciou que possuía cerca de 1% de todas as ações de bolsas de valores do mundo, provavelmente referindo-se a ações negociadas publicamente. A Noruega é o sétimo maior exportador de petróleo do mundo e a indústria do petróleo representa cerca de um quarto do PIB do país. Depois da crise econômica de 2008–2009, os banqueiros têm considerado a coroa norueguesa com uma das mais sólidas moedas do mundo. A Noruega possui ricos recursos em campos de gás, hidroeletricidade, peixes, florestas e minerais. O país foi o segundo maior exportador de frutos do mar (em valor, depois da República Popular da China) em 2006. Outras principais indústrias do país incluem a de processamento de alimentos, construção naval, metais, produtos químicos, mineração, pesca e produtos de papel. Referendos em 1972 e 1994 indicaram que o povo norueguês desejava permanecer fora da União Europeia (UE). No entanto, a Noruega, a Islândia e Liechtenstein, participam do mercado único da União Europeia através do acordo do Espaço Econômico Europeu (EEE). O Tratado EEE entre os países da União Europeia e os países da Associação Europeia de Livre Comércio (AELC), transposto para a lei norueguesa "EØS-loven", descreve os procedimentos de execução das normas da União Europeia na Noruega e em outros países da AELC. Isso faz da Noruega um membro altamente integrado na maioria dos setores do mercado interno da UE. No entanto, alguns setores, como petróleo, agricultura e pesca, não são inteiramente cobertos pelo Tratado EEE. A Noruega também aderiu ao Acordo de Schengen e de vários outros acordos intergovernamentais entre os estados-membros da UE. O país é dotado com ricos recursos naturais, incluindo petróleo, energia hidrelétrica, peixes, florestas e minerais. Grandes reservas de petróleo e gás natural foram descobertas na década de 1960, o que levou a um "boom" na economia. A Noruega tem alcançado um dos mais altos padrões de vida no mundo, em parte, por ter uma grande quantidade de recursos naturais em relação ao tamanho de sua população. O Estado de bem-estar social norueguês faz atendimento público e gratuito de saúde, e os pais recebem 12 meses pagos de licença maternidade. A renda que o Estado recebe a partir de recursos naturais inclui uma contribuição significativa da produção de petróleo e os rendimentos substanciais e bem gerido relacionados com este setor. A Noruega tem uma taxa de desemprego muito baixa, atualmente em 3,1%. Infraestrutura. Educação. O ensino superior na Noruega é oferecido por uma série de sete universidades, cinco faculdades especializadas, 25 faculdades, bem como uma série de faculdades particulares. A educação segue a Declaração de Bolonha envolvendo os graus de licenciatura (3 anos), mestrado (2 anos) e doutorado (3 anos). A aceitação é oferecida após concluírem o ensino secundário com competência geral do estudo. Duas instituições de ensino superior norueguesas estão listadas entre as 200 melhores universidades da Europa, de acordo com a classificação do QS World University Rankings de 2021, sendo estas a Universidade de Oslo e a Universidade de Bergen, ocupando as posições 113ª e 194ª, respectivamente. A educação pública é praticamente livre, independentemente da nacionalidade, com um ano letivo com dois semestres, de agosto a dezembro e de janeiro a junho. A responsabilidade final de gerir a educação cabe ao Ministério da Educação e Pesquisa, órgão responsável pela coordenação do sistema nacional de educação, englobando atividades de administração e supervisão da educação formal. A expectativa de vida escolar, do ensino primário ao ensino superior, é de um total de 18 anos de estudos. O país destina cerca de 7,9% de seu orçamento anual para gastos e despesas em educação, o que se revela o quinto maior investimento neste setor no mundo, em comparação com os outros países do globo. Apenas Cuba, Estados Federados da Micronésia, Ilhas Salomão e Montserrat ofertam investimentos públicos mais altos que o sistema de ensino norueguês. Transportes. Devido à baixa densidade populacional, pela forma estreita do seu território e pelo longo litoral, o transporte público na Noruega está menos desenvolvido do que em muitos países europeus, sobretudo fora das cidades. Como tal, a Noruega tem uma tradição antiga de transporte aquático, mas o Ministério dos Transportes e Comunicações tem implementado nos últimos anos os transportes ferroviário, rodoviário e aéreo através de numerosas filiais a fim de desenvolver infraestrutura do país. A rede ferroviária principal da Noruega consiste em de linhas de bitola padrão, dos quais 242 km é via dupla e 64 km de alta velocidade (). O transporte ferroviário transportou passageiros, de passageiros por km e de toneladas. A rede toda é de propriedade da Administração Ferroviária Nacional Norueguesa, enquanto todos os trens de passageiros domésticos, exceto o trem expresso do aeroporto são operados pela Norges Statsbaner (NSB). Várias empresas operam trens de carga. O investimento em novas infraestruturas e manutenção é financiado pelo Estado e os subsídios são fornecidos para as operações de trem de passageiros. A NSB opera trens de longa distância, incluindo trens noturnos, serviços regionais e quatro sistemas de trem de passageiros em Oslo, Trondheim, Bergen e Stavanger. Há aproximadamente de estradas na Noruega, dos quais são asfaltados e 664 km são auto-estradas. Existem quatro níveis de itinerários rodoviários; municipal, nacional, distrital e privado. As rotas nacionais mais importantes são parte do sistema de estradas europeias, sendo as duas mais importantes a E6, indo do norte para o sul através de todo o país, e a E39, que acompanha a costa oeste. As estradas municipais e nacionais são geridos pela Administração Pública de Estradas da Noruega. Dos 97 aeroportos da Noruega, 52 são públicos e 46 são operados pela estatal Avinor. Sete aeroportos recebem mais de um milhão de passageiros por ano. 41 089 675 de passageiros passaram pelos aeroportos da Noruega em 2007, dos quais 13 397 458 eram internacionais. A principal porta de entrada por via aérea para a Noruega é o Aeroporto Internacional de Oslo, localizado a cerca de 50 km ao norte de Oslo, com partida para maioria dos países europeus e alguns destinos intercontinentais. É um "hub" para as duas principais companhias aéreas norueguesas, a "Scandinavian Airlines System" e a "Norwegian Air Shuttle", e para os aviões regionais da Noruega ocidental. Energia. Em 2021, a Noruega tinha, em energia elétrica renovável instalada, em energia hidroelétrica (8º maior do mundo), em energia eólica (20º maior do mundo), em energia solar, e em biomassa. Cultura. A cultura da Noruega faz parte da cultura nórdica e escandinava, e está intimamente relacionada com o povo norueguês e com a história da nação norueguesa. A geografia, a história, a natureza e o clima, contribuíram significativamente para formação de sua cultura atual. Entre os noruegueses famosos incluem-se Anni-Frid Lyngstad (ABBA), a banda A-ha, o dramaturgo Henrik Ibsen, os exploradores Roald Amundsen e Fridtjof Nansen, o pintor expressionista Edvard Munch, o compositor do romantismo Edvard Grieg e os romancistas Knut Hamsun e Sigrid Undset, vencedores do Prémio Nobel de Literatura em 1920 e 1928. O black metal, é a maior exportação cultural da Noruega nos últimos 20 anos e é bastante popular nos países nórdicos. É uma varição do speed metal e do thrash metal, criado nos anos 80, por bandas como Venom, Bathory, Hellhammer e Celtic Frost, mas que ganhou notoriedade na Noruega, durante os anos 90. As letras valorizam a cultura pagã norueguesa e desprezam o cristianismo, sendo que, entre 1991 e 1998, membros de bandas e de gangues, como o Inner Circle, cometeram atos extremos como assassinatos e a queima de cerca de 100 igrejas na Noruega. Hoje o black metal está mais voltado para a musicalidade. As principais bandas do gênero na Noruega são: Mayhem, Burzum, Darkthrone, Gorgoroth, Emperor, Immortal, Satyricon e Dimmu Borgir, entre muitas outras de igual importância. Os noruegueses celebram o seu dia nacional a 17 de maio, assinalando o Dia da Constituição. Nesse dia, muitas pessoas vestem o "bunad" (trajes tradicionais) e assiste ou participa nas paradas de 17 de maio que se realizam por todo o país. A maioria da população é protestante, de confissão luterana. Música. A Noruega tem uma forte tradição de música folclórica que permanece popular até hoje. Entre os músicos folks mais proeminentes estão Andrea Een, violinistas do Hardanger, Olav Jørgen Hegge e Annbjørg Lien, além das vocalistas Agnes Buen Garnås, Kirsten Bråten Berg e Odd Nordstoga. O black metal norueguês, uma forma de rock na Noruega, tem sido uma influência desde o final do . Desde a década de 1990, a participação norueguesa no black metal, uma forma lo-fi, dark e heavy metal, foi desenvolvida por bandas como Emperor, Darkthrone, Gorgoroth, Mayhem, Burzum e Immortal. Mais recentemente, bandas como Enslaved, Kvelertak, Dimmu Borgir e Satyricon evoluíram o gênero até os dias atuais, enquanto ainda conquistam fãs em todo o mundo. Os eventos polêmicos associados ao movimento black metal no início dos anos 1990 incluíram vários incêndios de igrejas e dois casos de assassinato proeminentes. A cena do jazz na Noruega está prosperando. Jan Garbarek, Terje Rypdal, Mari Boine, Arild Andersen e Bugge Wesseltoft são internacionalmente reconhecidos, enquanto Paal Nilssen-Love, Supersilent, Jaga Jazzist e Wibutee estão se tornando artistas de classe mundial da geração mais jovem. Cinema. O cinema norueguês recebeu reconhecimento internacional. O documentário "Kon-Tiki" (1950) ganhou um Óscar. Em 1959, "Nine Lives", de Arne Skouen, foi indicado, mas não conseguiu vencer. Outro filme notável é "Flåklypa Grand Prix", um longa-metragem de animação dirigido por Ivo Caprino. O filme foi lançado em 1975 e é baseado em personagens do cartunista norueguês Kjell Aukrust. É o filme norueguês mais visto de todos os tempos. "Ofelaš" (1987), de Nils Gaup, contando com características culturais dos lapões, também foi nomeado para um Óscar. "Sønntagsengel", de Berit Nesheim, foi indicado ao Oscar em 1997. Desde a década de 1990, a indústria cinematográfica tem prosperado, produzindo até 20 longas-metragens a cada ano. Sucessos particulares foram "Kristin Lavransdatter", baseado em um romance de um vencedor do Prêmio Nobel; "The Telegraphist" e "Gurin with the Foxtail". Knut Erik Jensen estava entre os novos diretores mais bem sucedidos, juntamente com Erik Skjoldbjærg, que é lembrado por "Insomnia". Artes visuais. Por um longo período, a cena artística norueguesa foi dominada por obras de arte originárias da Alemanha e Países Baixos, bem como pela influência de Copenhague. Foi no que começou uma era verdadeiramente norueguesa, primeiro com a confecção de retratos, depois com a pintura de paisagens naturais. Johan Christian Dahl (1788–1857), originalmente da escola de Dresden, foi um dos primeiros a pintar as paisagens naturais do oeste da Noruega. A independência da Noruega do Reino da Dinamarca encorajou os pintores a desenvolver sua identidade norueguesa, o que se viu especialmente pelos trabalhos de pintura desenvolvidos por artistas como Kitty Kielland, uma pintora que estudou com Hans Gude, e Harriet Backer, outra pioneira entre as artistas femininas, influenciada pelo Impressionismo. Frits Thaulow, um impressionista de Vestre Aker, foi influenciado pela cena artística em Paris, assim como Christian Krohg, um pintor realista, famoso por suas pinturas retratando prostitutas. De particular interesse está Edvard Munch, um pintor simbolista/expressionista que se tornou mundialmente famoso por sua obra O Grito, que se diz representar a ansiedade do homem moderno. Outras obras notáveis ​​de Edvard Munch incluem A Menina Doente (1885), Madonna e Puberdade. Arquitetura. Com florestas extensas, a Noruega tem há muito a tradição de utilizar a madeira em suas construções. Muitos dos edifícios modernos são erigidos em madeira, refletindo o forte apelo que este material continua a ter para designers e construtores noruegueses. Com a conversão da Noruega ao cristianismo há cerca de 1 000 anos, muitas igrejas cristãs foram construídas. A arquitetura em pedra foi utilizada para as estruturas mais importantes, começando com a construção da Catedral de Nidaros, em Trondheim. No início da Idade Média, igrejas de madeira foram construídas em todo o país. Algumas delas estão erigidas até hoje e representam a contribuição mais incomum da Noruega para a história da arquitetura. Um bom exemplo, a Igreja de madeira de Urnes, no interior de Fiorde de Sogn, está na Lista do Patrimônio Mundial da UNESCO. Outro exemplo notável de arquitetura de madeira são os edifícios de Bryggen, em Bergen, também na lista do Patrimônio Cultural da Humanidade, composto por uma fileira de estruturas de madeira altas e estreitas ao longo do cais. Depois que a união da Noruega com a Dinamarca foi dissolvida em 1814, Oslo se tornou a capital. O arquiteto Christian H. Grosch projetou as primeiras partes da Universidade de Oslo, a Bolsa de Valores de Oslo e muitos outros edifícios e igrejas construídos naquele início do período nacional. No início do , a cidade de Ålesund foi reconstruída no estilo Art Nouveau, influenciado pelos estilos da França. A década de 1930, quando o funcionalismo dominou, tornou-se um período forte para a arquitetura norueguesa. Foi somente a partir do final do que os arquitetos noruegueses alcançaram renome internacional. Um dos edifícios modernos mais marcantes da Noruega é o Parlamento Sámi da Noruega, em Karasjok, projetado por Stein Halvorson e Christian Sundby. A sua câmara de debates, em madeira, é uma versão abstrata de um "lavvu", a tenda tradicional utilizada pelos nômades lapões. Esporte. O esqui tem tradições no país. A Noruega se destaca nos Jogos Olímpicos de Inverno, já tendo sediado duas edições do evento, em 1952 e 1994. As competições anuais de Holmenkollen, com esqui de fundo e salto de esqui, e a corrida anual de Birkebeinerrennet, numa extensão de 58 km, são enormemente populares. Nos Jogos Olímpicos de Verão, até 2008 a Noruega conquistou 144 medalhas (54 de ouro), principalmente no iatismo e no tiro. Já nos Jogos de Inverno, até 2010 conquistou 303 medalhas (107 de ouro) — mais do que qualquer outro país — principalmente no esqui cross-country e na patinação de velocidade. A Noruega é um dos três únicos países do mundo (junto com a Áustria e Liechtenstein) que ganhou mais medalhas nos Jogos de Inverno do que nos Jogos de Verão. Feriados. Os dias com restrições ao comércio, trabalho e eventos desportivos e outros são os da tabela que se segue.
1357
NASA
NASA Administração Nacional da Aeronáutica e Espaço ( — NASA) é uma agência do governo federal dos Estados Unidos responsável pela pesquisa e desenvolvimento de tecnologias e programas de exploração espacial. Sua missão oficial é "fomentar o futuro na pesquisa, descoberta e exploração espacial". A NASA foi criada em 29 de julho de 1958, substituindo seu antecessor, do Comitê Consultivo Nacional para a Aeronáutica ( — NACA). A NASA foi a responsável pelo envio do homem à Lua (veja projeto Apollo) e por diversos outros programas de pesquisa no espaço. Atualmente ela trabalha em conjunto com a Agência Espacial Europeia, com a Agência Espacial Federal Russa e com alguns países da Ásia para a criação da Estação Espacial Internacional. A NASA também tem desenvolvido vários programas com satélites e com sondas de pesquisa espacial que viajaram até outros planetas e até, alguns deles, se preparam para sair do nosso sistema solar, sendo a próxima grande meta, que tem atraído a atenção de todos, uma viagem tripulada até o planeta Marte, nosso vizinho. A ciência da NASA está focada numa melhor compreensão da Terra através do Earth Observing System, na promoção da heliofísica através do trabalho do Heliophysics Research Program, na exploração do sistema solar com missões robóticas avançadas, tais como New Horizons, e na pesquisa astrofísica, aprofundando-se em tópicos como o Big Bang com o auxílio de grandes observatórios. História. Criação. Entre o fim de 1957 e o início de 1958 o NACA - National Advisory Committee for Aeronautics (Conselho Nacional para a Aeronáutica), fundado em 1915, começou a estudar quais seriam o trabalho e o papel de uma agência espacial civil, e vários comitês foram formados para examinar o conceito. Em 4 de outubro de 1957, a URSS lançou o primeiro satélite artificial da história o Sputnik-1, desencadeando a chamada "Crise do Sputnik", o que resultou na decisão de criar a NASA. Em 12 de janeiro de 1958 o NACA organizou uma Comissão Especial de Tecnologia Espacial, dirigida por Guyford Stever. Esta comissão fez uma consulta ao programa de grandes foguetes da Army Ballistic Missile Agency, dirigida então por Wernher von Braun. Em 14 de janeiro de 1958, o Diretor da NACA, Hugh Dryden, declarou: Lançado em 31 de janeiro de 1958, o Explorer 1, oficialmente o Satélite 1958 Alpha, tornou-se o primeiro satélite dos Estados Unidos. Em 5 de março James Rhyne Killian, presidente do PSAC (o Conselho Científico Presidencial) escreveu um memorando ao presidente Eisenhower incentivando a criação de um programa espacial civil a partir de um NACA fortalecido e reorientado, que poderia expandir seu programa de investigação com um mínimo de demora. No final de março um relatório do NACA apresentou recomendações para posteriormente desenvolver um foguete em três estágios alimentado a fluoreto de hidrogênio. Em abril de 1958 Eisenhower fez no Congresso dos EUA um discurso favorecendo uma agência espacial civil nacional e apresentou um projeto de lei para a criação de uma agência nacional de aeronáutica e espaço. O antigo campo de pesquisa do NACA mudaria para incluir desenvolvimento, gerenciamento e operações em grande escala. O Congresso dos EUA aprovou a lei com ligeiros ajustes, formalizando o "National Aeronautics and Space Act" em 16 de julho de 1958. Apenas dois dias depois o grupo de Von Braun apresentou um relatório preliminar criticando severamente a duplicação de esforços e a falta de coordenação entre as diversas organizações associadas aos programas espaciais dos Estados Unidos. A Comissão de Stever concordou com as críticas do grupo de Von Braun, e um projeto final foi publicado vários meses depois, em outubro. Em 29 de julho de 1958 Eisenhower assinou o "National Aeronautics and Space Act", instituindo a NASA. Quando iniciou suas operações em 1 de outubro de 1958, a NASA absorveu integralmente o antigo NACA, com todos os seus 8 mil funcionários, um orçamento anual de 100 milhões de dólares, três laboratórios de pesquisa principais (Langley Aeronautical Laboratory, Ames Aeronautical Laboratory e Lewis Flight Propulsion Laboratory) e duas instalações pequenas de teste. Elementos da Army Ballistic Missile Agency, da qual fazia parte a equipe de Von Braun, e o Naval Research Laboratory, foram incorporados à NASA. Uma contribuição significativa para a entrada da NASA na corrida espacial com a União Soviética foi a tecnologia do programa alemão de foguetes V-2 (liderado por Von Braun), que por sua vez incorporou tecnologia de Robert Goddard. Programas de investigação da Força Aérea e muitos dos primeiros programas espaciais da ARPA também foram transferidos para a NASA. Em dezembro de 1958 a NASA obteve o controle do Jet Propulsion Laboratory, uma instalação operada pelo California Institute of Technology. Nas primeiras décadas do século XXI, a NASA também realizou experimentos com aviões elétricos e aeronaves de propulsão híbrida como o X-57 Maxwell. Primeiros voos espaciais tripulados. A NASA já operou e opera inúmeros programas, desde missões interplanetárias a satélites terrestres. 31 missões já foram encerradas e em 2010 quase noventa estão ainda em andamento. Programa X-15 (1954-1968). A NASA herdou a aeronave experimental de pesquisa hipersônica movida a foguete X-15 da NACA, desenvolvida em conjunto com a Força Aérea e a Marinha dos Estados Unidos. Três aviões foram construídos a partir de 1955. O X-15 foi lançado da asa de um dos dois Boeing B-52 Stratofortresses da NASA, cauda NB52A número 52-003, e NB52B, cauda número 52-008 (conhecido como Balls 8). A liberação ocorreu a uma altitude de cerca de 45 000 pés (14 km) e a uma velocidade de cerca de 500 milhas por hora (805 km/h). Doze pilotos foram selecionados para o programa da Força Aérea, Marinha e NACA. Um total de 199 voos foram realizados entre junho de 1959 e dezembro de 1968, resultando no recorde mundial oficial para a maior velocidade já alcançada por uma aeronave com tripulação e uma velocidade máxima de Mach 6,72, ou 4 519 milhas por hora (7 273 km/h). O recorde de altitude para o X-15 foi de 354 200 pés (107,96 km). Oito dos pilotos receberam o distintivo "Asas de Astronauta" da Força Aérea por voar acima de 260 000 pés (80 km), e dois voos de Joseph A. Walker excederam 100 quilômetros (330 000 pés), qualificando-se como um voo espacial de acordo com a Federação Aeronáutica Internacional. O programa X-15 empregou técnicas mecânicas usadas nos programas posteriores de voos espaciais tripulados, incluindo jatos de sistema de controle de reação para controlar a orientação de uma espaçonave, trajes espaciais e definição de horizonte para navegação. Os dados de reentrada e pouso coletados foram valiosos para a NASA no projeto do ônibus espacial. Programa Mercury (1958–1963). Realizado sob a pressão da concorrência entre os EUA e a União Soviética que existiu durante a Guerra Fria, o Programa Mercury foi iniciado em 1958 e lançou a NASA no caminho da exploração humana do espaço com as missões destinadas a descobrir se o homem poderia sobreviver no espaço sideral. Representantes do Exército, Marinha e Força Aérea dos EUA foram selecionados para prestar assistência à NASA. Em 5 de maio de 1961 o astronauta Alan Shepard se tornou o primeiro estadunidense no espaço pilotando a Freedom 7 em um voo suborbital de 15 minutos. John Glenn se tornou o primeiro estadunidense a orbitar a Terra em 20 de fevereiro de 1962 durante o voo da Friendship 7. Projeto Gemini (1961–1966). O Projeto Gemini se concentrou em realizar experimentos e desenvolver e praticar as técnicas necessárias para missões lunares. O primeiro voo Gemini com astronautas a bordo, o Gemini III, foi pilotado por Gus Grissom e John Young em 23 de março de 1965. Seguiram-se mais nove missões, mostrando que eram possíveis o voo espacial humano de longa duração e o encontro e acoplagem com um outro veículo no espaço, além de coletar dados médicos sobre os efeitos da microgravidade sobre os seres humanos. As missões Gemini incluíram as primeiras caminhadas espaciais estadunidenses e o uso de novas manobras orbitais como encontro e acoplamento. Projeto Apollo (1960–1972). A percepção do público estadunidense sobre a liderança soviética na corrida espacial (colocando o primeiro humano no espaço) motivou o presidente John F. Kennedy a pedir ao Congresso dos Estados Unidos em 25 de maio de 1961 que comprometesse o governo federal com um programa de aterrissagem de um homem na Lua no final da década de 1960, o que efetivamente lançou o Programa Apollo. O projeto Apollo foi um dos programas científicos estadunidenses mais caros de todos os tempos. Custou mais de 20 bilhões de dólares na década de 1960 ou cerca de 225 bilhões de dólares em valores atuais. (Em comparação, o Projeto Manhattan custou cerca de 28,8 bilhões de dólares, contabilizando a inflação.) Ele usava os foguetes Saturno como veículos de lançamento, que eram muito maiores do que os foguetes construídos para projetos anteriores. A espaçonave também era maior; tinha duas partes principais, o Módulo de Comando e Serviço Apollo (CSM, sigla em inglês) e o Módulo Lunar Apollo (LM), que deveria ser deixado na Lua, sendo que apenas o módulo de comando (CM), contendo os três astronautas, retornaria à Terra. A segunda missão tripulada, a Apollo 8, trouxe astronautas pela primeira vez em um voo ao redor da Lua em dezembro de 1968. Pouco antes, os soviéticos haviam enviado uma espaçonave não tripulada ao redor da Lua. Nas duas missões seguintes, manobras de atracação que eram necessárias para o pouso na Lua foram praticadas e, finalmente, o pouso na Lua foi feito na missão Apollo 11 em julho de 1969. A primeira pessoa a andar na Lua foi Neil Armstrong, que foi seguido 19 minutos depois por Buzz Aldrin, enquanto Michael Collins orbitava acima. Cinco missões Apollo subsequentes também pousaram astronautas na Lua, a última em dezembro de 1972. Ao longo desses seis voos espaciais da Apollo, doze homens caminharam na Lua. Essas missões retornaram uma riqueza de dados científicos e 381,7 kg de amostras lunares. Os tópicos cobertos por experimentos realizados incluíram mecânica dos solos, meteoroides, sismologia, fluxo de calor, alcance lunar, campos magnéticos e vento solar. O pouso na Lua marcou o fim da corrida espacial; e como um gesto, Armstrong mencionou a humanidade quando pisou na Lua. Skylab (1965–1979). O Skylab foi a primeira e única estação espacial construída de forma independente nos Estados Unidos. Concebida em 1965 como uma oficina a ser construída no espaço a partir de um estágio superior do Saturno IB gasto, a estação de 169 950 lb (77 088 kg) foi construída na Terra e lançada em 14 de maio de 1973, no topo dos dois primeiros estágios de um Saturno V, em uma órbita de 235 milhas náuticas (435 km) inclinada a 50° em relação ao equador. Danificado durante o lançamento pela perda de sua proteção térmica e um painel solar de geração de eletricidade, foi reparado para receber sua primeira tripulação. Foi ocupado por um total de 171 dias por três tripulações sucessivas em 1973 e 1974. Incluía um laboratório para estudar os efeitos da microgravidade e um observatório solar. A NASA planejou uma doca do ônibus espacial e elevar o Skylab a uma altitude segura mais alta, mas o ônibus espacial não estava pronto para voar antes da reentrada do Skylab em 11 de julho de 1979. Para reduzir o custo, a NASA usou um dos foguetes Saturno V originalmente reservados para uma missão cancelada do Programa Apollo para lançar o Skylab. As espaçonaves Apollo foram usadas para transportar astronautas de e para a estação. Três tripulações de três homens permaneceram a bordo da estação por períodos de 28, 59 e 84 dias. O volume habitável do Skylab era de 11 290 pés cúbicos (320 m³), que era 30,7 vezes maior do que o Módulo de Comando Apollo. Apollo-Soyuz (1972-1975). Em 24 de maio de 1972, o então presidente estadunidense Richard M. Nixon e o primeiro-ministro soviético Alexei Kosygin assinaram um acordo convocando uma missão espacial tripulada conjunta e declarando a intenção de que todas as futuras naves espaciais tripuladas internacionais fossem capazes de acoplar umas às outras. Isso autorizou o Projeto de Teste Apollo–Soyuz (ASTP, sigla em inglês), envolvendo o encontro e acoplamento na órbita da Terra de um módulo de comando e serviço da Apollo excedente com uma espaçonave Soyuz. A missão ocorreu em 17 de julho de 1975. Este foi o último voo espacial humano dos Estados Unidos até o primeiro voo orbital do ônibus espacial em abril de 1981. A missão incluiu experimentos científicos conjuntos e separados e forneceu experiência útil de engenharia para futuros voos espaciais conjuntos entre Estados Unidos e Rússia (Estado sucessor da União Soviética), como o programa Shuttle-Mir e a Estação Espacial Internacional. Simbolicamente, o acoplamento "Apollo–Soyuz" marcou o fim da corrida espacial. Voos espaciais tripulados modernos. Ônibus espacial (1972–2011). O ônibus espacial se tornou o principal foco da NASA no final dos anos 1970 e 1980. Originalmente planejado como um veículo totalmente reutilizável, o projeto foi alterado para usar um tanque de propelente externo descartável para reduzir o custo de desenvolvimento, e quatro orbitadores do ônibus espacial foram construídos em 1985. O primeiro a ser lançado, "Columbia", o fez em 12 de abril, 1981, o 20º aniversário do primeiro voo espacial humano. Seus principais componentes eram um avião espacial orbitador com um tanque de combustível externo e dois foguetes de lançamento de combustível sólido ao lado. O tanque externo, maior do que a própria espaçonave, era o único componente importante que não era reutilizado. O ônibus espacial podia orbitar em altitudes de 185-643 km (115-400 milhas) e transportar uma carga útil máxima (para órbita baixa) de 24 400 kg (54 000 lb). As missões podiam durar de 5 a 17 dias e as tripulações podiam ter de dois a oito astronautas. Em 20 missões (1983–1998), o ônibus espacial transportou o Spacelab, projetado em cooperação com a Agência Espacial Europeia (ESA). O Spacelab não foi projetado para voos orbitais independentes, mas permaneceu no compartimento de carga do ônibus espacial enquanto os astronautas entravam e saíam por uma eclusa de descompressão. Em 18 de junho de 1983, Sally Ride se tornou a primeira mulher americana no espaço, a bordo do "Challenger" durante a missão STS-7. Outra famosa série de missões foi o lançamento e, posteriormente, o reparo bem-sucedido do Telescópio Espacial Hubble em 1990 e 1993, respectivamente. A frota de ônibus espaciais perdeu dois orbitadores e 14 astronautas em dois desastres: o "Challenger" em 1986 e o "Columbia" em 2003. Enquanto a perda de 1986 foi mitigada pela construção do ônibus espacial "Endeavour" a partir de peças de reposição, a NASA não construiu outro orbitador para substituir a segunda perda. O programa do ônibus espacial da NASA tinha 135 missões quando terminou com o pouso bem-sucedido do ônibus espacial "Atlantis" no Centro Espacial Kennedy em 21 de julho de 2011. O programa durou 30 anos com mais de 300 astronautas enviados ao espaço. Estação Espacial Internacional (1993–presente). A Estação Espacial Internacional (EEI) combina o projeto da estação espacial "Freedom" da NASA com a estação soviética/russa "Mir-2", a estação europeia "Columbus" e o módulo de laboratório japonês "Kibō". [68] A NASA planejou originalmente na década de 1980 desenvolver sozinha a "Freedom", mas as restrições orçamentárias levaram à fusão desses projetos em um único programa multinacional em 1993, administrado pela NASA, a Agência Espacial Federal Russa (RKA), a Agência Japonesa de Exploração Aeroespacial (JAXA), a Agência Espacial Europeia (ESA) e a Agência Espacial Canadense (CSA). A estação consiste em módulos pressurizados, treliças externas, painéis solares e outros componentes, que foram fabricados ao redor do mundo e foram lançados pelos foguetes russos Proton e Soyuz e os ônibus espaciais estadunidenses. A montagem em órbita começou em 1998, a conclusão do Segmento Orbital dos EUA ocorreu em 2019 e a conclusão do Segmento Orbital Russo ocorreu em 2010, embora haja alguns debates sobre se novos módulos devem ser adicionados ao segmento. A propriedade e o uso da estação espacial são estabelecidos em tratados e acordos intergovernamentais que dividem a estação em duas áreas e permitem que a Rússia retenha a propriedade total do Segmento Orbital Russo (com exceção do "Zarya"), com o segmento orbital dos EUA alocado entre os outros parceiros internacionais. As missões de longa duração à EEI são chamadas de expedições. Os membros da tripulação da expedição normalmente passam cerca de seis meses na EEI. O tamanho inicial da tripulação da expedição era de três pessoas, temporariamente reduzido para dois após o desastre do "Columbia". Desde maio de 2009, o tamanho da tripulação de expedição era de seis membros, o que deverá ser aumentado para sete, o número para o qual a EEI foi projetada, uma vez que o Programa de Tripulações Comerciais se torne operacional. A EEI está continuamente ocupada há 21 anos, tendo superado o recorde anterior da Mir; e foi visitada por astronautas e cosmonautas de 15 nações diferentes. A estação pode ser vista a partir da Terra a olho nu e, em 2021, era o maior satélite artificial na órbita terrestre com massa e volume maiores do que qualquer estação espacial anterior. A espaçonave Soyuz entrega os membros da tripulação, fica atracada para as missões de meio ano e os leva de volta para casa. Várias naves espaciais de carga sem tripulação fornecem serviço para a EEI; eles são a espaçonave russa Progress, que tem feito isso desde 2000, o Veículo de Transferência Automatizado (ATV) europeu desde 2008, o Veículo de Transferência H-II (HTV) japonês desde 2009, o SpaceX Dragon de 2012 a 2020 e a espaçonave estadunidense Cygnus desde 2013. O ônibus espacial, antes de sua aposentadoria, também era usado para transferência de carga e frequentemente trocava membros da tripulação da expedição, embora não tivesse a capacidade de permanecer atracado durante sua estada. Até que outra nave espacial com tripulação dos Estados Unidos esteja pronta, os membros da tripulação viajarão de e para a Estação Espacial Internacional exclusivamente a bordo da Soyuz. O maior número de pessoas ocupando a EEI foi treze; isso ocorreu três vezes durante as últimas missões de montagem. Em 29 de março de 2019, a EEI estava programada para ter sua primeira caminhada espacial exclusivamente feminina, mas foi adiada; Jessica Meir e Christina Koch realizaram a primeira caminhada espacial exclusivamente feminina em 18 de outubro, como parte de uma longa série de atualizações nos sistemas de energia e observatórios de física da EEI. O programa EEI deve continuar ativo até 2030. Programa Constellation (2005–2010). Enquanto o programa do ônibus espacial ainda estava suspenso após a perda do "Columbia", o presidente George W. Bush anunciou a Vision for Space Exploration, que incluía a aposentadoria do ônibus espacial após concluir a Estação Espacial Internacional. O plano foi transformado em lei pelo NASA Authorization Act de 2005 e orienta a NASA a desenvolver e lançar o Veículo de Exploração Tripulado (mais tarde chamado de Orion) em 2010, retornar os estadunidenses à Lua em 2020, pousar em Marte se possível, reparar o Telescópio Espacial Hubble e continuar a investigação científica através da exploração robótica do Sistema Solar, da presença humana na Estação Espacial Internacional, na observação da Terra e na pesquisa astrofísica. Os objetivos de exploração tripulados levaram ao programa Constellation da NASA. Em 4 de dezembro de 2006, a NASA anunciou que estava planejando uma base lunar permanente. O objetivo era começar a construir a base em 2020 e, em 2024, ter uma base totalmente funcional que permitiria a rotação da tripulação e a utilização de recursos "in-situ". No entanto, em 2009, um comitê do Congresso dos Estados Unidos concluiu que o programa estava em uma "trajetória insustentável". Em fevereiro de 2010, a administração do presidente Barack Obama propôs eliminar os fundos públicos para o projeto. Programa de Tripulações Comerciais (2011-presente). O Programa de Tripulações Comerciais (CCP, sigla em inglês) fornece serviço de transporte de tripulação operado comercialmente de e para a Estação Espacial Internacional (EEI) sob contrato com a NASA, conduzindo rotações de tripulação entre as expedições do programa da EEI. A fabricante aeroespacial estadunidense SpaceX começou a fornecer serviços em 2020, usando a espaçonave Crew Dragon, e a NASA planeja adicionar a Boeing quando sua espaçonave Boeing Starliner entrar em operação algum tempo depois de 2022. A espaçonave pertence e é operada pelo vendedor e o transporte da tripulação é fornecido à NASA como um serviço comercial. Cada missão envia até quatro astronautas para a EEI, com opção para um quinto passageiro disponível. Os voos operacionais ocorrem aproximadamente uma vez a cada seis meses para missões que duram aproximadamente seis meses. Uma espaçonave permanece ancorada na EEI durante sua missão, e as missões geralmente se sobrepõem por pelo menos alguns dias. Entre a aposentadoria do ônibus espacial em 2011 e a primeira missão operacional do CCP em 2020, a NASA contou com o programa Soyuz para transportar seus astronautas para a EEI. Uma espaçonave Crew Dragon é lançada ao espaço no topo de um veículo de lançamento Falcon 9 e a cápsula retorna à Terra através de um mergulho no Oceano Atlântico. A primeira missão operacional do programa, SpaceX Crew-1, foi lançada em 16 de novembro de 2020. A espaçonave Boeing Starliner participará após seu voo de teste final, lançado no topo de um Atlas V N22 ou veículo de lançamento Vulcan Centaur. Em vez de cair no oceano, uma cápsula Starliner retornará à terra com airbags em um dos quatro locais designados no oeste dos Estados Unidos. Programa Artemis (2017-presente). Desde 2017, o programa de voos espaciais tripulados da NASA tem sido o programa Artemis, que envolve a ajuda de empresas privadas de voos espaciais comerciais dos Estados Unidos e parceiros internacionais, como ESA, JAXA e CSA. O objetivo deste programa é pousar "a primeira mulher e o próximo homem" na região do polo sul lunar até 2024. Artemis seria o primeiro passo em direção ao objetivo de longo prazo de estabelecer uma presença sustentável na Lua, lançando as bases para que empresas privadas construam uma economia lunar e, eventualmente, enviem humanos a Marte. A espaçonave Orion foi adiado do programa Constellation, que foi cancelado, para o projeto Artemis. O Artemis 1 é o lançamento inicial desengatado do Sistema de Lançamento Espacial (SLS) que também enviaria uma espaçonave Orion em uma órbita retrógrada distante. A próxima grande iniciativa espacial da NASA será a construção da estação espacial Lunar Gateway. Esta iniciativa envolverá a construção de uma nova estação espacial, que terá muitas características em comum com a atual Estação Espacial Internacional, exceto que estará em órbita ao redor da Lua, ao invés da Terra. Esta estação espacial será projetada principalmente para habitação humana não contínua. Os primeiros passos provisórios para retornar às missões lunares tripuladas serão Artemis 2, que incluirá o módulo de tripulação Orion, impulsionado pelo SLS, e será lançado em 2023. Esta missão é para ser uma missão de 10 dias planejada para colocar brevemente uma tripulação de quatro pessoas em um sobrevoo lunar. A construção do Lunar Gateway começaria com o Artemis 3, que está planejado para entregar uma tripulação de quatro pessoas à órbita lunar junto com os primeiros módulos do Lunar Gateway. Essa missão duraria até 30 dias. A NASA planeja construir habitats em grande escala no espaço profundo, como o Lunar Gateway e o Nautilus-X, como parte de seu programa Next Space Technologies for Exploration Partnerships (NextSTEP). Em 2017, a NASA foi orientada pelo NASA Transition Authorization Act de 2017 para levar humanos à órbita de Marte (ou à superfície marciana) até 2030. Em 16 de abril de 2021, a NASA anunciou que havia selecionado a SpaceX Lunar Starship como seu sistema de pouso humano. O foguete do Sistema de Lançamento Espacial da agência lançará quatro astronautas a bordo da espaçonave Orion para sua jornada de vários dias à órbita lunar, onde serão transferidos para a nave espacial da SpaceX para a etapa final de sua jornada à superfície da Lua. Satélites, sondas, rovers, veículos de lançamento. A NASA conduziu muitos programas de voos espaciais robóticos e não tripulados ao longo de sua história. Programas robóticos lançaram os primeiros satélites artificiais estadunidenses na órbita terrestre para fins científicos e de comunicação, além de terem enviado sondas científicas para explorar os planetas do Sistema Solar, começando com Vênus e Marte, e incluindo "grandes viagens" aos planetas exteriores. Mais de 1 000 missões não planejadas foram projetadas para explorar a Terra e o Sistema Solar. Terra, Lua e ponto L2. Além da exploração, os satélites de comunicação também foram lançados pela NASA. As espaçonaves foram lançadas diretamente da Terra ou de ônibus espaciais em órbita, que poderiam lançar o próprio satélite ou com um estágio de foguete para levá-lo mais longe. O primeiro satélite norte-americano não tripulado foi o Explorer 1, que começou como um projeto ABMA/JPL durante a primeira parte da corrida espacial. Foi lançado em janeiro de 1958, dois meses após o Sputnik. Na criação da NASA, o projeto Explorer foi transferido para a agência e continua até hoje. Suas missões têm se concentrado na Terra e no Sol, medindo campos magnéticos e o vento solar, entre outros aspectos. Um satélite mais recente da Terra, não relacionado ao programa Explorer, foi o Telescópio Espacial Hubble, que foi colocado em órbita em 1990. Cygnus e Cargo Dragon são usados ​​para reabastecer a Estação Espacial Internacional (EEI) como parte do programa Commercial Resupply Services (CRS) da NASA a partir de 2020. A Cygnus é fabricada pela Northrop Grumman e lançado no foguete Antares. A Cargo Dragon é fabricada pela SpaceX e lançado na variante Bloco 5 do Falcon 9. O SpaceX Dragon, também lançado no Falcon 9, foi usado para reabastecer a EEI de 2010 a 2020. O Telescópio Espacial James Webb (JWST) está programado para ser lançado em novembro de 2021 em um foguete Ariane 5. Ele será colocado em uma órbita de halo circulando o ponto L2 Sol-Terra. Sistema Solar interno (incluindo Marte). O Sistema Solar interno tornou-se o objetivo de pelo menos quatro programas não elaborados. O primeiro foi o Programa Mariner nas décadas de 1960 e 1970, que fez várias visitas a Vênus e Marte e uma a Mercúrio. As sondas lançadas no programa Mariner foram também as primeiras a fazer um sobrevoo planetário ("Mariner 2"), a tirar as primeiras fotos de outro planeta ("Mariner 4"), o primeiro orbitador planetário ("Mariner 9") e o primeiro a fazer uma manobra de auxílio gravitacional ("Mariner 10"). Esta é uma técnica em que o satélite aproveita a gravidade e a velocidade dos planetas para chegar ao seu destino. O primeiro pouso bem-sucedido em Marte foi feito pela "Viking 1" em 1976. Vinte anos depois, um rover pousou em Marte pela "Mars Pathfinder". Em 26 de novembro de 2011, a missão "Mars Science Laboratory" da NASA foi lançada com sucesso para Marte. O rover "Curiosity" pousou com sucesso em Marte em 6 de agosto de 2012 e, posteriormente, começou sua busca por evidências de vida passada ou presente em Marte. No horizonte dos planos da NASA está a espaçonave MAVEN como parte do Programa de Exploração de Marte para estudar a atmosfera marciana. As investigações em andamento da NASA incluem pesquisas aprofundadas de Marte ("Perseverance" e "InSight"). Sistema Solar externo. Fora de Marte, Júpiter foi visitado pela primeira vez pela "Pioneer 10" em 1973. Mais de 20 anos depois, a "Galileo" enviou uma sonda na atmosfera do planeta e se tornou a primeira espaçonave a orbitar o planeta. A "Pioneer 11" se tornou a primeira espaçonave a visitar Saturno em 1979, com a "Voyager 2" fazendo as primeiras (e até agora as únicas) visitas a Urano e Netuno em 1986 e 1989, respectivamente. A primeira espaçonave a deixar o sistema solar foi a "Pioneer 10" em 1983. Por um tempo foi a espaçonave mais distante, mas desde então foi superada pela "Voyager 1" e "Voyager 2". Os "Pioneers" 10 e 11 e ambas as sondas "Voyager" carregam mensagens da Terra para a vida extraterrestre. A comunicação pode ser difícil com viagens espaciais profundas. Por exemplo, levou cerca de três horas para um sinal de rádio chegar à espaçonave "New Horizons" quando estava mais da metade do caminho para Plutão. O contato com a "Pioneer 10" foi perdido em 2003. Ambas as sondas "Voyager" continuam a operar enquanto exploram a fronteira externa entre o Sistema Solar e o espaço interestelar. A missão "New Horizons" para Plutão foi lançada em 2006 e realizou com sucesso um sobrevoo do planeta anão em 14 de julho de 2015. A sonda recebeu uma assistência de gravidade de Júpiter em fevereiro de 2007, examinando algumas das luas internas de Júpiter e testando instrumentos a bordo durante o sobrevoo. Outras espaçonaves ativas são a "Juno" em Júpiter e a "Dawn" no cinturão de asteroides. A NASA continuou a apoiar a exploração "in situ" além do cinturão de asteroides, incluindo as travessias da "Pioneer" e da "Voyager" para a região trans-Plutão inexplorada e os orbitadores "Galileo" (1989–2003), "Cassini-Huygens" (1997–2017) e "Juno" (2011 – presente), que orbitam gigantes gasosos. Estrutura. Liderança. O líder da agência, o Administrador da NASA, é nomeado pelo Presidente dos Estados Unidos, sujeito à aprovação do Senado dos Estados Unidos, e se reporta a ele ou a ela, servindo como consultor sênior de ciências espaciais. Embora a exploração do espaço seja ostensivamente apartidária, o nomeado geralmente está associado ao partido político do presidente (democrata ou republicano), e um novo administrador geralmente é escolhido quando a presidência muda de partido. As únicas exceções a isso foram: O primeiro administrador foi o Dr. T. Keith Glennan, nomeado pelo presidente republicano Dwight D. Eisenhower. Durante seu mandato, ele reuniu os projetos díspares na pesquisa de desenvolvimento espacial estadunidense. A administração da agência está localizada na sede da NASA em Washington, DC, e fornece orientação e direção geral. Exceto em circunstâncias excepcionais, os funcionários do serviço público da NASA devem ser cidadãos dos Estados Unidos. Orçamento. A participação da NASA no total do orçamento do governo federal dos Estados Unidos atingiu um pico de aproximadamente 4,41% em 1966 durante o programa Apollo, depois caiu rapidamente para aproximadamente 1% em 1975 e permaneceu nesse nível até 1998. A porcentagem então caiu gradualmente, até se estabilizar novamente em cerca de meio por cento em 2006 (estimado em 2012 em 0,48% do orçamento federal). Em uma audiência em março de 2012 do Comitê Científico do Senado dos Estados Unidos, o comunicador científico Neil deGrasse Tyson testemunhou: "No momento, o orçamento anual da NASA é meio centavo em seus impostos. Por duas vezes isso — um centavo por dólar — podemos transformar o país de uma nação taciturna e desanimada, cansada da luta econômica, em um país que reivindicou seu direito de nascença do século XX de sonhar com o amanhã". Apesar disso, a percepção pública do orçamento da NASA difere significativamente: uma pesquisa de 1997 indicou que a maioria dos estadunidenses acreditava que 20% do orçamento federal ia para a NASA. Para o ano fiscal de 2015, a NASA recebeu uma dotação de 18,01 bilhões de dólares do Congresso — 549 milhões a mais do que o solicitado e aproximadamente 350 milhões a mais do que o orçamento da NASA de 2014 aprovado pelo Congresso. No ano fiscal de 2016, a NASA recebeu 19,3 bilhões de dólares. O presidente Donald Trump assinou a Lei de Autorização de Transição da NASA de 2017 em março, que definiu o orçamento de 2017 em cerca de 19,5 bilhões de dólares. O orçamento também é relatado como 19,3 bilhões de dólares para 2017, com 20,7 bilhões de dólares para o ano fiscal de 2018. Instalações. A sede da NASA em Washington, DC fornece orientação geral e liderança política para os dez centros de campo da agência, através dos quais todas as outras instalações são administradas. Quatro deles foram herdados do NACA; dois outros foram transferidos do Exército; e a NASA comissionou e construiu os outros quatro ela mesma logo após sua formação. Herdadas do NACA. O Centro de Pesquisa Langley (LaRC), localizado em Hampton, Virginia, concentra-se na pesquisa aeronáutica, embora o Módulo Lunar Apollo tenha sido testado em voo nas instalações e uma série de missões espaciais de alto perfil tenham sido planejadas e projetadas no local. O LaRC foi a casa original do Grupo de Tarefas Espaciais. O Centro de Pesquisa Ames (ARC) no Condado de Santa Clara, na Califórnia, foi fundado em 20 de dezembro de 1939. O centro foi nomeado em homenagem a Joseph Sweetman Ames, um membro fundador do NACA. O ARC é um dos 10 principais centros de campo da NASA e está localizado no Vale do Silício. Historicamente, o Ames foi fundado para fazer pesquisas em túneis de vento sobre a aerodinâmica de aeronaves movidas a hélice; no entanto, expandiu seu papel para fazer pesquisa e tecnologia em aeronáutica, voos espaciais e tecnologia da informação. Ele fornece liderança em astrobiologia, pequenos satélites, exploração lunar robótica, sistemas inteligentes/adaptativos e proteção térmica. O Centro de Pesquisa John H. Glenn tem entre suas principais competências a respiração aérea e a propulsão no espaço e criogenia, comunicações, armazenamento e conversão de energia elétrica, ciências da microgravidade e materiais avançados. Está localizado nas cidades de Brook Park, Cleveland e Fairview Park, no estado de Ohio. O Centro de Pesquisa de Voo Neil A. Armstrong (AFRC), estabelecido pela NACA antes de 1946 e localizado dentro da Base Aérea de Edwards, é a casa do Space Carrier Shuttle Aircraft (SCA), um Boeing 747 modificado projetado para transportar um ônibus espacial orbital de volta a Centro Espacial Kennedy após um pouso em Edwards. Em 16 de janeiro de 2014, o centro foi renomeado em homenagem a Neil Armstrong, o primeiro astronauta a andar na Lua. Transferidas do Exército. O Laboratório de Propulsão a Jato (JPL), localizado na área de Vale de San Gabriel no Condado de Los Angeles, na Califórnia, está sediado na cidade de La Cañada Flintridge com um endereço de correspondência de Pasadena. O JPL é administrado pelo California Institute of Technology (Caltech), nas proximidades. A função primária do laboratório é a construção e operação de espaçonaves planetárias robóticas, embora também conduza missões em órbita terrestre e astronomia. Também é responsável por operar a Deep Space Network da NASA. O Centro de Voos Espaciais George C. Marshall (MSFC), localizado no Redstone Arsenal perto de Huntsville, Alabama, é um dos maiores centros da NASA. O MSFC é onde o foguete Saturno V e o Spacelab foram desenvolvidos. Marshall é o principal centro da NASA para projeto e montagem da Estação Espacial Internacional (EEI); cargas úteis e treinamento de tripulação relacionado; e foi o líder para a propulsão do ônibus espacial e seu tanque externo. A partir de dezembro de 1959, continha a Diretoria de Operações de Lançamento, que se mudou para a Flórida para se tornar o Centro de Operações de Lançamento em 1º de julho de 1962. Construídas pela NASA. O Centro de Voos Espaciais Goddard (GSFC), localizado em Greenbelt, Maryland, foi encomendado pela NASA em 1 de março de 1959. É a maior organização combinada de cientistas e engenheiros nos Estados Unidos dedicada a aumentar o conhecimento da Terra, o Sistema Solar e o Universo por meio de observações do espaço. O GSFC é um importante laboratório dos EUA para o desenvolvimento e operação de espaçonaves científicas não tripuladas e também opera duas redes de rastreamento de voos espaciais e aquisição de dados, desenvolve e mantém sistemas avançados de informação de dados de ciências da Terra e espaciais, e desenvolve sistemas de satélite para a Administração Oceânica e Atmosférica Nacional (NOAA). O Centro Espacial John C. Stennis, originalmente o "Centro de Testes do Mississippi", está localizado no Condado de Hancock, Mississippi, nas margens do Rio Pearl na fronteira do Mississippi com a Louisiana. Comissionado em 25 de outubro de 1961, foi a maior instalação de teste de motores de foguetes da NASA até o final do programa do ônibus espacial. Atualmente é usado para teste de foguetes por mais de 30 empresas e agências locais, estaduais, nacionais, internacionais, privadas e públicas. Ele contém o Centro de Serviços Compartilhados da NASA. O Centro Espacial Lyndon B. Johnson (MSC) é o centro da NASA para treinamento, pesquisa e controle de voo em voos espaciais humanos. Criada em 1º de novembro de 1961, a instalação consiste em um complexo de 100 edifícios construídos em 1962-1963 em 1.620 acres (656 ha) de terras doadas pela Universidade Rice em Houston, Texas. O centro surgiu do Grupo de Tarefas Espaciais formado logo após a criação da NASA para coordenar o programa de voos espaciais humanos dos Estados Unidos. É a casa do Corpo de Astronautas dos Estados Unidos e é responsável pelo treinamento de astronautas dos EUA e seus parceiros internacionais, e inclui o Centro de Controle de Missão Christopher C. Kraft Jr.. O centro foi renomeado em homenagem ao falecido presidente estadunidense e nativo do Texas, Lyndon B. Johnson, em 19 de fevereiro de 1973. O Centro Espacial John F. Kennedy (KSC), localizado a oeste da Estação da Força Espacial de Cabo Canaveral, na Flórida, é uma das instalações mais conhecidas da NASA. Chamado de "Centro de Operações de Lançamento" em sua criação em 1º de julho de 1962, foi renomeado em homenagem ao falecido presidente dos Estados Unidos em 29 de novembro de 1963, e tem sido o local de lançamento para todos os voos espaciais tripulados dos Estados Unidos desde 1968. O KSC continua a gerenciar e operar instalações de lançamento de foguetes não tripulados para o programa espacial civil dos Estados Unidos a partir de três plataformas no Cabo Canaveral. Seu Vehicle Assembly Building (VAB) é a quarta maior estrutura do mundo em volume e era a maior quando foi concluída em 1965. Um total de 13,1 mil pessoas trabalhavam no centro em 2011. Aproximadamente 2,1 mil são funcionários do governo federal; o resto são empreiteiros.
1358
Nicolau Maquiavel
Nicolau Maquiavel Nicolau Maquiavel (; Florença, 3 de maio de 1469 — Florença, 21 de junho de 1527) foi um filósofo, historiador, poeta, diplomata e músico de origem florentina do Renascimento. É reconhecido como fundador do pensamento e da ciência política moderna, pelo fato de ter escrito sobre o Estado e o governo como realmente são, e não como deveriam ser. Desde as primeiras críticas, feitas postumamente pelo cardeal inglês Reginald Pole, cunhou-se um entendimento equivocado da obra completa de Maquiavel. Com o choque de realidade causado pelas suas ideias sobre a dinâmica do poder, seus textos geraram uma ameaça aos valores cristãos vigentes, principalmente devido às análises do poder político da igreja católica contidas em "O Príncipe". Já na literatura e teatro ingleses do século XVII, foi associado diretamente ao Diabo por meio das referências caricaturais e do apelido "Old Nick". Surgiu, aí, na visão do pensamento enganoso e da trapaça, o adjetivo "maquiavélico" nas línguas ocidentais"." Maquiavel viveu a juventude sob o esplendor político da República Florentina durante o governo de Lourenço de Médici. Entrou para a política aos 29 anos de idade no cargo de Secretário da Segunda Chancelaria. Nesse cargo, Maquiavel observou o comportamento de grandes nomes da época e a partir dessa experiência retirou alguns postulados para sua obra. Depois de servir em Florença durante catorze anos foi afastado e escreveu suas principais obras. Conseguiu também algumas missões de pequena importância, mas jamais voltou ao seu antigo posto como desejava. Como renascentista, Maquiavel utilizou-se de autores e conceitos da Antiguidade Clássica de maneira nova. Um dos principais autores foi Tito Lívio, além de outros lidos através de traduções latinas, e entre os conceitos apropriados por ele encontram-se o de "virtù" e o de "fortuna". Período histórico de Maquiavel. Durante o Renascimento, as cinco principais potências na península Itálica eram o Ducado de Milão, a República de Veneza, a República Florentina, o Reino de Nápoles e os Estados Papais. A maior parte dos Estados da península era ilegítima, tomados por mercenários chamados "condottieri". Foram incapazes de se aliar durante muito tempo estando entregues à intriga diplomática e às disputas, e, por suas riquezas, eram atrativos para as demais potências europeias do período, principalmente Espanha e França. A política italiana era, portanto, muito complexa e os interesses políticos estavam sempre divididos. Batalhando entre si, ficavam à mercê das ambições estrangeiras, mas a influência de alguém como Lourenço de Médici havia impedido uma invasão. Com a morte deste em 1492, e a inaptidão política de seu filho, a Itália foi invadida por Carlos VIII, causando a expulsão dos Médici de Florença. Esta era palco do conflito entre duas tendências: a da exaltação pagã do indivíduo, da vida e da glória histórica, representada por Lourenço de Médici e seu irmão Juliano de Médici; e a da contemplação cristã do mundo, voltada para o além, que se formava como resposta ao ressurgimento da primeira nos mais variados aspectos da vida, como a arte, e até na Igreja, representada por religiosos como Girolamo Savonarola. Anunciando a chegada de Carlos VIII como a de um salvador, contrário aos Médici e com grande apoio popular, o pregador Girolamo Savonarola tornou-se a figura mais importante da cidade dando ao governo um viés teocrático-democrático. Com sua crescente autoridade e influência, Savonarola passou a criticar os padres de Roma como corruptos e o papa Alexandre VI por seu nepotismo e imoralidade. Em 12 de maio de 1497, o papa excomungou o frade, mas a excomunhão foi declarada inválida por ele. No entanto, Savonarola acabou preso e executado pelo governo provisório em 23 de maio de 1498. Com a demissão de seus simpatizantes, cinco dias depois da morte do frade, Maquiavel, com 29 anos, foi nomeado para o cargo de secretário da Segunda Chancelaria de Florença. Juventude. Pouco se conhece da biografia de Maquiavel antes de entrar para a vida pública. Ele era o terceiro de quatro filhos de Bernardo e Bartolomea de' Nelli. Bernardo era jurista e tesoureiro de uma província italiana chamada Marca de Ancona. A mãe era próxima da nobre família de Florença. Sua família era toscana, antiga e empobrecida. Iniciou seus estudos de latim com sete anos e, posteriormente, estudou também o ábaco, bem como os fundamentos da língua grega antiga. Comparada com a de outros humanistas sua educação foi fraca, principalmente por causa dos poucos recursos da família. Não se sabe ao certo o que teria levado à escolha de Maquiavel para a chancelaria em 19 de junho de 1498. Alguns autores afirmam que ele teria trabalhado aí como auxiliar em 1494 ou 1495, hipótese contestada atualmente. Outros preferem atribuir a sua entrada à escolha de um antigo professor seu, Marcelo Virgilio Adriani, o qual ele teria conhecido em aulas na Universidade Pública de Florença e naquele momento era Secretário da Primeira Chancelaria. Segunda Chancelaria. A principal instituição de Florença nesse período era a Senhoria com diversos órgãos auxiliares como as duas chancelarias. A primeira chancelaria era responsável pela política externa e pela correspondência com o exterior. A segunda ocupava-se com as guerras e a política interna. No entanto, essas funções muitas vezes se sobrepunham e a autoridade da primeira chancelaria prevalecia sobre a da segunda. Entre as funções exercidas por Maquiavel, estavam tarefas burocráticas e de assessoria política, de diplomacia e de comando no Conselho dos Dez, um outro órgão auxiliar da Senhoria. Primeiras missões diplomáticas. A primeira de suas missões foi a de convencer um "condotiero" a continuar recebendo o mesmo soldo. Nesse momento, o governo da República de Florença desejava reaver o controle de Pisa que havia aproveitado a passagem de Carlos VIII para rebelar-se, de forma que, ao realizar essa primeira missão de forma satisfatória, foi enviado em julho de 1499 para negociar com Catarina Sforza, duquesa de Ímola e Forlì a renovação da "condota" de seu filho Otaviano e para tentar conseguir o auxílio dela com soldados e artilharia para a tomada de Pisa. O governo de Florença contratara o filho da duquesa por 15 mil ducados sabendo-o mau estrategista militar e Maquiavel tinha como instruções, diminuir o soldo e conseguir tropas e munição para a retomada de Pisa. Ele conseguiu de forma satisfatória reduzir o soldo a 12 mil ducados e não comprometeu a cidade na defesa de Ímola e Forlì como queria Catarina. A partir dessa primeira missão, escreveu o "Discorso fatto al Magistrato dei Dieci sopra le cose di Pisa", de 1499, seu primeiro escrito político. Missão à corte francesa. Pouco depois Luís XII, sucessor de Carlos VIII, conquistou o Ducado de Milão a Ludovico Sforza e, em troca de seu apoio, a República Florentina solicitou o auxílio deste na guerra contra a República de Pisa. Luís XII enviou um exército mercenário que se mostrou indisciplinado e desinteressado pela luta, tendo até mesmo prendido um comissário de Florença. Logo foi necessário enviar representantes à corte francesa em Nevers para relatar a situação e encontrar uma solução sem, entretanto, irritar o rei. Para isso, foram enviados Francisco della Casa e Maquiavel. Pouco antes de ir, seu pai morreu e ficou só com o irmão Toto, que em breve se dedicaria à vida eclesiástica, pois as duas irmãs já haviam se casado. Aos dois, o rei respondeu que parte da culpa pelo fracasso era de Florença e inclusive insistiu para que o ataque a Pisa continuasse às custas da cidade para reparar a honra do rei. Sem poderes para negociar, Maquiavel limitou-se a aconselhar a Senhoria durante o período em que acompanhou a corte através de França e a solicitar o envio de embaixadores que pudessem tratar destes assuntos com mais autoridade. Aí pôde conhecer um pouco mais sobre uma nação que se havia unificado em torno de um rei, diferentemente da Itália. Depois de mais duas viagens à França anos depois, reuniria suas observações sobre a política francesa em dois textos: "Ritrati delle cose di Francia" (1510) e "De natura gallorum". De volta à cidade, em 1501, casou-se com Marietta Corsini, com quem teria quatro filhos e duas filhas (Bernardo, Ludovico, Piero, Guido, Bartolomea e outra menina morta na primeira infância), mas teve logo que viajar de novo, pois os partidos políticos de Pistoia, outra cidade submetida a Florença, haviam se unido e ameaçavam rebelar-se. Maquiavel foi de opinião que se deveria dar fim e proibir tais partidos. César Bórgia. Entre 1502 e 1503, Maquiavel teve contato com César Bórgia, filho do papa Alexandre VI, um cruel e ambicioso "condotiero." César Bórgia (conhecido também como Duque Valentino), por volta de 1501 como "condotiero" da Igreja e filho do papa, vinha conquistando territórios na Toscana, como Faença, em 25 de abril. Acercou-se de Florença com seus exércitos e exigiu que a cidade se aliasse a ele, pagasse-lhe um tributo e mudasse seu governo para um mais favorável a si. Quando os florentinos, sem opção, estavam prestes a ceder, Luís XII de França pressionou César Bórgia que foi obrigado a levantar acampamento. Dirigiu-se para Piombino, conquistando-a facilmente e também Pésaro e Rimini, após o quê voltou para Roma. César Bórgia percebeu que, com a aliança francesa, Florença seria um empecilho a seu plano de expansão e por isso solicitou o envio de representantes com os quais tratar de seus interesses. Para essa missão, em 24 de junho de 1502, foi enviado Francisco Soderini, tendo Maquiavel como secretário e auxílio. Durante a ida, surpreendeu-os a notícia da conquista do ducado de Urbino pelo duque Valentino: ele pediu um reforço de artilharia para a cidade e quando este lhe foi enviado, voltou-se contra o ducado. Chegadas as tropas francesas, os enviados puderam retornar. Após a retirada das tropas de Bórgia da Toscana, Maquiavel escreveu o "Sobre o modo de tratar os povos rebelados da Valdichiana" (1502) sua primeira obra sem relação com as atividades da Chancelaria, e foi neste período (22 de setembro de 1502) que ocorreu uma reforma na constituição florentina tornando o cargo de gonfaloneiro vitalício. Ele era ocupado por Piero Soderini, de quem Maquiavel tornou-se próximo. Nesse meio tempo, César Bórgia conquistou a seus próprios "condotieri" Città di Castello e Bolonha. Temendo o duque, estes se reuniram em Magione para conspirar contra ele. César Bórgia solicitou a Florença um embaixador para negociar uma aliança e enviaram-lhe Maquiavel, sem poderes de embaixador, em 5 de outubro de 1502, apenas com a incumbência de entregar os conjurados, afirmando que eles haviam convidado Florença para participar da conspiração, mas que esta havia se negado. A 9 de dezembro, César Bórgia marchou para Cesena com a intenção de dar fim ao conluio. Lá, mandou prender seu lugar-tenente, Ramiro de Lorque, que apareceu morto no dia seguinte. Dirigiu-se para Pésaro e depois, para Fano, ordenando que Orsini e Vitellozzo Vitelli, dois de seus subordinados, conquistassem Senigália (26 de dezembro) aonde, juntamente com Oliverotto de Fermo deveriam aguardá-lo. Foi aí que, ao chegar com suas tropas, mandou prender e, mais tarde, executar os três. Desse acontecimento deu Maquiavel sua análise no escrito: "Descrição da forma como procedeu o Duque Valentino para matar Vitellozzo Vitelli, Oliverotto da Fermo, o senhor Paolo e o Duque de Gravina Orsini" (1503). Pedindo ajuda florentina, mas sem esperá-la, partiu para conquistar Città di Castello, Perúgia, Corinaldo, Sassoferrato e Gualdo, de onde Maquiavel foi chamado de volta por ter sido nomeado um embaixador. Chegou a Florença em 23 de janeiro de 1508. Com a morte de Alexandre VI e tendo Júlio II se tornado Papa, César Bórgia perdeu seu apoio e veio a se enfraquecer. Feito prisioneiro duas vezes, morreu lutando pelo exército de Navarra, mas a figura de César Bórgia ficaria marcada para Maquiavel como a do perfeito representante de seu príncipe. Guarda florentina. Com a morte de César Bórgia, surgiu um novo problema: a expansão da República de Veneza pela Romanha que surpreendeu o papa, os florentinos e o imperador romano-germânico Maximiliano. Sentindo os perigos externos se avolumarem e, por outro lado, conhecendo a ineficiência das tropas mercenárias, Maquiavel solicitou a Soderini a permissão para criar um exército formado por cidadãos de Florença. Recebida a autorização após alguma resistência, iniciou imediatamente seus trabalhos e apenas cinco meses depois, em 15 de fevereiro de 1506 as novas tropas desfilaram na Piazza della Signoria. Pouco antes havia terminado o "Decennale primo", poema de 550 versos em "terça rima" que narravam os últimos dez anos e ao qual se seguiria o "Decennale secondo" (em 1509). Por essa época, o papa Júlio II decidiu retomar os domínios da Igreja conquistados por Veneza e pelos homens de Bórgia: Baglioni e Bentivoglio. Marchando contra eles, pediu ajuda de Florença mediante envio de tropas. Sem querer desguarnecer Pisa ou desgostar o papa, decidiu-se enviar Maquiavel para ganhar tempo. Ele acompanhou o papa até Perugia, onde assistiu espantado à rendição de Baglioni, pois não compreendia como ele havia deixado passar a oportunidade de prender o Papa, na sua visão, um príncipe invadindo seus domínios como outro qualquer. Não estava presente na tomada da Bolonha por que Florença finalmente enviou as tropas solicitadas, bem como um embaixador para substituí-lo. Queda de Soderini. Nesse período, Maximiliano I declarou ter a intenção de conquistar a Itália para restaurar o antigo Sacro Império Romano-Germânico fazendo-se coroar em Roma. Com isso, os florentinos decidiram enviar representantes para saber a que custo poderiam preservar a cidade. Maquiavel e Francesco Vettori — que se tornariam amigos daí em diante — foram encarregados dessa negociação, passam por Trento, Bolzano e Innsbruck em dezembro de 1507 e chegaram à corte, em Viena, em janeiro de 1508. Em 16 de junho de 1508, Maquiavel e Vettori retornam a Florença, pois Maximiliano seria derrotado pela República de Veneza. Ao retornar, Maquiavel passou a organizar as operações contra a República de Pisa, vencida em 4 de junho de 1509, após 15 anos de guerra. Da experiência com a viagem ao império, Maquiavel escreveria o "Ritratti delle cose dell'Alemagna" (1508-1512). Entrementes as hostilidades entre o papa e Veneza chegaram ao máximo. Em 25 de março de 1509, o papa Júlio II alia-se à Liga de Cambrai. Esta vence a República de Veneza em Agnadello (14 de maio), tomando a maior parte das possessões venezianas em terra firme. Por outro lado, decidindo que não poderia deixar a Itália cair em mãos estrangeiras, o papa formou uma aliança com a Espanha e Veneza contra a França. Os florentinos que sempre contaram com a ajuda do rei francês e que não queriam desagradar o papa viram-se divididos. Maquiavel foi enviado pela terceira vez à corte francesa para explicar a prudência dos florentinos apesar da exigência do rei de que esta se declarasse a seu favor. Sem sucesso, retornou em outubro de 1510 com a certeza de que haveria uma guerra entre a França e os Estados da Igreja. Após Luís XII ter convocado um concílio cismático contra o papa e este decidido reunir-se em Pisa, domínio florentino, o papa ameaçou Florença com a excomunhão e Maquiavel teve que negociar o afastamento da reunião. Apesar do sucesso da missão — os padres dirigiram-se para Milão — o papa resolveu dar fim ao governo de Soderini. Uniu-se ao rei de Aragão contra a França e como Florença se recusou a apoiá-lo, a Dieta de Mântua atacou a cidade e destituiu Soderini, trazendo os Médici de volta ao poder. Escrita das principais obras. Em 7 de novembro de 1512, Maquiavel foi demitido sob a acusação de ser um dos responsáveis por uma política anti-Médici e grande colaborador do governo anterior. Foi multado em mil florins de ouro e proibido de se retirar da Toscana durante um ano. Para piorar sua situação, no ano seguinte dois jovens, Agostino Capponi e Pietropolo Boscoli, foram presos e acusados de conspirarem contra o governo. Um deles deixou cair involuntariamente uma lista de possíveis adeptos do movimento republicano, entre os quais estava o de Maquiavel, que foi preso e torturado. Para sua sorte, com a morte do papa Júlio II em 21 de fevereiro de 1513 e a eleição de João de Médici, um florentino, como Leão X, todos os suspeitos de conspiração foram anistiados como sinal de regozijo e com eles Maquiavel, depois de passar 22 dias na prisão. Libertado, seguiu para uma propriedade no distrito de Sant'Andrea in Percussina distante 3,3 quilômetros da comuna de San Casciano dei Bagni, província de Florença. Foi durante esse ostracismo e inatividade, o qual duraria até sua morte, que ele escreveu suas obras mais conhecidas: O Príncipe e os Discursos sobre a Primeira Década de Tito Lívio (1512-1517). Foi também nesse período que conheceu vários escritores no Jardim Rucellai, círculo de literatos, e se aproximou de Francesco Guicciardini apesar de já conhecê-lo há tempos. Entre os escritos desse período estão o poema "Asino d'oro" (1517), a peça "A Mandrágora" (1518), considerada uma obra prima da comédia italiana, e "Novella di Belfagor" (romance, 1515), além de vários tratados histórico-político, poemas e sua correspondência particular (organizada pelos descendentes) como "Dialogo intorno alla nostra língua" (1514), "Andria" (1517), "Discorso sopra il riformare lo stato di Firenze" (1520), "Sommario delle cose della citta di Lucca" (1520), "Discorso delle cose florentine dopo la morte di Lorenzo" (1520), "Clizia", comédia em prosa (1525), "Frammenti storici" (1525) e outros poemas como "Sonetti", "Canzoni", "Ottave," e "Canti carnascialeschi". Com a morte de Lourenço II em 1520, Júlio de Médici, que depois tornou-se papa com o nome de Clemente VII, assumiu o poder em Florença. Ele via Maquiavel com melhores olhos que seus antecessores e o contratou como historiador da república para escrever uma História de Florença, obra à qual dedicaria os sete últimos anos de sua vida. Nesse mesmo ano, ele estava ocupado escrevendo "A Arte da Guerra" (1519-1520). E é a partir de uma viagem a trabalho a Luca que ele escreveu a "Vita di Castruccio Castracani da Lucca" (1520). Após a queda dos Médici, em 1527, com a invasão e saque de Roma pelas tropas espanholas de Carlos I, a república instalou-se novamente na cidade com o restabelecimento do Grande Conselho anteriormente instituído por Savonarola. Maquiavel viu mais uma vez suas esperanças de voltar a servir à cidade serem desfeitas, pois havia trabalhado para os Médici e foi tratado com desconfiança pela nova república. Poucos dias depois, ficou doente, sentindo dores intestinais. Morreu obscuramente em 21 de junho e no dia seguinte foi enterrado no túmulo da família na Basílica de Santa Cruz em Florença. O Príncipe. O "Príncipe" é provavelmente o livro mais conhecido de Maquiavel e foi completamente escrito em 1513, apesar de publicado postumamente, em 1532. Teve origem com a união de Juliano de Médici e do papa Leão X, com a qual Maquiavel viu a possibilidade de um príncipe finalmente unificar a Itália e defendê-la contra os estrangeiros, apesar de dedicar a obra a Lourenço II de Médici, mais jovem, de forma a estimulá-lo a realizar esta empreitada. Outra versão sobre a origem do livro, diz que ele o teria escrito em uma tentativa de obter favores dos Médici, contudo ambas as versões não são excludentes. Está dividido em 26 capítulos. No início ele apresenta os tipos de principado existentes e expõe as características de cada um deles. A partir daí, defende a necessidade do príncipe de basear suas forças em exércitos próprios, não em mercenários e, após tratar do governo propriamente dito e dos motivos por trás da fraqueza dos Estados italianos, conclui a obra fazendo uma exortação a que um novo príncipe conquiste e liberte a Itália. Em uma carta ao amigo Francesco Vettori, datada de 10 de dezembro de 1513, Maquiavel comenta sobre o escrito: Discursos sobre a primeira década de Tito Lívio. Os Discursos sobre a Primeira Década de Tito Lívio opõem-se a O Príncipe pelo tema, apesar de ambos compartilharem alguns conceitos. Foram pensados como análise e comentário a toda a obra de Tito Lívio, mas permaneceram incompletos, não passando da primeira década. Esta obra surgiu da vontade do autor de comparar as instituições da antiguidade, em especial as da Roma clássica, com as de Florença no período. Assim, seguindo a obra de Tito Lívio, analisa como surgem, se mantém e se extinguem os Estados. Ficou assim dividido em três partes, estudando na primeira a fundação e a organização, em seguida o enriquecimento e a expansão e por fim sua decadência. A Arte da Guerra. Entre 1519 e 1520, escreveu "Dell'arte della guerra" ("A Arte da Guerra"), o único de seus trabalhos sobre política publicado em seu tempo de vida. Em síntese, ele dá conselhos sobre como obter e manter força militar e defende que o preparo militar dos cidadãos é necessário para que eles e seu Estado mantenham a liberdade. Interpretações comuns. Há discordâncias sobre a melhor forma de descrever os temas unificadores que podem ser encontrados nas obras de Maquiavel, especialmente nas duas principais obras políticas, "O Príncipe" e os "Discursos". Alguns comentaristas o descreveram como inconsistente, outros, como Hans Baron, argumentaram que suas ideias devem ter mudado drasticamente ao longo do tempo. Alguns argumentaram que suas conclusões são melhor entendidas como um produto de seu tempo, suas experiências e sua educação. Outros, como Leo Strauss e Harvey Mansfield, argumentaram fortemente que há uma consistência e distinção muito fortes e deliberadas, chegando a argumentar que isso se estende a todos os trabalhos de Maquiavel, incluindo suas comédias e cartas. A obra de Maquiavel relaciona-se diretamente com o tempo no qual foi produzida. O método utilizado por ele rompe com a tradição medieval ao fundamentar-se no empirismo e na análise dos fatos recorrendo a experiência histórica da Roma Antiga ganha por ele em seus estudos. Além disso, ele foi o primeiro a propor uma ética para a política diferente da ética religiosa, ou seja, a finalidade da política seria a manutenção do Estado. O primeiro a se pronunciar sobre sua obra foi o cardeal inglês Reginald Pole, se dizendo horrorizado com a influência que ela teria sobre Thomas Cromwell. Os jesuítas o acusaram de ser contra a Igreja e convenceram o papa paulo IV a colocá-lo no Index Librorum Prohibitorum em 1559. Na França, um huguenote chamado Innocent Gentillet escreveu uma obra na qual o acusou de ateísmo e, seus métodos, de causadores do Massacre da noite de São Bartolomeu. Esta obra foi muito difundida na Inglaterra, contribuindo para a visão apresentada no teatro do século XVI. Em geral seus críticos se basearam em "O Príncipe", analisando a obra isoladamente das demais obras de Maquiavel e sem levar em conta o contexto no qual foi produzida. Houve também aqueles que quiseram conciliar seu pensamento com a Igreja ou torná-lo um nacionalista; sem muito sucesso, pois manipulavam seu pensamento da mesma forma. No presente, as análises feitas procuram levar em conta principalmente os "Discursos sobre a primeira década de Tito Lívio" e sua "A Arte da Guerra", contextualizando seus escritos e declarando que Maquiavel não inventou uma teoria política, apenas descreveu as práticas que viu refletindo sobre elas. Comentadores como Leo Strauss chegaram a nomear Maquiavel como o criador deliberado da própria modernidade. Outros argumentaram que Maquiavel é apenas um exemplo particularmente interessante de tendências que estavam acontecendo à sua época. De qualquer forma, Maquiavel se apresentou em vários momentos como alguém lembrando os italianos das velhas virtudes dos romanos e gregos, e outras vezes como alguém promovendo uma abordagem completamente nova da política. Conselheiro de tiranos. Essa análise começou a difundir-se com a Reforma e a Contrarreforma. Se até então suas obras eram ignoradas, a partir daí, o autor e suas obras passaram a ser vistos como perniciosos, sendo forjada a expressão "os fins justificam os meios", não encontrada em sua obra. Essa interpretação está ligada também a visão de seus escritos como base teórica do absolutismo, ao lado de Thomas Hobbes e Jacques-Bénigne Bossuet, sem, no entanto, contemplar-se os "Discursos sobre a primeira década de Tito Lívio" em que faz elogios à forma republicana de governo. Em sua obra "O Príncipe", defendeu a centralização do poder político e não propriamente o absolutismo. Suas considerações e recomendações aos governantes sobre a melhor maneira de administrar o governo caracterizam a obra como uma teoria do Estado moderno. Ele é, de fato, considerado o "pai da moderna teoria política". Maquiavel defende a ideia de que um estado forte depende de um governante eficaz, e para que ele seja bom, ele deve ter boas habilidades políticas. Para ele, são características relevantes de um bom príncipe, ser bondoso, caridoso, religioso e ter moral. Contudo, Maquiavel argumentava não ser necessário possui-las de fato, o governante devia apenas manter as aparências, pois o governo precisa do apoio e opinião pública; em momentos de crise a população deve ficar contra o governo. Maquiavel se preocupava em manter o Estado, por isso deixa conselhos para o soberano sobre como o fazer. Deste modo, ele apresenta propostas de como dominar nações. No caso de dominação sobre uma cultura diferente, ele apresenta três meios para tal feito. Dominação militar < Colonização < Mudança da capital No caso de dominação de um país de grande extensão, ele propõe duas alternativas: Centralizar burocraticamente < Descentralizar aristocraticamente Maquiavel ainda propõe explicações para dominar uma sociedade acostumada com suas próprias leis: Destruição < Transferência de capital < Tolerância conservadora Uma leitura apressada ou enviesada de Maquiavel poderia levar-nos a entendê-lo como um defensor da falta de ética na política, em que "os fins justificam os meios". Para entender sua teoria é necessário colocá-lo no contexto da Itália renascentista, em que se lutava contra os particularismos locais. Durante o século XVI, a península Itálica estava dividida em diversos pequenos Estados, entre repúblicas, monarquias, ducados, além dos Estados Papais. As disputas de poder entre esses territórios era constante, a ponto de os governantes contratarem os serviços do "condotieri" (mercenários) com o intuito de obter conquistas territoriais. Foi muito difundida no século XVI e encontram-se aproximadamente 400 peças que citam Maquiavel, todas vinculando seu nome à maldade, a ardilosidade e a falta de escrúpulos. William Shakespeare, por exemplo, o coloca em uma fala de Ricardo, Duque de Gloucester na sua peça sobre Henrique VI ("Henry VI, Part 1", "Henry VI, Part 2", "Henry VI, Part 3"). Conselheiro do povo. Uma segunda interpretação diz que ao escrever "O Príncipe", Maquiavel tentava alertar o povo sobre os perigos da tirania, tendo entre seus adeptos, Baruch de Espinoza e Jean-Jacques Rousseau. Este último escreveu "(…) é o que Maquiavel fez ver com evidência. Fingindo dar lições aos reis, deu-as, e grandes, aos povos". Foi defendida recentemente por estudiosos da obra dele como Garret Mattingly. Há os que afirmam ser "O Príncipe" uma sátira dos costumes dos governantes ou que o autor não acreditaria no que escreveu, baseando esta afirmação na preferência que teria Maquiavel pela república como forma de governo. Contudo o autor também faz críticas à república. Nacionalista. Maquiavel era um verdadeiro republicano, mas ele acreditava que somente a força de um líder especial poderia criar o um Estado italiano forte como ele imaginava. Isso, muito tempo depois, na Europa do século XIX, durante as Guerras Napoleônicas, com a Alemanha e a Itália fragmentadas e com os nacionalismos internos surgindo, gerou uma visão de Maquiavel como um nacionalista exaltado, disposto a tudo pela união e defesa da Itália, como demonstrado no último capítulo de "O Príncipe": A obra de Maquiavel revela a consciência diante do perigo da divisão política da península em vários estados, que estariam expostos à mercê das grandes potências europeias. Hegel, Herder, Macaulay e Burd foram alguns de seus defensores, certamente fundamentando sua interpretação no capítulo final de "O Príncipe" em que Maquiavel faz uma apaixonada defesa de uma Itália unificada, afirmando que um povo só pode ser feliz e próspero se estiver unido. Pensamento. Maquiavel não foi um pensador sistemático. Ele utiliza o empirismo para escrever através de um método indutivo e pensa em seus escritos como conselhos práticos, sendo além disso antiutópico e realista. A teoria não se separa da prática em Maquiavel. Os conceitos desenvolvidos por ele rompem com a tradição medieval teológica e também com a prática, comum durante o Renascimento, de propor estados imaginários perfeitos, os quais os príncipes deveriam ter sempre em mente. A partir da observação da política de seu tempo e da comparação desta com a da Antiguidade vai formular o seu pensamento por acreditar na imutabilidade da natureza humana. "Virtù e fortuna". Os conceitos de "virtù" e "fortuna" são empregados várias vezes por Maquiavel em suas obras. Para ele, a "virtù" seria a capacidade de adaptação aos acontecimentos políticos que levaria à permanência no poder. A "virtù" seria como uma barragem que deteria os desígnios do destino. Mas segundo o autor, em geral, os seres humanos tendem a manter a mesma conduta quando esta frutifica e assim acabam perdendo o poder quando a situação muda. A ideia de "fortuna" em Maquiavel vem da deusa romana da sorte e representa as coisas inevitáveis que acontecem aos seres humanos. Não se pode saber a quem ela vai fazer bens ou males e ela pode tanto levar alguém ao poder como tirá-lo de lá, embora não se manifeste apenas na política. Como sua vontade é desconhecida, não se pode afirmar que ela nunca lhe favorecerá. História. Maquiavel escreve história mais como pensador político do que como historiador. Assim ele não se preocupa tanto com a referência precisa de afirmações contidas nas suas obras, ainda que tenha ido aos arquivos de Florença - prática incomum na época - e deixa transparecer nas suas obras históricas a defesa de algumas das suas ideias através da narração dos fatos históricos. Ele também acredita que a história se repete, tornando a sua escrita útil como exemplo para que os homens, tentados a agir sempre da mesma maneira, evitassem cometer os mesmos erros. Assim, enquanto alguns dos seus biógrafos atribuem-lhe os fundamentos da escrita moderna da história, outros admitem que ele não possuía uma visão crítica o suficiente para poder separar os fatos históricos dos mitos e aceitou como verdade, por exemplo, a fundação mitológica de Roma, Outros, ainda, atribuem-lhe uma "concepção dogmática e ingénua da história". Ética. A ética em Maquiavel se contrapõe à ética cristã herdada por ele da Idade Média. Para a ética cristã, as atitudes dos governantes e os Estados em si estavam subordinados a uma lei superior e a vida humana destinava-se à salvação da alma. Com Maquiavel a finalidade das ações dos governantes passa a ser a manutenção da pátria e o bem geral da comunidade, não o próprio, de forma que uma atitude não pode ser chamada de boa ou má a não ser sob uma perspectiva histórica. Reside aí um ponto de crítica ao pensamento maquiavélico, pois com essa justificativa, o Estado pode praticar todo tipo de violência, seja aos seus cidadãos, seja a outros Estados. Ao mesmo tempo, o julgamento posterior de uma atitude que parecia boa, pode mostrá-la má. Natureza humana. Para ele, a natureza humana seria essencialmente má e os seres humanos querem obter os máximos ganhos a partir do menor esforço, apenas fazendo o bem quando forçados a isso. A natureza humana também não se alteraria ao longo da história fazendo com que seus contemporâneos agissem da mesma maneira que os antigos romanos e que a história dessa e de outras civilizações servissem de exemplo. Falta-lhe um senso das mudanças históricas. Como consequência, acha inútil imaginar estados utópicos, visto que nunca antes postos em prática e prefere pensar no real. Sem querer com isso dizer que os seres humanos ajam sempre de forma má, pois isso causaria o fim da sociedade, baseada em um acordo entre os cidadãos. Ele quer dizer que o governante não pode esperar o melhor dos homens ou que estes ajam segundo o que se espera deles. Trabalho. Obras fictícias. Além de estadista e cientista político, Maquiavel também traduziu obras clássicas e foi dramaturgo ("Clizia", "Mandrágola"), poeta ("Sonetti", "Canzoni", "Ottave", "Canti carnascialeschi") e romancista ("Belfagor arcidiavolo"). Alguns de seus outros trabalhos: Outras obras. "Della Lingua" (italiano para "Sobre a Língua") (1514), um diálogo sobre a língua da Itália é normalmente atribuído a Maquiavel. O executor literário de Maquiavel, Giuliano de' Ricci, também relatou ter visto que Maquiavel, seu avô, fez uma comédia no estilo de Aristófanes que incluía florentinos vivos como personagens, e que seria intitulada "Le Maschere". Foi sugerido que, devido a coisas como essa e seu estilo de escrever para seus superiores em geral, havia muito provavelmente alguma animosidade contra Maquiavel mesmo antes do retorno dos Médic.
1359
Teffi
Teffi Nadejda Aleksandrovna Lokhvitskaya () (21 de maio de 1872, São Petersburgo - 6 de outubro de 1952, Paris), mais conhecida por seu pseudónimo Téffi, foi uma escritora romancista e poeta russa. Deixou o país após a Revolução Russa de 1917. Obteve destaque por seus contos. "O faquir" é considerado o seu melhor trabalho.
1360
Neolítico
Neolítico Neolítico (do grego "néos", novo, e "lithos", pedra, "pedra nova") ou Período da Pedra Polida é o período histórico que vai aproximadamente do , com o início da sedentarização e surgimento da agricultura, ao , dando lugar à Idade dos Metais. Não se aplica à pré-história americana, subsaariana, nem oceânica. Características. As primeiras aldeias eram criadas em proximidade de rios, de modo a usufruir da terra fértil (onde eram colocadas sementes para plantio) e água para seres humanos e animais. Também nesse período começou a domesticação de animais (cabra, boi, cão, dromedário, etc.). O trabalho passa a ser dividido entre homens e mulheres. Os homens cuidam da segurança, caça e pesca; enquanto as mulheres plantam, colhem e cuidam dos filhos. A disponibilidade de alimento permite também às populações um aumento do tempo de lazer; e a necessidade de armazenar os alimentos e as sementes para cultivo leva à criação de peças de cerâmica, que vão gradualmente ganhando fins decorativos. Surge também o comércio com o aparecimento do dinheiro, que facilita a troca de materiais e que começou por ser, na época, baseado em sementes. Estas, diferenciadas umas das outras, tinham cada tipo o seu valor. Uma aldeia, ao produzir mais do que o necessário e, para não perder grande parte da produção que não iria ser utilizada, troca o excesso por peças de artesanatos, roupas e outros utensílios com outras aldeias. Nesta altura, os humanos deixam de usar peles de animais como vestimenta, que pelo seu peso dificultam a caça e muitas outras atividades, e passam a usar roupas de tecido de lã, linho e algodão, mais confortáveis e leves. Revolução neolítica. Essas mudanças de comportamento foram consideradas tão importantes que o arqueólogo Gordon Childe designou este momento de Revolução neolítica, ou "Revolução agrária", fator decisivo para a sobrevivência dos povos nesse período. A Revolução Neolítica durou por volta de 10.000 anos, e seus principais pontos são: Os estudiosos acreditam que como o ser humano da Idade da Pedra não conhecia a escrita, ele gravava desenhos nas paredes das cavernas, utilizadas como meio de comunicação. O Neolítico, pelo fato de ter sido o último período da Idade da Pedra, terminou com o surgimento da Idade dos Metais. Mas a transição do Neolítico para a Idade dos Metais (Idade do Cobre, Bronze e Ferro) caracterizou a transição da Pré-História para a História em alguns locais, ja que a escrita surgiu quase na mesma época. Mesolítico. Por volta de , ou seja, há cerca de 12 mil anos, no Período Mesolítico, deram-se várias transformações climáticas que viriam a criar condições favoráveis para a prática da agricultura e criação de animais. A invenção da agricultura ocorreu nos vales férteis dos grandes rios do Oriente Próximo, em uma região chamada Crescente Fértil. No já se cultivavam cereais como trigo e cevada. O feijão, o milho e o arroz foram das primeiras culturas que o homem realizou. Na mesma época animais como o cão, o carneiro ou a cabra já eram domesticados. O homem passou assim de nômade a agricultor e pastor. Cria-se, assim, um novo tipo de economia, chamada de economia de produção, em que os seres humanos já sabem produzir os alimentos necessários à sua sobrevivência, graças à criação de animais e ao cultivo da terra. Economia. Com a criação de animais e a agricultura, o homem sentiu necessidade de se fixar a um lugar. Surgiram assim as primeiras aldeias, normalmente juntas ou próximas dos grandes rios como o Nilo, Eufrates, Tigre ou Jordão (Jericó), devido à necessidade de água para regar e fertilizar os campos. No entanto, há também aldeias em planaltos, como Çatalhüyük, na Anatólia. Com a criação das aldeias e com uma nova economia, surgiu a chamada divisão do trabalho e a diferenciação social. Esses dois novos mecanismos de sobrevivência baseavam-se no sexo e na idade: os mais velhos exerciam a autoridade sobre os mais novos. Enquanto que os homens se dedicavam aos rebanhos e à caça, as mulheres praticavam a agricultura e encarregavam-se das tarefas domésticas, assim como na Revolução neolítica. Com a criação dos aldeamentos, a população cresceu. À medida que isso aconteceu, as tarefas e a divisão do trabalho foram-se tornando mais complexas. Enquanto que uns produziam e cuidavam do gado e da terra, outros dedicavam-se à criação de vestuário e à defesa do território. Assim, os guerreiros, curandeiros e sacerdotes passaram a ter mais autoridade sobre os outros, destacando assim a diferenciação social. Progressos técnicos. O Neolítico caracteriza-se essencialmente pelo surgimento da pedra polida, que era usada em machados e outros instrumentos. Técnicas como a cerâmica, a tecelagem, cestaria, moagem, a descoberta da roda e a tração animal mostram os grandes progressos técnicos observados neste período. Religião. A arqueologia registra certas descobertas relativas aos períodos Paleolítico e do Neolítico que são por alguns interpretadas - embora em caráter um tanto subjetivo - pela possibilidade de ter havido a primeira manifestação humana de uma religião a qual baseou-se no culto à mulher, ao feminino e a associação desta à Natureza, ao poder de dar a vida. Foram descobertas, no abrigo de rochas Cro-Magnon em Les Eyzies, conchas cauris, descritas como "o portal por onde uma criança vem ao mundo" e cobertas por um pigmento de cor ocre vermelho, que simbolizava o sangue e que estavam intimamente ligados ao ritual de adoração às estatuetas femininas. Constatou-se por escavações que estas estatuetas eram encontradas muitas vezes numa posição central, em oposição aos símbolos masculinos, localizados em posições periféricas ou ladeando as estatuetas femininas. Habitações. Nas casas redondas, a família sentava-se em bancos de pedra, encostados às paredes. Os lugares eram ocupados segundo a idade e posição social. Os materiais de construção eram sólidos, como a argila seca ou madeira, e os alicerces eram em pedra ou pilares de madeira e cobertos por terraços ou telhados feitos de colmo. As camas normalmente eram feitas do mesmo material que as paredes. As casas possuíam apenas uma divisão, com uma lareira para aquecê-la. Vestuário. Os homens usavam saias de lã negra ou de tecidos de pele de cabra (samarras), que caíam sobre bragas, semelhante a calças curtas e largas. As mulheres usavam roupas coloridas e cobriam a cabeça com véus que caíam até os olhos, escondendo-lhes os cabelos entrançados. No pescoço, braços e orelhas, usavam pesados adornos de ouro, prata ou cobre. Cultura. O cultivo da terra deu origem a cultos agrários, já que os homens acreditavam que havia fenômenos naturais e forças sobrenaturais que influenciavam as colheitas. Surgiram assim as primeiras estátuas, que mostram uma deusa, ligando a fertilidade da mulher à fertilidade da terra. Outra manifestação artística foi a criação dos monumentos megalíticos, para o culto funerário. Os mais simples são os menires e os dólmens. Ao agrupamento de vários menires em linha ou círculo dá-se o nome de cromeleques.
1361
Nicolau Copérnico
Nicolau Copérnico Nicolau Copérnico (Toruń, — Frauenburgo, ) foi um astrônomo e matemático polonês que desenvolveu a teoria heliocêntrica do Sistema Solar. Foi também cónego da Igreja Católica, governador e administrador, jurista e médico. Sua teoria do Heliocentrismo, que colocou o Sol como o centro do Sistema Solar, contrariando a então vigente Teoria Geocêntrica (que considerava a Terra como o centro), é considerada como uma das mais importantes hipóteses científicas de todos os tempos, tendo constituído o ponto de partida da astronomia. Biografia. Nicolau Copérnico, em polonês , nasceu quando sua cidade natal, Toruń, fazia parte da província da Prússia Real, no Reino da Polônia (1385–1569). Seu pai era um comerciante de Cracóvia e sua mãe era filha de um abastado comerciante de Toruń. Nicolau era o mais jovem de quatro filhos. Seu irmão André tornou-se um cônego da Ordem dos Agostinianos em Frombork ("Frauenburgo"). Sua irmã Bárbara, mesmo nome de sua mãe, tornou-se uma religiosa da Ordem dos Beneditinos e, em seus últimos anos, priora de um convento em Chełmno ("Kulm"); tendo morrido após 1517. Sua irmã Catarina casou-se com Barthel Gertner, também importante comerciante e edil da cidade de Toruń, com quem teve cinco filhos, cuidados por Copérnico até o fim de seus dias, não tendo ele próprio se casado ou tido filhos. A origem da teoria heliocêntrica. Na teoria de Copérnico, a Terra move-se em torno do Sol. Mas, seus dados foram corrigidos pelas observações de Tycho Brahe. Com base nelas e em seus próprios cálculos, Johannes Kepler reformou radicalmente o modelo copernicano e chegou a uma descrição realista do Sistema Solar. Esse fenômeno já havia sido estudado e defendido pelo bispo de Lisieux, Nicole d'Oresme, no século XIV. O movimento da Terra era negado pelos partidários de Aristóteles e Ptolomeu. Eles argumentavam que, caso a Terra se movesse, as nuvens, os pássaros no ar ou os objetos em queda livre seriam deixados para trás. Galileu Galilei combateu essa ideia, afirmando que, se uma pedra fosse abandonada do alto do mastro de um navio, um observador a bordo sempre a veria cair em linha reta, na vertical. E, baseado nisso, nunca poderia dizer se a embarcação estava em movimento ou não. Caso o barco se movesse, porém, um observador situado na margem veria a pedra descrever uma curva descendente – porque, enquanto cai, ela acompanha o deslocamento horizontal do navio. Tanto um observador quanto o outro constataria que a pedra chega ao convés exatamente no mesmo lugar: O pé do mastro. Pois ela não é deixada para trás quando o barco se desloca. Da mesma forma, se fosse abandonada do alto de uma torre, a pedra cairia sempre ao pé da mesma – quer a Terra se mova ou não. O cardeal São Roberto Belarmino presidiu o tribunal que proibiu a teoria copernicana. Culto e moderado, ele conseguiu poupar Galileu. Estimulado pelo novo papa Urbano VIII, seu grande admirador, o cientista voltou à carga. Mas o Papa sentiu-se ridicularizado num livro de Galileu. E isso motivou sua condenação. A teoria heliocêntrica. A teoria do modelo heliocêntrico, a maior teoria de Copérnico, foi publicada em seu livro, "De revolutionibus orbium coelestium" ("Da revolução de esferas celestes"), durante o ano de sua morte, 1543. Apesar disso, ele já havia desenvolvido sua teoria algumas décadas antes. O livro marcou o começo de uma mudança de um universo geocêntrico, ou antropocêntrico, com a Terra em seu centro. Copérnico acreditava que a Terra era apenas mais um planeta que concluía uma órbita em torno de um sol fixo todo ano e que girava em torno de seu eixo todo dia. Ele chegou a essa correta explicação do conhecimento de outros planetas e explicou a origem dos equinócios corretamente, através da vagarosa mudança da posição do eixo rotacional da Terra. Ele também deu uma clara explicação da causa das estações: O eixo de rotação da terra não é perpendicular ao plano de sua órbita. Em sua teoria, Copérnico descrevia mais círculos, os quais tinham os mesmos centros, do que a teoria de Ptolomeu (modelo geocêntrico). Apesar de Copérnico colocar o Sol como centro das esferas celestiais, ele não fez do Sol o centro do universo, mas perto dele. Do ponto de vista experimental, o sistema de Copérnico não era melhor do que o de Ptolomeu. E Copérnico sabia disso, e não apresentou nenhuma prova observacional em seu manuscrito, fundamentando-se em argumentos sobre qual seria o sistema mais completo e elegante. Da sua publicação, até aproximadamente 1700, poucos astrônomos foram convencidos pelo sistema de Copérnico, apesar da grande circulação de seu livro (aproximadamente 500 cópias da primeira e segunda edições, o que é uma quantidade grande para os padrões científicos da época). Entretanto, muitos astrônomos aceitaram partes de sua teoria, e seu modelo influenciou muitos cientistas renomados que viriam a fazer parte da história, como Galileu e Kepler, que conseguiram assimilar a teoria de Copérnico e melhorá-la. As observações de Galileu das fases de Vênus produziram a primeira evidência observacional da teoria de Copérnico. Além disso, as observações de Galileu das luas de Júpiter provaram que o sistema solar contém corpos que não orbitavam a Terra. O sistema de Copérnico pode ser resumido em algumas proposições, assim como foi o próprio Copérnico a listá-las em uma síntese de sua obra mestra, que foi encontrada e publicada em 1878. As principais partes da teoria de Copérnico são: Se essas proposições eram revolucionárias ou conservadoras era um tópico muito discutido durante o vigésimo século. Thomas Kuhn argumentou que Copérnico apenas transferiu algumas propriedades, antes atribuídas a Terra, para as funções astronômicas do Sol. Outros historiadores, por outro lado, argumentaram a Kuhn, que ele subestimou quão revolucionárias eram as teorias de Copérnico, e enfatizaram a dificuldade que Copérnico deveria ter em modificar a teoria astronômica da época, utilizando apenas uma geometria simples, sendo que ele não tinha nenhuma evidência experimental. O modelo heliocêntrico. Os filósofos do século XV aceitavam o geocentrismo como fora estruturado por Aristóteles e Ptolomeu. Esse sistema cosmológico afirmava (corretamente) que a Terra era "esférica", mas também afirmava (erradamente) que a Terra estaria parada no centro do Universo enquanto os corpos celestes orbitavam em círculos concêntricos ao seu redor. Essa visão geocêntrica tradicional foi abalada por Copérnico em 1537, quando este começou a divulgar um modelo cosmológico em que os corpos celestes giravam ao redor do Sol, e não da Terra. Essa era uma teoria de tal forma revolucionária que Copérnico escreveu no seu "De revolutionibus orbium coelestium" (do latim: "Das revoluções das esferas celestes"): "quando dediquei algum tempo à ideia, o meu receio de ser desprezado pela sua novidade e o aparente contra-senso quase me fez largar a obra feita". Naquele tempo a Igreja Católica aceitava essencialmente o geocentrismo aristotélico, embora a esfericidade da Terra estivesse em aparente contradição com interpretações literais de algumas passagens bíblicas. Ao contrário do que se poderia imaginar, durante a vida de Copérnico não se encontram críticas sistemáticas ao modelo heliocêntrico por parte do clero católico. De fato, membros importantes da cúpula da Igreja ficaram positivamente impressionados pela nova proposta e insistiram para que essas ideias fossem mais desenvolvidas. Contudo, a defesa, quase um século depois, por Galileu Galilei da teoria heliocêntrica vai deparar-se com grandes resistências no seio da mesma Igreja Católica. Essas críticas eram fundamentadas no fato de que o paradigma científico da época era a teoria geocêntrica, e a maioria da comunidade científica defendia essa visão, incluindo cientistas conceituados como Tyco Brahe. É importante ressaltar que a teoria heliocêntrica só seria comprovada cientificamente no século XVIII, com a descoberta de James Bradley da aberração da luz solar, e confirmada por meio da descoberta da paralaxe estelar. Na verdade, além de defender a ideia, Galileu não propôs nenhum argumento científico de fato que a respaldasse. Como Copérnico tinha por base apenas suas observações dos astros a olho nu e não tinha possibilidade de demonstração da sua hipótese, muitos homens de ciência acolheram com cepticismo as suas ideias. Apesar disso, o trabalho de Copérnico marcou o início de duas grandes mudanças de perspectiva. A primeira diz respeito à escala de grandeza do Universo: avanços subsequentes na astronomia demonstraram que o universo era muito mais vasto do que supunham quer a cosmologia aristotélica quer o próprio modelo copernicano; a segunda diz respeito à queda dos graves. A explicação aristotélica dizia que a Terra era o centro do universo e portanto, o lugar natural de todas as coisas. Na teoria heliocêntrica, contudo, a Terra perdia esse estatuto, o que exigiu uma revisão das leis que governavam a queda dos corpos, e mais tarde, conduziu Isaac Newton a formular a lei da gravitação universal. Ainda que imperfeita, pois indicava que as órbitas dos planetas seriam circulares e não elípticas como se veio a descobrir, a teoria de Copérnico abriu caminho para as grandes descobertas astronômicas.
1362
Nova York
Nova York
1366
Oskar Morgenstern
Oskar Morgenstern Oskar Morgenstern (Görlitz, Alemanha, — Princeton, Estados Unidos, ) foi um economista austríaco. É considerado um dos fundadores da teoria dos jogos. Morgenstern trabalhou na Universidade de Viena até ser demitido pelos nazistas em 1938, tendo então emigrado para os Estados Unidos, onde se tornou professor da Universidade de Princeton. O trabalho que mais contribuiu para a sua fama foi "Theory of Games and Economic Behavior" (em tradução livre, "Teoria dos Jogos e Comportamento Econômico", de 1944), escrito em parceria com o renomado matemático John von Neumann, que lançou definitivamente as bases da teoria dos jogos e também da teoria da escolha sob incerteza. Outro trabalho fundamental, este escrito a solo, foi "On the Accuracy of Economic Observations", de 1950.
1368
Open content
Open content
1369
Animal Farm
Animal Farm Animal Farm () é um romance satírico do escritor inglês George Orwell, publicado no Reino Unido em 17 de agosto de 1945 e incluído pela revista americana "Time" na Lista dos 100 melhores romances da língua inglesa. A sátira feita pelo livro à União Soviética comunista obteve o 31.º lugar na lista dos melhores romances do século XX organizada pela Modern Library List. O livro narra uma história de corrupção e traição e recorre a figuras de animais para retratar as fraquezas humanas e demolir o "paraíso comunista" proposto pela União Soviética na época de Stalin. A revolta dos animais da quinta contra os humanos é liderada pelos porcos Bola-de-Neve ("Snowball") e Napoleão ("Napoleon"). Os animais tentam criar uma sociedade utópica, porém Napoleão, seduzido pelo poder, afasta Bola-de-Neve e estabelece uma ditadura tão corrupta quanto a sociedade de humanos. Para o autor, um socialista democrático e membro do Partido Trabalhista Independente por muitos anos, a obra é uma sátira à política stalinista que, segundo sua ótica, teria traído os princípios da Revolução Russa de 1917. Enredo. Sentindo chegar a sua hora, Major, um velho porco, reúne os animais da fazenda Granja do Solar ("Manor Farm") para partilhar um sonho: serem governados por eles próprios, os animais, sem a submissão e exploração do homem. Ensinou-lhes uma antiga canção, "Bichos da Inglaterra" ("Beasts of England"), que resume a filosofia do Animalismo, exaltando a igualdade entre eles e os tempos prósperos que estavam por vir, deixando os demais animais em êxtase com as possibilidades. O idoso Major (vulgo Casca Grossa) faleceu três dias depois, tendo tomado a frente os astutos e jovens porcos Bola-de-Neve e Napoleão, que passaram a reunir-se clandestinamente a fim de traçar as estratégias da revolução. Certo dia, Sr. Jones, então proprietário da fazenda, descuidou-se com a alimentação dos animais, fato este que se tornou a gota de água para aqueles bichos. Sob o comando dos inteligentes e letrados porcos, os animais expulsaram os humanos da propriedade e passaram a chamar a Quinta Manor de Quinta dos Animais pt / Granja ou Fazenda dos Bichos br, e aprenderam os Sete Mandamentos, que, a princípio, ganhavam a seguinte forma: Para os animais menos inteligentes, os porcos resumiram os mandamentos apenas na máxima "Quatro pernas bom, duas pernas mau" que passou a ser repetido constantemente pelas ovelhas. Após a primeira invasão dos humanos, na tentativa frustrada de retomar a fazenda, Bola-de-Neve luta com bravura, dedica todo o seu tempo ao aprimoramento da fazenda e da qualidade de vida de todos, mas, mesmo assim, Napoleão expulsa-o do território, alegando sérias acusações contra o antigo companheiro. Acusações estas que se prolongam durante toda história, mesmo após o desaparecimento de Bola-de-Neve, na tentativa de encobrir algo ou mesmo ter alguma explicação para dar aos animais sobre catástrofes, criando-se um mito em torno do porco que, a partir dali, é considerado um traidor. Napoleão apodera-se da ideia de Bola-de-Neve de construir um moinho de vento para gerar energia (mesmo tendo feito duras críticas à imaginação do companheiro), e dá início à sua construção. Algum tempo depois, os porcos começam a negociar com os agricultores da região, recusando a existência de uma resolução de não contactar com os humanos, apontando essa ideia como mais uma invenção de Bola-de-Neve. Os porcos passam ainda a viver na antiga casa de Sr. Jones e começam a modificar os mandamentos que estavam na porta do celeiro: O hino da Revolução é banido, já que a sociedade ideal descrita, segundo Napoleão, já teria sido atingida sob o seu comando. Napoleão é declarado líder por unanimidade. As condições de trabalho degradam-se, os animais sofrem um novo ataque humano e já não se lembram que na época em que estavam submissos ao Sr. Jones era mesmo pior, mas lembravam-se da liberdade proclamada, e eram sempre lembrados por sábios discursos suínos, principalmente os proferidos por Garganta, um porco com especial capacidade persuasiva. Napoleão, os outros porcos e os agricultores da vizinhança celebram, em conjunto, a produtividade da Quinta dos Animais. Os outros animais trabalham arduamente em troca de míseras rações. Assiste-se assim a um escárnio grotesco da sociedade humana. O "slogan" das ovelhas fora modificado ligeiramente, "“Quatro pernas bom, duas pernas melhor!”", pois agora os porcos andavam sobre as duas patas traseiras. No final, os animais, ao olhar para dentro da casa antes pertencente a Jones e onde os porcos agora vivem em considerável luxo em relação aos demais animais, veem Napoleão e outros suínos jogando carteado com Frederick e Pilkington, senhores das granjas vizinhas, e celebrando a prosperidade económica que os seus acordos proporcionam às suas quintas. Numa visão confusa, os animais já não conseguem distinguir os porcos dos homens.
1370
O Gene Egoísta
O Gene Egoísta O Gene Egoísta (no original em inglês The Selfish Gene - 1976) é o primeiro livro de Richard Dawkins, em que ele apresenta uma teoria que procura explicar a evolução das espécies na perspectiva do gene e não do organismo, ou da espécie. Contexto. Segundo Dawkins, o organismo é apenas uma "máquina de sobrevivência" do gene, cujo objetivo é a sua auto-replicação, a espécie na qual ele existe é a "máquina" mais adequada a essa perpetuação. Analisando o comportamento de algumas espécies animais, Dawkins explica que o altruísmo que se observa em muitas espécies não é contraditório com o egoísmo do gene, mas contribui para a sua sobrevivência. Segundo alguns, a teoria lançada por Dawkins pode ser interpretada como uma afirmação do liberalismo (do egoísmo como característica fundamental dos seres vivos, onde o altruísmo, quando existe, é apenas uma forma de perpetuar o indivíduo). Neste livro, Dawkins reformula igualmente o conceito de meme, ou seja, o equivalente cultural do gene, a unidade básica da memória ou do conhecimento, que o ser humano transfere conscientemente para os seus descendentes. Dawkins afirma no prefácio da primeira edição que os conceitos elaborados neste livro não são de sua autoria, uma vez que já tinham sido formulados por George C. Williams, J. Maynard Smith, W. D. Hamilton e R. L. Trivers Crítica. Steven Rose afirma no livro "Not in Our Genes" que essa visão é reducionista, e também critica a psicologia evolutiva e o determinismo biológico contido nas ideias de Dawkins. Steven Pinker considera que o livro deturpa as ideias de Dawkins e Edward O. Wilson, falsamente atribuindo crenças ridículas a eles. Prêmios e reconhecimentos. Em abril de 2016, Robert McCrum posicionou "O Gene Egoísta" em décimo lugar na lista dos 100 melhores livros de não-ficção. Em julho de 2017, "O Gene Egoísta" figurou como o livro científico mais influente de todos os tempos em uma pesquisa comemorando o trigésimo aniversário do concurso de premiação de livros da Royal Society, a frente da "Origem das Espécies" de Charles Darwin e "Principia Mathematica" de Isaac Newton.
1371
Os Maias
Os Maias Os Maias é uma das obras mais conhecidas do escritor português Eça de Queiroz, publicado pela Livraria Lello & Irmão no Porto, em 1888. A obra ocupa-se da história de uma família (Maia) ao longo de três gerações, centrando-se depois na última com a história de amor entre Carlos da Maia e Maria Eduarda. Sinopse da obra. Tudo começa com a descrição da casa – “O Ramalhete” - Lisboa, mas que nada tem de fresco ou de campestre. O nome vem-lhe de um painel de azulejos com um ramo de girassóis, colocado onde deveria estar a pedra de armas. Afonso da Maia, senhor da casa, casou-se com Maria Eduarda Runa e deste casamento resultou apenas um filho - Pedro da Maia. Pedro da Maia, que teve uma educação tipicamente romântica, era muito ligado à mãe e após a sua morte ficou inconsolável, tendo só recuperado quando conheceu uma mulher chamada Maria Monforte, com quem casou, apesar de Afonso não concordar. Deste casamento resultaram dois filhos: Carlos Eduardo e Maria Eduarda. Algum tempo depois, Maria Monforte apaixona-se por Tancredo (um príncipe napolitano, italiano que Pedro fere acidentalmente num acidente de caça e acolhe em sua casa) e foge com ele para Itália, levando consigo a filha, Maria Eduarda. Quando sabe disto, Pedro, destroçado, vai com Carlos para casa do pai, Afonso, onde comete suicídio. Carlos fica na casa do avô, onde é educado à inglesa (tal como Afonso gostaria que Pedro tivesse sido criado). Passam-se alguns anos e Carlos torna-se médico e abre um consultório. Mais tarde conhece uma mulher no Hotel Central num jantar organizado por Ega (seu amigo dos tempos de Coimbra) em homenagem a Cohen. Essa mulher vem mais tarde saber chamar-se Maria Eduarda. Os dois apaixonam-se. Carlos crê que a sua irmã tinha morrido. Maria Eduarda crê que apenas teve uma irmãzinha que morreu em Londres. Os dois namoram em segredo. Carlos acaba depois por descobrir que Maria lhe mentiu sobre o seu passado – podiam ter-se zangado definitivamente. Guimarães vai falar com João da Ega, e dá-lhe uma caixa que diz ser para Carlos ou para a sua irmã Maria Eduarda. Aí Ega descobre tudo, conta a Vilaça (procurador da família Maia) e este acaba por contar a Carlos o incesto que anda a cometer. Afonso da Maia morre de desgosto. Há ainda a abordagem científica. O romance foi escrito numa altura em que as ciências floresciam. Eça joga nele com o peso da hereditariedade (Carlos teria herdado da avó paterna e do próprio pai o carácter fraco, e da mãe a tendência para o desequilíbrio amoroso), e da acção do meio envolvente sobre o indivíduo (Carlos fracassa, apesar de todas as condicionantes que tem a seu favor, porque o meio envolvente, a alta burguesia lisboeta, para tal o empurra). A psicologia dava os seus primeiros passos – é assim que Carlos, mesmo sabendo que a mulher que ama é sua irmã, não deixa de a desejar, uma vez que não basta que lhe digam que ela é sua irmã para que ele como tal a considere. A história. A ação de "Os Maias" passa-se em Lisboa, na segunda metade do século XIX, e apresenta-nos a história de três gerações da família Maia. A ação inicia-se no Outono de 1875, quando Afonso da Maia, nobre e rico proprietário, se instala no Ramalhete com o neto recém formado em Medicina. Neste momento faz-se uma longa descrição da casa – “O Ramalhete”, cujo nome tem origem num painel de azulejos com um ramo de girassóis, e não em algo fresco ou campestre, tal como o nome nos remete a pensar. Afonso da Maia era o personagem mais simpático do romance e aquele que o autor mais valorizou, pois não se lhe conhecem defeitos. É um homem de carácter, culto e requintado nos gostos. Em jovem aderiu aos ideais do Liberalismo e foi obrigado, por seu pai, a sair de casa e a instalar-se em Inglaterra. Após o pai falecer regressa a Lisboa para casar com Maria Eduarda Runa, mas pouco tempo depois escolhe o exílio por razões de ordem política. Fruto deste casamento resultou apenas um filho, Pedro da Maia, que apresentava um temperamento nervoso, fraco e de grande instabilidade emocional. Afonso desejaria educá-lo à inglesa, mas Maria Eduarda, católica fervorosa, cujo fanatismo mais se exacerba ao viver em Inglaterra, país protestante, não o consente e Pedro é educado por um padre mandado vir de Lisboa. Pedro cresce, muito ligado à mãe e após a sua morte, ficou inconsolável, tem crises de melancolia negra recuperando apenas quando conhece uma mulher, extraordinariamente bela e vistosa, chamada Maria Monforte. Enamora-se dela e, apesar do seu pai não concordar, devido a rivalidade entre as famílias Maia e Monforte, casa com ela, o que o afasta do convívio do pai. O jovem casal parte para Itália e inicia uma vida faustosa. Nascem-lhes dois filhos: Maria Eduarda e Carlos Eduardo. Pouco depois do nascimento do segundo filho, Maria Monforte apaixona-se por um príncipe italiano que estava abrigado na casa, após Pedro ferí-lo acidentalmente num acidente de caça, e um dia, Pedro chega a casa e descobre que a mulher fugiu com o italiano, levando a filha. Desesperado, refugia-se em casa do pai, levando o filho, ainda bebé. Nessa mesma noite, depois de escrever ao pai uma longa carta, Pedro suicida-se com um tiro. Afonso da Maia dedica a sua vida ao neto a quem dá a educação inglesa, forte e austera, que em tempos sonhara para o filho. Num capítulo do livro essa educação, considerada a ideal, é contraposta à que umas vizinhas, as senhoras Silveiras dão ao filho e sobrinho Eusebiozinho. Passados alguns anos, Carlos contra a vontade de todos, exceto de seu avô, tornou-se médico (profissão que, ainda nos finais do século XIX, era considerada suja e indigna de um homem de bem) e acaba por montar um luxuoso consultório e até por mandar construir um laboratório, onde pretende dedicar-se à investigação. Após várias aventuras, um dia conhece uma mulher chamada Maria Eduarda e apaixona-se por ela, mas supõe-na casada com um cavalheiro brasileiro, Castro Gomes. Carlos e Maria tornam-se amantes. Carlos, com exceção da sua viagem no fim do curso, viveu sempre em Portugal, pensando que a sua irmã e a mãe morreram, e Maria Eduarda apenas se lembra de que teve uma irmãzinha, que morreu em Londres. Regressado a Lisboa e desagradado com os boatos de que a sua «mulher» seria amante de Carlos, Castro Gomes revela a este que Maria não é a sua mulher mas apenas uma senhora a quem ele paga para viver consigo. É assim que Carlos descobre que Maria lhe mentiu sobre o seu passado. Ela conta-lhe o que sabe sobre a sua vida e ele perdoa-lhe. Resolvem fugir, mas vão adiando o projeto, pois Carlos receia magoar o avô. Este, já velho passa o tempo em conversas com os amigos, lendo, com o seu gato – Reverendo Bonifácio – aos pés, opinando sobre a necessidade de renovação do país. Afonso é generoso para com os amigos e os necessitados, ama a natureza e o que é pobre e fraco. Tem altos e firmes princípios morais. A verdade precipita-se quando um tio de um amigo de Carlos (Guimarães, tio de Dâmaso Salcede), absolutamente por acaso, revela a Ega, o grande amigo de Carlos, que Maria é irmã deste. Embora Ega seja cauteloso ao dar a notícia a Carlos, este tem um grande choque. No entanto, não consegue pensar em Maria como irmã e continua a ser seu amante. Ao descobrir a verdade, Afonso morre de um AVC. Carlos e Maria separam-se. Carlos vai dar uma volta ao mundo. O romance termina quando Carlos, passados 10 anos, regressa a Lisboa de visita. O final é ambíguo, como o foi a acção de Carlos e João da Ega ao longo da narrativa: embora ambos afirmem que "não vale a pena correr para nada" e que tudo na vida é ilusão e sofrimento, acabam por correr desesperadamente para apanhar um transporte público que os leve a um jantar para o qual estão atrasados. Personagens. Protagonistas. A personagem nuclear do romance, o seu verdadeiro protagonista, é uma família, a família Maia, que se articula em três gerações sucessivas. A relação geracional dos seus elementos transporta características identitárias que se refletem no comportamento de cada geração. Cada uma destas gerações organiza-se em torno de uma personagem masculina que, por sua vez, faz par com uma personagem feminina, vive numa roda de amigos íntimos e integra-se numa dada situação histórica: O retrato de cada um dos protagonistas destes três momentos é eximiamente traçado por Eça de Queirós. Afonso da Maia é um homem culto, sereno, de bom gosto, equilibrado, sólido, firme, amigo afetuoso e solícito; patrão justo e generoso; cidadão exemplar; a síntese das tradicionais e esquecidas virtudes portuguesas, melhorada pelo contacto com a admirada Inglaterra; um «bloco de granito» que, «esmagado pela tragédia», se torna num velho cujos «passos lentos e incertos, muito pesados» desembocam na morte de pé. Pedro da Maia é um homem frágil, de profundos olhos negros românticos, vítima de uma educação livresca e clerical. Carácter amolecido pelo romantismo, dado a melancolias sem razão, endoidecido pelo amor, apaixonado febril, acaba no suicídio. Opõe-se à moral familiar representada por seu pai, Afonso; obedece à moral do sentimento; suicida-se, num desfecho melodramático de herói romântico. Carlos da Maia, educado à inglesa, destinado a ser obreiro do progresso, da transformação do país, «formoso e magnífico moço, bem feito, de uma testa de mármore», é apresentado como um ser superior. No entanto, submerso pelo tédio reinante na burguesia lisboeta, deixa-se vencer pelos efeitos da paixão, dando, assim, primazia aos «genes» românticos que herdara dos pais. Não se empenha profundamente em nada, é um "diletante" e acaba falhado. É um "dandy" cujos «hábitos de luxo condenam irremediavelmente ao diletantismo». Dentre os protagonistas que constituem a família Maia, ele ocupa o lugar mais importante. Está no núcleo da ação e, por isso, é ele a personagem que alcança maior espessura psicológica. Esta sua maior densidade vem-lhe das situações complexas que vive: Maria Eduarda, que se destaca, dentre as personagens femininas, é bela, mais discreta. Alta, de aparência estrangeirada, move-se com um andar de «deusa». Não representa o feminino apenas enquanto sentimento e emoção, pois tem qualidades no plano intelectual que a colocam à altura de uma conversa com Carlos e Ega. Alencar ocupa o lugar de amigo íntimo, no tempo da geração de Pedro e Maria Monforte, mas sobrevive-lhes até ao reencontro com Carlos. Poeta, é o melhor representante da geração romântica à qual sobrevive. Surge no romance como «um rapaz alto, macilento, de bigodes negros, vestido de negro», caricatura do poeta ultrarromântico, que solta frases ressonantes e arrasta as suas poses. Mais tarde, já na geração de Carlos, reaparece como «homem alto, todo de preto, longos bigodes românticos» e funciona, então, como recordação agonizante de emoções patrióticas perdidas. João da Ega, «um certo João da Ega», íntimo de Carlos, o «grande» João da Ega, que «tinha nas veias o veneno do diletantismo», nos tempos de Coimbra, estudava direito e reprovava. Personagem que talvez seja um "alter-ego" de Eça, ou antes, uma autocaricatura dos seus próprios ímpetos de artista vingador, figura exagerada de literato, perseguidor de ambiciosos planos irrealizados, é um falhado como Carlos. A sua figura, pelo aspeto físico e pela sua função predominante na intriga (apresenta personagens, instiga acontecimentos, faz avançar a ação, não escapa a ser portador da notícia fatal) tem o seu quê de mefistofélica. Aliás, é referido como «Esse Mefistófeles de Celorico». Consciência irónica e crítica dos acontecimentos, através de palavras sempre exageradas, acaba por exibir uma certa confusão mental. É teatral, cómico, pueril, incoerente. Não respeita nada, professa o desacato como condição de progresso, mas bajula o Cohen homenageando-o com um jantar e concordando-lhe com as opiniões, é porque quer aproximar-se da mulher, a divina Raquel, por quem está fascinado. Perante a desgraça que avassala o amigo, acaba por surgir «cheio só de compaixão e ternura, com uma grossa lágrima nas pestanas». Personagens secundárias. Em torno destas personagens fulcrais e, por conseguinte, ajudando muitas vezes a fazê-las emergir, interage uma série de personagens secundárias. N´"Os Maias", as personagens secundárias, ora frequentes, ora episódicas, ora circunstanciais, multiplicam-se ao sabor da intenção realista de construir um painel da sociedade lisboeta, da segunda metade do séc. XIX, segundo um ponto de vista crítico. Vejamos algumas dessas personagens: Sequeira e D. Diogo Coutinho: velhos companheiros de Afonso da Maia; Steinbroken: embaixador finlandês, olhado caricaturalmente; Vilaça (pai e filho): administradores zelosos da segurança material da família Maia; Taveira: o funcionário do Tribunal de Contas; Cruges: o pianista de cabeleira desleixada e amargo "spleen"; Eusebiozinho: o produto mais representativo de toda a degenerescência física e moral da sociedade portuguesa da altura; Craft: inglês, sereno, fleumático, espantado com a «enormidade» portuguesa; Dâmaso Salcede: o filho do velho Silva, o agiota; figura desorbitada de pura sátira, caricatura do francesismo em calão; representante de um dos mais baixos degraus da sociedade lisboeta; bochechudo e balofo, «frisadinho como um noivo de província», aldrabão, vaidoso, oco, cobarde, humilhado, aviltado; movido pela lisonja, pela inveja, pelo rancor; servil, obcecado pelo "chic", rídiculo. Na multímoda personagem que é a burguesia lisboeta, emergem ainda: Cohen: o diretor do Banco Nacional, corrupto, indiferente aos reais interesses do país; Conde de Gouvarinho: par do reino, político bacoco, inútil, produzindo discursos ridículos; Condessa de Gouvarinho: exímia nos processos de assédio aos favores amorosos de Carlos e nos gestos melodramáticos de vítima do abandono; Raquel Cohen: a divina despertadora de paixões; Melanie, "Miss" Sara, Teles da Gama, Palma Cavalão, Castro Gomes, D. Maria da Cunha, enfim, um rio interminável de figuras que são tipos sociais, ou seja, têm um comportamento determinado pela sua origem e estatuto social. Trata-se de personagens representativas de classes, grupos, funções, atitudes sociais. Estas personagens-tipo são as que melhor servem a intenção de crítica social realista: representam de forma caricatural os males sociais, expondo-os, dando-os a conhecer, tornando-os objeto de análise crítica e de ironia demolidora. Espaço Físico. A representação de espaços sociais. "Os Maias", romance do século XIX, apresenta-nos a representação realista de espaços sociais, ou seja, de espaços interiores e exteriores onde desfilam as personagens que possibilitam a crítica à sociedade portuguesa oitocentista, incidindo em costumes e comportamentos incorretos, desde a prática do adultério à corrupção do jornalismo ou à imitação desadequada de hábitos estrangeiros. Estas personagens, que se evidenciam negativamente, são tipos sociais que exemplificam aspetos da vida pública do país e, consequentemente, remetem para a crítica de costumes. Locais: "Os Maias" mostra-nos um retrato da Lisboa da época. Carlos, que mora na Rua das Janelas Verdes, caminha com frequência até ao Rossio (embora, por vezes, vá a cavalo ou de carruagem). Algumas das lojas citadas no livro ainda existem – a "Casa Havaneza", no Chiado, por exemplo. É possível seguir os diferentes percursos de Carlos ou do Ega pelas ruas da Baixa lisboeta, ainda que algumas tenham mudado de nome. No final do livro, quando Carlos volta a Lisboa muitos anos depois, somos levados a ver as novidades – a Avenida da Liberdade, que substituiu o Passeio Público, e que é descrita como uma coisa nova, e feia pela sua novidade, exatamente como nos anos 70 se falava das "casas de emigrante". Lisboa. N`Os Maias, Lisboa é um espaço caracterizado pela degradação moral, onde os portugueses exibem a sua ociosidade crónica. É pois o símbolo da decadência nacional e está ao serviço da crónica de costumes. O Ramalhete. Habitado no Outono de 1875, o Ramalhete situava-se na Rua de São Francisco de Paula, Janelas Verdes, Lisboa. É portanto uma casa afastada do centro de Lisboa, na altura, num local elevado da cidade, no bairro onde hoje se situa o Museu Nacional de Arte Antiga. O seu nome deriva do painel de azulejos com um ramo de girassóis pintados que se encontrava no lugar heráldio, ao invés do brasão de família. Estes girassóis não são desapropriados, pois simbolizam a ligação da família à terra, à agricultura. O Ramalhete corresponde à descrição do palácio do Conde de Sabugosa, grande amigo de Eça de Queiroz e membro do grupo dos Vencidos da Vida. As paredes severas e a tímida fila de janelinhas são ainda visíveis nas fachadas do casarão. Em "Os Maias", o Ramalhete é visto em três perspectivas diferentes: Quatro elementos são de indiscutível importância na caracterização do edifício em cada uma das perspectivas. São eles um cipreste e um cedro, uma cascatazinha e uma estátua de Vénus Citereia. Primeira perspectiva. Na primeira perspectiva o Ramalhete é descrito como um "inútil pardieiro" (palavras de Vilaça) e simples depósito das mobílias vindas dos palacetes de Benfica e Tojeira, vendidos recentemente (1870). Vilaça não concordava com a compra deste palacete, pois tinha sido em Benfica que Pedro da Maia se suicidara, para além de que aquela casa ser a ilustre morada da família. Era um edifício de paredes severas. Tinha um terraço de tijolo e um pobre quintal inculto, onde envelheciam um cipreste e um cedro, permanecia uma cascatazinha seca e jazia a um canto uma estátua de Vénus Citereia. A descrição de cada um desses elementos, dá-nos a ideia de que este é um local votado ao abandono. Segunda perspectiva. Depois de decorado por um inglês o edifício tem agora um aspecto rejubilante, novo e limpo. Esta perspectiva simboliza o apogeu do Ramalhete. Entretanto, permanece ainda o estilo romântico, bucólico e um certo melancolismo dramático. Enquanto dois elementos nos levam para um ambiente próspero, outros dois, nomeadamente o cedro e o cipreste, continuam a ser um espectro da tragédia, pois são aqui descritos como dois amigos tristes. Terceira perspectiva. Na terceira perspectiva, a casa e o ambiente que a envolve que a caracteriza, torna a ser descrito de forma melodramática. Esta perspectiva é dada dez anos depois de Maria Eduarda e Carlos da Maia cometerem o incesto, período no qual ele torna a Lisboa, antes de partir para o Japão em viagem. Este último capítulo é aproveitado novamente para descrever Portugal, depois de dez anos, onde poucas mudanças se notavam. Com João da Ega, Carlos da Maia percorre os locais que havia frequentado, até chegar ao velho casarão de novo votado ao abandono, tal como o conheceram. Todos os elementos que habitualmente caracterizam o palacete nas outras duas perspectivas, vão voltar a transmitir o abandono e a melancolia daquele espaço. Espaços interiores d`O Ramalhete mencionados na obra. Chamava-se "fumoir"; era a sala mais frequentada e cómoda do Ramalhete; era quente e um pouco escura com estofos de cores escuras. Era decorado com um quadro de Cristo na cruz; um estilo clássico; muitas janelas; panos brancos (sinal da morte de Afonso e Pedro) - "símbolo da mortalha" Simbologias. Cores: Luxo: Hotel Central. O jantar do Hotel Central é um episódio que se passa no capítulo VI. Foi Ega que começou por organizar o evento, inicialmente convidando Carlos e Craft, mas adiou-o para o converter numa festa de cerimónia em homenagem de Cohen, o marido da sua amante. É no peristilo do Hotel Central que Carlos vê Maria Eduarda pela primeira vez, ficando impressionado com a sua beleza e elegância, e foi um rapaz baixote, Dâmaso Salcede, que deu informações sobre aquela mulher, que «tinha um passo soberano» de deusa, entrecruzando-se, deste modo, as personagens da intriga principal e as da crônica de costumes. Durante o jantar, Carlos, que se instalara há pouco tempo na capital, contacta com a sociedade lisboeta através de personagens de referência social, representantes de instituições e ideais que tentam aparentar riqueza e cultura mas que evidenciam uma enorme falta de ética e de valores. Carlos e Craft, após terem observado a entrada de Maria Eduarda naquele espaço, juntam-se aos convidados para o jantar, informando que tinham visto «"uma esplêndida mulher, com uma esplêndida cadelinha griffon, e servida por um esplêndido preto"», o que proporciona a aproximação de Dâmaso Salcede, que ridicularmente lhes diz que conhecia bem a família da mulher a quem eles se referiam e que tinha um tio em Paris, cidade que visitava com frequência: «"Vim de Paris… Que eu em podendo é lá que me pilham! Esta gente conhecia-a em Bordéus. Isto é, verdadeiramente, conheci-a a bordo. Mas estávamos todos no Hotel de Nantes. Gente muito chique…"». No momento em que Dâmaso fala entra Alencar, personagem na qual havia alguma «"coisa de antiquado, de artificial e de lúgubre"», que cumprimentou Carlos com emoção, porque o conhecera em criança. Seguidamente, entra Cohen, o homenageado, e iniciam-se as conversas entre os convivas sobre a literatura e a decadência do país, objeto de crítica social. A Toca. Objetivamente ligada à habitação de alguns animais, a Toca representa, simbolicamente, o "território" de Carlos e Maria Eduarda. Realça o carácter bestial e animalesco desta relação, apenas dominada pelo desejo e o sentimento próprio de uma paixão incontrolável. A sua decoração permite antever o desfecho da relação, que desafiando valores humanos se rende a outras leis, através da relação incestuosa - o amarelo predomina e traduz o gosto por sensações fortes e moralmente proibidas. Espaço Psicológico. O espaço psicológico é conjunto de elementos que traduz a interioridade das personagens, que: Espaço Social. Em relação ao espaço social, são de realçar alguns episódios, onde a criação de ambientes específicos revela a preocupação do autor no sentido de evidenciar algumas das características mais flagrantes do povo português. Esses episódios (a par do recurso às personagens-tipo) constituem um dos vetores estruturais da obra - a crónica de costumes. São eles: - Jantar no hotel central (p. 156 - 176) São assumidas diferentes posições: - Corrida de cavalos (p. 312 - 341) Neste episódio, os seguintes objetos de crítica social: - Jantar em casa dos Gouvarinho (p. 389) - Episódio do Jornal "A Tarde" (p. 571) - Sarau no Teatro da Trindade (p. 586) Tempo. A história narrada n`"Os Maias" estende-se por cerca de sessenta anos (de 1875 a 1877), a que se acrescentam os dez (de 1877 a 1887) correspondentes ao intervalo entre o afastamento de Carlos n estrangeiro e o seu regresso a Lisboa. Todavia, no discurso narrativo, a organização deste tempo da história não é sempre feita por ordem cronológica direta. Vejamos: Perante esta organização do ritmo temporal da narração, verifica-se - de acordo com a centralidade das ações narradas - uma oscilação entre grande rapidez e grande lentidão narrativas: Importância da Analepse. A Grande Analepse começa na pág. 13, cap. I, com: ""Esta existência nem sempre correra com a tranquilidade larga e clara de um belo rio de Verão. O antepassado (…)"; e acaba na pág. 95, cap. IV, com "E então Carlos Eduardo partira para a sua longa viagem pela Europa. Um ano passou. Chegara esse Outono de 1875: (…)". Graças a ela, Eça apresenta-nos a intriga secundária que permite enquadrar e explicar grande parte dos acontecimentos que terão lugar na intriga principal (a separação dos dois irmãos, a educação dada a Carlos, o peso da hereditariedade, o sentimentalismo exagerado das personagens). Extensão. Dentre os vários subgéneros narrativos, o romance é a narrativa mais extensa e mais complexa. Mais breves e mais lineares são, por exemplo, a novela e o conto. Mas neste caso, "Os Maias" é um romance (o mais extenso dos subgéneros narrativos) Crítica social ou dos costumes. O romance veicula sobre o país uma perspectiva muito derrotista, muito pessimista. Tirando a natureza (o Tejo, Sintra, Santa Olávia…), é tudo uma «"choldra ignóbil"». Predomina uma visão de estrangeirado, de quem só valoriza as «"civilizações superiores"» – da França e Inglaterra, principalmente. Os políticos são mesquinhos, ignorantes ou corruptos (Gouvarinho, Sousa Neto…); os homens das Letras são boémios e dissolutos, retrógrados ou distantes da realidade concreta (Alencar, Ega…: lembre-se o que se passou no Sarau do Teatro da Trindade); os jornalistas boémios e venais (Palma…); os homens do desporto não conseguem organizar uma corrida de cavalos, pois não há hipódromo à altura, nem cavalos, nem cavaleiros, as pessoas não vestem como o evento exigia, as senhoras traziam vestidos de missa. Para cúmulo de tudo isto, os protagonistas acabam «"vencidos da vida"». Apesar de ser isto referido no fim do livro, pode-se ver que ainda há alguma esperança implícita, nas passagens em que Carlos da Maia e João da Ega dizem que o apetite humano é a causa de todos os seus problemas e que portanto nunca mais terão apetites, mas logo a seguir dizem que lhes está a apetecer um "prato de paio com ervilhas"", ou quando dizem que a pressa não leva a nada e que a vida deve ser levada com calma mas começam a correr para apanhar o americano (elétrico). Mais do que crítica de costumes, o romance mostra-nos um país – sobretudo Lisboa – que se dissolve, incapaz de se regenerar. Os episódios que mostram alguma crítica (mais evidente) são os seguintes, esquematizados: Quando o autor escreve mais tarde "A Cidade e as Serras," expõe uma atitude muito mais construtiva: o protagonista regenera-se pela descoberta das raízes rurais ancestrais não atingidas pela degradação da civilização, num movimento inverso ao que predomina n’"Os Maias". O papel das mulheres nas obras. Não só o"s Maias" mas também em outros livros de Eça de Queiroz, como o "Primo Basílio" e "O Crime do Padre Amaro", as personagens femininas representam o pecado da luxúria, da perdição. Os historiadores tentam explicar este facto com base na rejeição materna que Eça sofreu. Eça nasceu filho de uma relação não-marital. Embora os seus pais tivessem casado e tido mais filhos posteriormente, Eça de Queiroz foi batizado como "filho natural de José Maria d'Almeida de Teixeira de Queiroz e de Mãe incógnita". Eça foi criado com a avó, depois com uma ama e, mais tarde num colégio. Os historiadores tentam estabelecer um paralelo entre o que a mãe de Eça representou para ele e a caracterização das mulheres na obra de Eça. Em "Os Maias", várias mulheres têm relações amorosas fora do casamento. A primeira é Maria Monforte, a "Negreira", que foge com o napolitano Tancredo, levando consigo a filha e originando a intriga principal. Raquel Cohen não resiste aos encantos de Ega, e amantiza-se com ele, mesmo sendo casada. O mesmo acontece entre Carlos da Maia e a condessa de Gouvarinho. Maria Eduarda não era casada, mas apresenta-se em Lisboa com o apelido do acompanhante, ao passo que toda a sociedade lisboeta pensasse que este fosse seu marido. Ainda assim (e, aos olhos de Carlos, casada) envolve-se num romance com Carlos, que os leva a cometer o incesto. Todas são caracterizadas como seres fúteis e envoltas num ambiente de insatisfação - Maria Monforte (enquanto casada com Pedro da Maia), a Gouvarinho e Raquel Cohen - e mesmo de degradação (imagem que é dada de Maria Monforte no seu apartamento de Paris). Ao passo que Maria Monforte e Maria Eduarda se inserem das tramas secundária e principal, respectivamente, as duas outras personagens são personagens-tipo, que caracterizam a sociedade e os costumes da época. Adaptações televisivas. Foi adaptada para série em 1979 pela RTP, contando com interpretações de Ruy de Carvalho, João D'Ávila, Canto e Castro, Victor de Sousa, Curado Ribeiro, Lia Gama, Maria Amélia Matta, Artur Semedo, entre outros. Em 2001, a adaptação produzida pela Rede Globo em parceria com a emissora portuguesa SIC (Sociedade Independente de Comunicação), estreou simultaneamente em Portugal e no Brasil. Com 42 capítulos, a minissérie Os Maias teve direção de Luiz Fernando Carvalho e elenco composto por Fábio Assunção, Ana Paula Arósio, Walmor Chagas, Leonardo Vieira, Osmar Prado, Antonio Calloni, Cecil Thiré, Eva Wilma, José Lewgoy, Marília Pêra, entre outros. Em Dezembro de 2015, a obra foi adaptada para uma minissérie (constituída por 2 episódios).
1373
OpenSource
OpenSource
1374
Revolta do Quebra-Quilos
Revolta do Quebra-Quilos Revolta do Quebra-Quilos foi uma revolta ocorrida na região Nordeste do Brasil, entre fins de 1872 e meados de 1877, contra a padronização do sistema de pesos e medidas. Contexto. Em 26 de junho de 1862 foi aprovada no Império do Brasil uma lei determinando que o sistema de pesos e medidas então em uso, seria substituído em todo o Império pelo sistema métrico francês, na parte concernente às medidas lineares de superfície, capacidade e peso. O novo sistema, entretanto, só entrou em vigor em 1872, com a promulgação do Decreto Imperial de 18 de setembro. Em 1874 estavam também ainda em uso no Brasil uma grande variedade de outros pesos e medidas, como a braça, a légua, o feixe, o grão, a onça, o quintal e muitos outros padrões, aos quais a população estava acostumada. Com a substituição dessas medidas concretas e conhecidas por medidas novas e abstratas, pequenos lavradores e consumidores temiam ser desfavorecidos nas suas relações com os comerciantes e cobradores de impostos. A revolta foi contemporânea e teve coincidência de geografia e objetivos com os rasga-listas, movimentos contra a lei de 1874 implantando o serviço militar obrigatório por sorteio. Revolta. A tentativa de implantação do novo sistema métrico no país provocou revolta em diversos lugares. No estado da Paraíba, por exemplo, onde tudo começou, João Vieira, o João Carga d'Água, liderou os revoltosos que iniciaram o movimento no povoado de Fagundes em Campina Grande num dia de feira, onde quebraram as "medidas" (caixas de madeira de um e cinco litros de capacidade), fornecidas pelo poder público municipal e usadas pelos feirantes, e atiraram os pesos dentro de um açude da cidade chamado hoje de Açude Velho. Os revoltosos cresceram em número, e já então sob a liderança de Manuel de Barros Souza, conhecido como Neco de Barros, e Alexandre Viveiros, invadiram a cadeia da cidade e libertaram os presos, incendiaram o cartório local e os arquivos da prefeitura. Em mais de setenta outras localidades nordestinas, o povo se rebelou, invadindo as Câmaras e destruindo as medidas e os editais. Diversos motivos determinaram o descontentamento da população. Uma delas foi a cobrança de taxas para o aluguel e aferição dos novos padrões do sistema métrico – balanças, pesos e vasilha de medidas. A lei que os criara proibia a utilização dos antigos padrões, e os seus substitutos deveriam ser alugados ou comprados na Câmara Municipal à razão de 320 réis por carga. Os comerciantes, por sua vez, acrescentavam ao preço das mercadorias o valor do aluguel ou da compra dos padrões, o que encarecia ainda mais os produtos para a população. Outra razão foi a criação do chamado "imposto do chão", cobrado dos feirantes que expunham no chão da feira as mercadorias que pretendiam vender. E uma terceira, o estabelecimento das novas regras de recrutamento, sobre as quais se dizia que não escapariam do "voluntariado" militar nem as pessoas de posses. Por todas essas razões o número de revoltosos cresceu de forma acelerada, já que era engrossada por comerciantes, por proprietários de imóveis, por pequenos agricultores cuja receita dependia da venda semanal de sua produção na feira, e também por consumidores que se sentiam diretamente atingidos em virtude da elevação de preços dos produtos que precisavam adquirir. A luta contra a sistemática inovadora se estendeu a muitos outros municípios, e acabou envolvendo também os estados de Piauí, Paraíba, Pernambuco, Alagoas e Rio Grande do Norte. Neste estado, das treze vilas rebeladas, cerca de cinco eram da região do Seridó: Acari, Currais Novos, Flores, Jardim e Príncipe. Repercussão. Pela repercussão favorável que encontrou, a revolta dos Quebra-Quilos preocupou fortemente as autoridades provinciais porque vilas inteiras do Nordeste aderiram à rebelião contra o decreto que impunha a implantação de um novo sistema métrico, com seus habitantes saqueando feiras e destruindo pesos e medidas do comércio. Mas a enérgica repressão promovida pelo governo imperial foi bem sucedida, porque as forças militares conseguiram em pouco tempo pacificar a região, sem necessidade de confrontos mais sérios.
1376
OS_2
OS/2 OS/2 ou OS/2 Warp foi um sistema operacional da IBM. A sigla significa "Operating System/2". A primeira versão do OS / 2 foi lançada em dezembro de 1987 e versões mais recentes foram lançadas até dezembro de 2001. O OS/2 foi desenvolvido como um sucessor do modo protegido do MS-DOS. Era possível criar aplicativos em modo texto que podiam funcionar em ambos os sistemas. Por causa dessa herança, o OS/2 compartilha semelhanças com Unix, Xenix e Windows NT. História. OS/2 e Windows possuem uma origem comum: eram um único sistema nos anos 80 (mas com versões distintas) feitas simultaneamente pela IBM e Microsoft. Por uma decisão de Bill Gates a Microsoft resolveu abandonar o projeto OS/2 em 1990 e dedicar-se ao Windows. Os sistemas passaram então a competir pelo mercado corporativo e doméstico adentrando os anos 90. O sistema da IBM sempre foi considerado melhor tecnicamente, pois conseguia correr nativamente programas do seu concorrente mas o mesmo não poderia ser feito no Windows. O OS/2 também foi o primeiro dos dois a implementar TCP/IP, ter uma versão em 32 bits e máquina Java. Por falhas de marketing e investimento, o OS/2 sucumbiu diante do Windows 95 que a partir de 1995 engoliu praticamente 80% do mercado de sistemas operativos. Até 1996 a IBM tentou vender o OS/2 para o utilizador doméstico mas sempre cometendo as mesmas falhas: pouco marketing, pouco investimento em suporte técnico e pouco lobby para angariar novos programas compatíveis. Por correr programas do Windows e acreditar que isso era o suficiente para suprir lacunas do sistema, a IBM comete uma grave falha e sucumbe diante da explosão de oferta de programas 32 bits para Windows a partir de 1996. Em 1997 o sistema sai das prateleiras convencionais e muda de foco: é vendido apenas como pacote de soluções para empresas. Mesmo assim o sistema segue vendendo pouco, principalmente pela falta de suporte especializado. A partir de 1998 o OS/2 cai no ostracismo e é esquecido pelo mercado graças a chegada do novo Sistema Operacional, o Linux. Em 1998, a Stardock Corporation, que desenvolvia aplicativos para o sistema como o jogo "Galatic Civilization" e o "Object Desktop", tenta negociar com a IBM uma nova versão do OS/2 para usuários finais, o que implicaria na abertura de seu código-fonte. A IBM recusa a proposta, e a Stardock desiste de desenvolver aplicativos para o OS/2. Em 2001 a IBM autorizou a Serenity Systems a vender e distribuir uma versão actualizada do Warp 4.52 para utilizadores finais e estudantes. Essa versão customizada chama-se eComStation. Estima-se que o OS/2 esteja operacional em 800.000 máquinas pelo mundo, principalmente em instituições financeiras. O Banco do Brasil foi um dos maiores utilizadores do sistema, empregando-o em caixas eletrônicos e gabinetes de atendimento ao público, mas ainda o utiliza em parte, rodando sob o Windows, até ocorrer a migração completa para o Linux. Entendendo o OS/2. Sistema de Arquivos. O OS/2 suporta o sistema de arquivos FAT (usado no DOS e Windows), a Super FAT e o HPFS, o sistema desenvolvido pela IBM e Microsoft (onde originou o NTFS), que explora melhor o disco rígido de grande porte. O HPFS, completamente 32bits, é muito superior a FAT (originalmente de 16bits, e posteriormente com 32bits virtuais na VFat). Apresenta suporte nativo a nomes de arquivos de até 254 caracteres, espaços entre caracteres em letras maiúsculas ou minúsculas, inclusive alguns de uso restrito até hoje, como o ":" (dois pontos) e estende o suporte a nomes longos para a FAT16 através do uso de arquivos de sistema. Visando a transição do DOS com interface Windows 3.x, a IBM dotou o OS/2 2.0 em diante, com e a Super FAT que é armazenada na RAM, o que desgasta muito menos o HD e aumenta a velocidade de acesso consideravelmente. Outra diferença importante é que a Super FAT é desenhada em 32bits. Entretanto, o HPFS é mais veloz em acesso a disco, em especial em discos grandes. O HPFS ainda permite 64KB de atributos estendidos para cada arquivo, esses atributos podem ser quaisquer informações sobre o arquivo. O sistema de arquivos do OS/2 também ordena a exibição de arquivos de um diretório automaticamente e mantém as informações sobre um arquivo próximo a ele, facilitando a localização de um arquivo em grandes discos. O HPFS também utiliza um sistema de cache de disco, para melhorar o seu desempenho, usando estratégias de alocação cujo objetivo é assegurar que os arquivos permaneçam contíguos. De todos os atributos do OS/2, os mais importantes estão em sua proteção, impedindo que um aplicativo derrube o sistema todo, pois o acesso à memória é exclusivo, e totalmente gerenciado pelo OS/2. Memória. Toda a memória do computador possui um endereço atribuído a ela. O processador usa esse endereço para recuperar ou alterar o conteúdo da memória em um local em particular. No OS/2, toda a memória é acessada usando-se um endereço de 32bits. Esse endereço de 32bits permite até 4 GB de endereçamento direto. Existem dois esquemas para acessar a memória do computador: o plano (usado no OS/2) e o segmentado (usado no DOS e Windows 3.11). No modelo de memória plano, a memória está totalmente disponível ao processador e pode ser acessada diretamente; os endereços são seqüenciais de 0 a 2³²-1 (4 GB). No modelo de memória segmentado, a memória total é dividida em segmentos de 640KB. Um aspecto importante nessa diferença no modo de gerenciar memória é que no OS/2 o limite de 640KB é inexistente. Observe que isso se refere a um sistema operacional dos anos 80, o que dá a exata noção do quanto ele já era avançado na época. Capacidade Multitarefa. O OS/2 é um sistema multitarefa preemptivo, ou seja, capaz de processar diversos programas concomitantemente (ao mesmo tempo). Ele foi desenvolvido desde seu início para ser um sistema preemptivo e essa é uma das suas grandes vantagens. O sistema preemptivo divide o processador e a RAM da máquina entre os programas de modo que todos fiquem com o suficiente. Diferente do modelo cooperativo de multitarefa, os recursos são totalmente administrados pelo S.O., não podendo ser afetados pelos aplicativos. O OS/2 roda aplicativos de 16 bits em áreas isoladas na memória, protegendo assim cada um do comportamento falho dos outros. Confiabilidade. O OS/2 é um sistema extremamente confiável, por diversos motivos, muito mais seguro que a maioria das versões do Windows. No que diz respeito aos arquivos, o HPFS tem um ótimo sistema de tratamento de erros, com hotfixes e a fragmentação do disco é mínima, o que também diminui a probabilidade de erro no disco. Além disso, ele é um sistema realmente preemptivo, e quando um programa tenta invadir a área de memória de outro ele é imediatamente fechado, o que impede que o sistema todo tranque por causa de um aplicativo. Os arquivos vitais do sistema ficam em uma área reservada na memória que pode ser acessada mesmo que todos os outros programas tranquem. E o OS/2 é um sistema quase totalmente desenhado em 32bits, e uma das causas da instabilidade no Windows 95 é a mistura de programas 32 bits com programas 16 bits. OS/2 Warp 4. A última versão do OS/2 feita pela IBM (cuja versão beta trazia o codinome de "Merlin") trouxe uma série de inovações, como o suporte a voz, o Voice Type. Ao invés de teclado e mouse o usuário utiliza o sistema através do uso da voz. Embora alguns considerem a versão 4.5 como a verdadeira última, pois trouxe alterações que em outros sistemas denotariam uma nova versão. O sistema aceita comandos falados através de um microfone, pode-se abrir e fechar programas, ditar textos e até navegar na Internet via voz. Para funcionar de maneira satisfatória, é necessário que o micro esteja preparado com uma boa quantidade de memória, no mínimo 32 MB de RAM. Com o editor IBM Works, que não tem versão em português, é possível ditar textos. O Voice Type vem acompanhado de um jogo, onde o usuário deve pronunciar acertadamente o nome dos estados americanos a partir de seu mapa político. Esta versão também está muito mais preparada para a Internet, com um navegador interno, diversas ferramentas para navegação e suporte nativo a linguagem Java, da Sun, contando inclusive com uma plataforma de desenvolvimento. O sistema tem suporte à tecnologia plug and play Algumas alterações foram:
1377
Os Paralamas do Sucesso
Os Paralamas do Sucesso Os Paralamas do Sucesso, também conhecida somente por Paralamas, é uma banda de "rock" brasileira formada em 1982 no município fluminense de Seropédica. Os integrantes atuais são: Herbert Vianna (vocal, guitarra), Bi Ribeiro (baixo) e João Barone (bateria). Inicialmente, a banda misturava "rock" e "reggae" e posteriormente passaram a agregar instrumentos de sopro e ritmos latinos. História. Início e "Cinema Mudo". Em 1977, Herbert Vianna se mudou de Brasília para o Rio de Janeiro para fazer o Ensino Médio em um colégio militar e reencontrou Bi Ribeiro, amigo de infância da capital brasileira que estava no terceiro ano na mesma instituição. Os dois compartilhavam do gosto pelo rock e começaram a ensaiar juntos de forma amadora, uma vez que Herbert tocava guitarra e Bi baixo, convidando ainda para se juntar a eles o baterista Vital Dias, amigo do baixista. Em 1979, os três amigos deixaram de se ver por conta do vestibular e só voltaram a se reencontrar em 1981. Neste ano voltaram a ensaiar juntos em um sítio em Mendes, interior fluminense, e na casa da avó de Bi, em Copacabana, quando também passaram a compor canções de cunho humorísticas, como "Vovó Ondina é Gente Fina", "Mandingas de Amor", "Reis do 49" e "Pinguins? Já Não os Vejo Pois Não Está na Estação". Além disso, os amigos trouxeram Ronel e Naldo como vocalistas da banda, que foi batizada originalmente como As Cadeirinhas da Vovó. Em 1982, os amigos decidiram se tornar uma banda profissional e passar a compor a sério, porém Ronel e Naldo não visavam seguir a carreira artística e decidiram não fazerem parte do projeto. Hebert, que até então tocava apenas guitarra, se tornou também vocalista da nova banda, batizada como Os Paralamas do Sucesso, e eles começaram a realizar shows oficialmente, trazendo um repertório que mesclava músicas próprias e "covers" de outros artistas. Em 1982, Vital faltou a uma apresentação na Universidade Rural do Rio e foi substituído por João Barone, que assumiu de vez o lugar na banda pela inviabilidade de continuar na carreira artística do baterista original, mantendo ainda uma relação de amizade com eles fora dos palcos. Neste ano a banda enviou a demo da canção "Vital e sua Moto" para a Fluminense FM, se tornando uma das mais tocadas na rádio no verão de 1983. Em janeiro a banda abre os shows de Lulu Santos no Circo Voador, fato que chamou atenção da EMI, com quem assinaram contrato. No mesmo ano a banda lança o álbum "Cinema Mudo" trazendo as canções humoradas escritas antes de se profissionalizarem, o que a banda era contra, porém tendo sido obrigados pela gravadora para garantir um lançamento sério futuro. Apesar dos Paralamas serem considerados parte da turma do "rock de Brasília" – como Legião Urbana, Plebe Rude e Capital Inicial –, por terem amizade com estas bandas, além de Herbert e Bi terem vindo da capital brasileira, o Paralamas foi formado no Rio de Janeiro. "O Passo do Lui", "Selvagem?" e "Bora Bora". Em 1984, a banda lançou finalmente o tão esperado álbum mais sério, "O Passo do Lui", que teve enorme sequência de sucessos como "Óculos", "Me Liga", "Meu Erro", "Romance Ideal" e "Ska", além da aclamação crítica, levando o grupo a tocar no Rock in Rio, no qual o show dos Paralamas foi considerado um dos melhores. Depois de grande turnê, lançaram em 1986, "Selvagem?", o mais politizado. O álbum contrapunha a "manipulação" desde sua capa (com o irmão de Bi no meio do mato apenas com uma camiseta em torno da cintura), e misturava novas influências, principalmente da MPB. Com sucessos como "Alagados", "A Novidade" (a primeira com participação de Gilberto Gil, e a segunda co-escrita com ele), "Melô do Marinheiro" e "Você" (de Tim Maia), "Selvagem?" vendeu 700.000 cópias e credenciou os Paralamas a tocar no cultuado Festival de Montreux, em 1987. O show no festival da cidade suíça viraria o primeiro disco ao vivo da banda, "D". Nele, a novidade, em meio ao show com os sucessos já conhecidos, era a inclusão de um "4º paralama", o tecladista João Fera, que excursiona com a banda até hoje, como músico de apoio. Os Paralamas também fizeram turnê pela América do Sul, ganhando popularidade em Argentina, Uruguai, Chile e Venezuela. O sucessor de "Selvagem?", "Bora-Bora" (1988) acrescentou metais ao som da banda. O álbum mesclava faixas de cunho político-social como "O Beco" com as introspectivas "Quase Um Segundo" e "Uns Dias" (reflexo talvez do fim do relacionamento com a vocalista da banda Kid Abelha, Paula Toller). "Bora-Bora" é tão aclamado pela crítica quanto "O Passo do Lui". "Big Bang", "Os Grãos" e "Severino". "Big Bang" (1989) seguia o mesmo estilo dos anteriores, tendo como "hits" a alegre "Perplexo" e a lírica "Lanterna dos Afogados". Seguiu-se a coletânea "Arquivo", com uma regravação de "Vital" e a inédita "Caleidoscópio" (antes gravada por Dulce Quental, do grupo Sempre Livre). O começo da década de 1990 foi dedicado às experimentações. "Os Grãos" (1991), disco com enfoque nos teclados e menor apelo popular, não foi bem nas paradas (apesar de ter tido 2 sucessos, "Trac-Trac" - versão do argentino Fito Páez - e "Tendo a Lua") e nem vendeu muito, algo que também pode ser atribuído à grave crise econômica pela qual o Brasil passava. Após uma pequena pausa (na qual Herbert lançou seu primeiro disco solo), o trio retorna aos shows, que continuavam cheios, embora a banda passasse por fortes críticas da imprensa. No fim de 1993, a banda viaja para a Inglaterra, onde, sob a produção de Phil Manzanera, gravam "Severino". O álbum, lançado em 1994, teve participação do guitarrista Brian May da banda inglesa Queen na música "El Vampiro Bajo El Sol". Este disco era ainda mais experimental, com arranjos muito elaborados, e foi ignorado pelas rádios e grande público, vendendo 55 mil cópias. Mas se no Brasil os Paralamas estavam esquecidos, no resto da América eles eram ídolos. "Paralamas" (1992), coletânea de versões em espanhol e "Dos Margaritas" (a versão hispânica de "Severino") estouraram principalmente na Argentina. "9 Luas" e "Hey Na Na" e "Acústico MTV". Apesar das fracas vendagens do CD, a turnê do álbum "Severino" estava sendo muito bem sucedida, com o público recebendo sempre bem os Paralamas. Uma série de três shows, gravada no fim de 1994, viraria em 1995 o disco ao vivo "Vamo Batê Lata". "Vamo Batê Lata" era acompanhado de um CD com quatro músicas inéditas, e o sucesso de "Uma Brasileira" (parceria de Herbert com Carlinhos Brown e participação de Djavan), "Saber Amar" e a controvertida "Luís Inácio (300 Picaretas)" (que criticava a política brasileira e os Anões do Orçamento) atraiu a atenção de público e imprensa de volta aos Paralamas. A volta às canções de fácil compreensão e ao formato pop colaborou definitivamente para o retorno ao sucesso de crítica e público, resultando na maior vendagem da carreira da banda (900 mil cópias). Também começou aí a fase dos videoclipes superproduzidos, que levariam 11 VMB de 1995 a 1999, começando por "Uma Brasileira", vencedor nas categorias Clipe Pop e Escolha da Audiência. "Nove Luas", de 1996 e "Hey Na Na", de 1998 continuaram o caminho de êxito com faixas como "Lourinha Bombril", "La Bella Luna" e "Ela Disse Adeus" ("Nove Luas" vendeu 250.000 cópias em um mês, enquanto "Hey Na Na" vendeu o mesmo em apenas uma semana). Em 1999, a MTV Brasil chamou os Paralamas para gravar seu "". O álbum, com canções menos conhecidas e as participações de Dado Villa-Lobos, ex-Legião Urbana e Zizi Possi, vendeu 500.000 cópias, ganhou o Grammy Latino e teve turnê de shows lotados. Em 2000, lançaram uma segunda coletânea, "Arquivo II", com músicas de todos os álbuns entre 1991 e 1998 (exceto "Severino"), uma regravação de "Mensagem de Amor" e a inédita "Aonde Quer Que Eu Vá", parceria de Herbert com Paulo Sérgio Valle (a dupla também escrevera sucessos para Ivete Sangalo). Acidente de Herbert Vianna, "Longo Caminho" e "Uns Dias ao Vivo". No dia 4 de fevereiro de 2001, um ultraleve pilotado por Herbert Vianna teve um acidente em Mangaratiba. A mulher de Herbert, Lucy, estava a bordo e morreu. Herbert fora resgatado e levado para a capital. As sequelas foram duras (Herbert fora entubado e acabara ficando paraplégico), mas assim que Herbert mostrou que podia tocar, Bi e João resolveram voltar aos ensaios e gravar um disco cujas canções já estavam preparadas antes do acidente. Em 2002, é lançado o álbum "Longo Caminho". O som voltava ao princípio, sem metais, em busca de um som mais "cru". Uma apresentação no programa "Fantástico", da TV Globo, serviu como a reestreia da banda, pós-acidente. A volta às turnês teve muito êxito, com shows lotados, até pela curiosidade do público em saber das reais condições de Herbert e da ansiedade em ver a banda reunida novamente. Tudo isso, aliado aos novos sucessos radiofônicos ("O Calibre", "Seguindo Estrelas", "Cuide Bem do Seu Amor" - esta última incluída na trilha sonora da novela "Sabor da Paixão"), impulsionou as vendas de "Longo Caminho", que chegaram a 300 mil cópias. Em 2003, aproveitando o caráter fortemente emocional e emocionado dos shows da turnê, a banda lança o CD e DVD" Uns Dias ao Vivo", com as participações especiais de Dado Villa-Lobos, Andreas Kisser, Edgard Scandurra, Djavan, Nando Reis, Paulo Miklos, George Israel e Frejat. O DVD mostrou uma banda pesada como quase nunca havia se visto. Velhos sucessos, como "Meu Erro", ganhavam versões turbinadas. As novas músicas soavam ainda mais cruas. Além de tudo, a banda decidira fazer a primeira parte da apresentação num pequeno palco armado no meio da pista. A proximidade com o público colaborou para que o resultado final ficasse caloroso e captasse fielmente a emoção dos shows. "Hoje", "Rock in Rio 1985" e "Brasil Afora". Em 2005, a banda lança seu décimo primeiro álbum de estúdio, "Hoje". A recepção foi boa e músicas como "2A", "Na Pista" e "De Perto" fizeram sucesso, embora não tenham sido grandes hits. Embora o disco voltasse a trazer um som mais solar, com a volta do uso de metais, não esquecia a parte pesada que havia sido abordada em "Longo Caminho", em canções como "220 Desencapado", "Ponto de Vista" - que contou com o auxílio de Andreas Kisser, guitarrista do Sepultura - e "Fora de Lugar". Ainda havia uma regravação de "Deus lhe Pague", de Chico Buarque, escolhida numa votação no site oficial da banda. Em 2006, é lançado o DVD "Hoje ao Vivo", contendo um "show" da banda, feito sem plateia, no Pólo de Cinema e Vídeo, Rio de Janeiro, com todas as faixas do álbum, além de duas versões para "O Muro", música que Herbert gravou em "O Som do Sim", seu disco solo de 2000, e "Busca Vida". Também em 2006, é lançado documentário sobre Herbert Vianna, "Herbert de Perto". A direção é de Roberto Berliner, que também dirigiu o DVD. Em 2007, a banda lançou o CD/DVD "", com o "show" histórico realizado pela banda no dia 16 de janeiro de 1985, na primeira edição do "Rock in Rio", com som remixado e imagens tratadas. O lançamento foi uma parceria com a Som Livre, Globo Marcas, Artplan Comunicação e MZA Music. Em 2008, os Paralamas completaram 25 anos de carreira, comemorados com uma série de shows junto com os Titãs, também há 25 anos na estrada. no mesmo ano a música "Me Liga" entrou para trilha sonora da novela "Chamas da Vida da Rede Record". também a série de shows culminou em um espetáculo realizado na Marina da Glória, Rio de Janeiro, lançado em CD e DVD e intitulado "Paralamas e Titãs Juntos e ao Vivo". Em 2009, os Paralamas lançam seu mais recente disco, "Brasil Afora", que ficou primeiramente disponível para download e pouco depois foi lançado em CD. O disco conta com as participações de Carlinhos Brown e Zé Ramalho, fora uma versão de uma música de Fito Paez. No dia 14 de dezembro de 2010, os Paralamas gravaram no Espaço Tom Jobim, no Jardim Botânico do Rio de Janeiro, o CD e DVD "", que contou com as participações de Pitty no clássico "Tendo a Lua" de Zé Ramalho no hit "Mormaço" . O lançamento do DVD ocorreu em Abril de 2011 em um especial do canal Multishow. 2013 - presente: 30 anos de carreira e "Sinais do Sim". Em 2013, a banda comemora 30 anos de carreira com uma turnê nacional em várias regiões do país, que também inspirou um documentário produzido pelo canal Bis, com depoimentos Dado Villa-Lobos, Thedy Corrêa, Rogério Flausino, o empresário José Fortes, entre outros, além dos integrantes da banda. Em agosto de 2014, em parceria com o canal Multishow e a gravadora Universal Music, a banda lança o álbum ao vivo "Multishow ao Vivo: Os Paralamas do Sucesso - 30 Anos", que registra em CD e DVD o show realizado durante a turnê de 30 anos no Citibank Hall, no Rio de Janeiro, no dia 26 de outubro de 2013. O show também havia sido transmitido ao vivo pelo canal na época. Em 3 de março de 2015, o ex-baterista Vital Dias morreu em decorrência de um câncer. Em sua página oficial do Facebook, a banda postou uma mensagem dos membros, na qual diziam estar "solidários" e que mandavam "nossos pensamentos mais elevados para sua esposa, filhos e amigos nessa hora difícil". Em 2016, juntamente com Nando Reis, Dado Villa-Lobos, Paula Toller e Pitty, a banda participou de uma turnê promovida pelo projeto Nivea Viva Rock Brasil, que ocorre anualmente desde 2012 e leva artistas para turnês pelo Brasil. A série de sete shows homenageou o rock brasileiro. Em 2017, é lançado o álbum "Sinais do Sim", que teve a canção homônima como primeiro single. O álbum trazia as referências de rock e reggae, as canções de amor e a busca por uma sonoridade diferente, nesse caso mais crua e direta. Os shows da turnê deste álbum trazia canções lado-b como “A Outra Rota” (Os Grãos, 1991) e “Capitão de Indústria” (de 9 Luas, 1996). Em 6 de outubro de 2019, a banda se apresentou no Palco Mundo do Rock in Rio VIII. Banda de apoio. Teclados. Em "O Passo do Lui", os Paralamas tiveram como tecladista "Jotinha" (da banda de Roberto Carlos). Em 1987 , João Fera se tornou o "quarto paralama". Tocou em todos os álbuns seguintes, exceto Severino. Além disso, os Paralamas já tiveram dois argentinos em participações especiais, Fito Paez (autor de "Trac-Trac") e Charly Garcia. Metais. Os Paralamas flertam com o sopro desde "Volúpia", em "Cinema Mudo". "Ska", de "O Passo do Lui", contava com Leo Gandelman no saxofone (no show de Montreux, George Israel, do Kid Abelha, tocou a música) o qual foi o "quarto paralama" inicial. Em 1987 entra George Israel no sax. Em "Bora-Bora", tiveram pela primeira vez um trio de metais: George Israel: sax ("quinto paralama"); Demétrio Bezerra: trompete ("sexto paralama"); Mattos Nascimento: trombone ("sétimo paralama"), o qual foi substituído por Senô Bezerra em 1988, depois de gravar o disco, no ano seguinte entra Monteiro Jr. substituindo ao George Israel. Em 1993, com a entrada do Eduardo Lyra, o trio de metais se tornou assim: Monteiro Jr: "sexto paralama"; Demétrio Bezerra: "sétimo paralama"; Senô Bezerra: "oitavo paralama", o qual foi substituído por Bidu Cordeiro em 1997. Em 2002, pouco depois da recuperação de Herbert e da volta aos shows, o trompetista "Demétrio Bezerra" decidiu abandonar o trabalho com a banda. Desde então, a formação desse setor de apoio à banda é "Monteiro Jr.": sax ("sexto paralama" até 2007, "quinto paralama" atual) e "Bidu Cordeiro": trombone ("sétimo paralama" até 2007, "sexto paralama" atual). Percussão. A necessidade de percussão no som dos Paralamas exigiu a entrada de "Eduardo Lyra", presente de 1993 a 2007. Prêmios. Video Music Brasil. São os segundos maiores vencedores da história do VMB da MTV Brasil, atrás apenas de Pitty, com quinze prêmios.
1378
Vorbis
Vorbis Vorbis é uma tecnologia que por meio de um algoritmo grava música e voz consumindo pouco espaço virtual no meio de registro, como por exemplo um disco rígido. Por ter muitos predicados, a disseminação do Vorbis é cada vez mais vasta tanto no computador de mesa ("desktop") quanto nas empresas, corporações, governos, instituições e entidades. É usado por profissionais para transmissões pela rede mundial de computadores e sistemas de comunicações terrestres. O Vorbis está em todo lugar, até mesmo em jogos eletrônicos. É administrado pela Xiph.Org Foundation. Todo o mecanismo envolvido na tecnologia Vorbis é gratuito, bem documentado, de código aberto e sem patentes. História. O primeiro algoritmo desenvolvido pela fundação Xiph.Org como parte do projeto "multimedia" foi o Vorbis. Em setembro de 1998, a Fraunhofer emitiu a Carta de Infração para muitos comerciantes e programadores que haviam utilizado as especificações do MPEG-Layer 3 (MP3) para desenvolver arquivos binários. Percebeu-se então que a estratégia da associação Fraunhofer era popularizar o MPEG-Layer 3 por meio de uma gratuidade inicial para mais tarde cobrar valores. Depois desse dissentimento, Chris Montgomery dedicou-se ainda mais ao código do Vorbis. Deve-se notar que a plataforma virtual de arquivo, o Ogg, já existia antes de 1998. Tecnologia. O Vorbis faz compactação com perda de qualidade, de modo a reduzir intensamente o espaço virtual necessário para reter os arquivos. Matematicamente, um áudio em Vorbis não é igual ao áudio de origem. Exemplos de algoritmos com perda de qualidade projetados para áudio digital: Exemplos de algoritmos com perda de qualidade projetados para vídeo digital: Qualidade. Devido a extrema eficiência do algoritmo e sua capacidade de adaptação, o mercado é permissível ao Vorbis. Exemplos de jogos eletrônicos que utilizam o Vorbis: Mozilla Firefox, Google Chrome e Opera Software. No dia 30 de junho de 2009, o Mozilla Firefox, por meio do Theora e do Vorbis, tornou-se o primeiro navegador capaz de exibir vídeos e executar áudio sem a necessidade de complementos. O segundo navegador que atingiu a meta de suportar Vorbis e Theora foi o Google Chrome 3. O terceiro foi o SeaMonkey 2.0. O quarto é o navegador da empresa Opera Software ASA. O Opera 10.50 garante a compatibilidade com o Vorbis e o Theora por meio da camada de "software" Gstreamer. Em maio de 2010 a empresa Google anunciou o grande projeto de tecnologia para transmissão e compactação de áudio e vídeo chamado de WebM. Este projeto, que incorpora o Vorbis, implicará maior aderência de vídeo e áudio de altíssima qualidade à rede mundial de computadores. Compatibilidade. O Vorbis, é potencialmente compatível com qualquer sistema, desde que haja interesse de programadores e engenheiros. Fique consciente dos programas compatíveis já existentes para os seguintes sistemas. Google Chrome OS. O Google Chrome OS é capaz de tocar arquivos Ogg. Google Android. A plataforma para telefone móvel, Google Android, suporta Vorbis. Sistemas baseados no núcleo Linux. Navegadores (em Inglês: "browser"): Estes listados aqui abaixo permitem ouvir áudio de forma integrada na Internet. Rádio, "podcast", música, vídeo com som, entre outros. Programas de propósito geral (trabalho geral com o Vorbis): escutar; ouvir; tocar; abrir; converter; copiar; gravar; editar; criar; gerar, alterar. Microsoft Windows. Navegadores (em Inglês: "browser"): Estes listados aqui abaixo permitem ouvir áudio de forma integrada na Internet. Rádio, "podcast", música, vídeo com som, entre outros. Programas de propósito geral (trabalho geral com o Vorbis): escutar; ouvir; tocar; abrir; converter; copiar; gravar; editar; criar; gerar, alterar. Mac OS X. Navegadores (em Inglês: "browser"): Estes listados aqui abaixo permitem ouvir áudio de forma integrada na Internet. Rádio, "podcast", música, vídeo com som, entre outros. Programas de propósito geral (trabalho geral com o Vorbis): escutar; ouvir; tocar; abrir; converter; copiar; gravar; editar; criar; gerar, alterar. Ogg. O Ogg é uma plataforma virtual de arquivo para conteúdo "multimedia". Pode guardar áudio, vídeo e legendas por meio de todos os algoritmos administrados pela Xiph.Org Foundation. A informação sobre o conteúdo sonoro e visual, como nome do artista e intérprete, é gravada por meio da especificação Vorbis Comment. Confusão. Por consequência da falta de informação, muitas pessoas não discriminam o Ogg do Vorbis, frequentemente chamando todo o projeto de Ogg Vorbis. Outro erro é associar algoritmos com perdas aos algoritmos sem perdas. O FLAC é um algoritmo fiel ao som de origem. Não deve ser confundido com Vorbis ou com o MPEG-Layer 3 (MP3). Mesmo que o FLAC ofereça compactação, ainda assim não ocorre perda de qualidade do sinal. O FLAC foi elaborado para que o produto compactado tenha apenas uma relação íntima de matemática com a onda virtual inicial. Deve-se observar que a compactação oferecida por algoritmos sem análises de psicoacústica, como o FLAC, é menor. Ou seja, para uma mesmo som de origem, o arquivo resultante é maior com relação, por exemplo, ao Vorbis ou MPEG-Layer 3 (MP3). Licença. A especificação do Ogg e do Vorbis são de domínio público. Os utilitários desenvolvidos pela Xiph.Org são distribuídos por meio de uma variante da licença BSD. Os programadores são livres para criar suas próprias implementações. Não há patentes. Dessa forma não existe cobrança monetária por conta da distribuição ou venda de conteúdo em Vorbis.
1379
Ontogenia
Ontogenia A ontogenia (ou ontogênese) (do grego ὀντογένεση, composto de ὄντος, transl. "ontos", 'ser, ente' e γένεσις "génesis", 'criação') diz respeito à origem e ao desenvolvimento de um organismo. É muito comum falar em ontogenia para se referir ao período que vai do momento da fertilização do ovo até que o organismo atinja sua forma madura e completamente desenvolvida – embora o não sabemos termo também possa ser usado de forma mais ampla para se referir ao estudo de um organismo durante todo o seu ciclo de vida, não se restringindo somente ao desenvolvimento embrionário. A ontogenia, ao contrário da filogenia, trata da história de um organismo em seu próprio tempo de vida e desenvolvimento. Já a filogenia se refere à história evolutiva de uma ou mais espécies. Enquanto processos do desenvolvimento (neste caso, ontogenéticos) podem influenciar processos evolutivos (filogenéticos) como consequência, organismos individuais se desenvolvem (ontogenia), ao passo que as espécies evoluem (filogenia). Ontogenia, embriologia e biologia do desenvolvimento são estudos intimamente relacionados e algumas vezes os termos podem ser (e de fato são) usados de forma intercambiável. O termo ontogenia já foi usado, por exemplo, em biologia celular para descrever o desenvolvimento de vários tipos celulares em um organismo. O termo ontogenia, portanto, pode ser aplicado em diversos contextos e estudos, estendendo-se para além da zoologia e do desenvolvimento animal e sendo usado, por exemplo, para descrever o desenvolvimento embrionário de estruturas vegetais como flores. Outros usos da ontogenia, mas de formas um tanto quanto distintas, são nos campos da Psicologia do Desenvolvimento, Neurociência Cognitiva e do Desenvolvimento e Psicobiologia do Desenvolvimento. Ontogenia também é um conceito usado em antropologia como “o processo através do qual cada um de nós incorpora a história da nossa própria formação”. Outro aspecto muito interessante dos estudos ontogenéticos é a variedade de escalas em que ele pode ser aplicado. Pode-se usar o termo ontogenia, por exemplo, para referir-se ao desenvolvimento embrionário completo do ser humano ou de outros organismos; ao mesmo tempo, o termo pode ser usado para descrever a sequência de desenvolvimento de tecidos e células em outros organismos, como em ratos, não englobando o desenvolvimento como um todo. Em outros casos, a ontogenia pode tratar do desenvolvimento de um único sistema. Teoria da Recapitulação. A Teoria da Recapitulação é um tema muito frequentemente associado ao termo ontogenia. Ela tenta explicar as relações entre o desenvolvimento embrionário de um organismo (ontogenia) e a evolução daquele grupo em que este organismo se encontra (filogenia). A célebre frase “A ontogenia recapitula a filogenia”, comumente atribuída a Stephen Jay Gould, é, talvez, a maior e mais objetiva síntese dessa teoria. Ela diz que os estágios de desenvolvimento de um organismo repetem os estágios encontrados na evolução daquele grupo; similarmente, ela diz que seria possível encontrar, na história evolutiva de um grupo de organismos, formas adultas de algumas espécies similares a estágios embrionários de outras espécies, com tais estágios embrionários recapitulando a história evolutiva daquele grupo. Histórico. No início do século XIX, Johann Friedrich Meckel e Antoine Etienne Reynaud Augustin Serres desenvolveram algo que veio ser conhecido posteriormente como Lei de Meckel-Serres. Estudando deformidades em embriões, esses estudiosos propuseram que embriões de organismos de “níveis maiores” passariam, em seu desenvolvimento embrionário, por estágios sucessivos que lembram de forma muito próxima as formas de “níveis inferiores” (o que veio a ficar conhecido como recapitulação). Apesar de a autoria ser atribuída aos dois, eles não trabalhavam juntos, e suas conclusões podem refletir parte do pensamento recorrente da época, tomadas de forma quase simultânea pelos dois pesquisadores e unificadas como uma Lei por outros cientistas muitos anos depois. Interessante notar como a Lei de Meckel-Serres está diretamente apoiada sobre o conceito da "scala naturae". Em 1828, Karl Ernst von Baer propôs quatro leis para explicar como se dava o desenvolvimento embrionário dos organismos e relacioná-las com a grande diversidade de animais (ou seja, novamente surge uma relação ontogenia x filogenia). De forma geral, von Baer criticava a ideia de recapitulação contida na Lei de Meckel-Serres, já que, segundo ele, a ideia de desenvolvimento que ela trazia era linear demais. Para ele, os animais começavam seu desenvolvimento a partir de algumas formas básicas e então se desenvolviam de forma “ramificada”, cada um seguindo seu próprio caminho ontogenético. Dessa forma, suas Leis iam contra a ideia de recapitulação levantada anteriormente por outros pesquisadores, o que é explicitado por sua quarta lei: “Fundamentalmente, dessa maneira, o embrião de uma forma superior nunca lembra qualquer outra forma, somente seu embrião”. Outro marco dessa discussão foi a Lei Biogenética, proposta por Ernst Haeckel em 1866, na Alemanha. Essa lei diz que “os estágios de desenvolvimento do embrião de um animal são iguais aos estágios ou formas adultas de outros animais”; de outra forma, os estágios do desenvolvimento de um animal seriam equivalentes aos adultos de seus ancestrais. Assim sendo, essa lei pode ser resumida pela célebre frase “a ontogenia recapitula a filogenia”. Em 1922, Walter Garstang publicou um trabalho onde propôs que as filogenias atuais resultam de alterações nas ontogenias ancestrais. Portanto, vai por um caminho um tanto quanto distinto daquele percorrido pelos pesquisadores que tanto discutiram o tema, principalmente no século anterior: vai de encontro a ideia de que a ontogenia, e suas variações, são as responsáveis por gerar variação nos sistemas biológicos e, portanto, criam novas filogenias ao fornecer maior variação para a seleção natural. Por fim, em 1977 Stephen J. Gould publica seu célebre livro “Ontogenia e Filogenia”, que conta uma história da teoria da recapitulação. Gould não só apresentou novamente a teoria, como tentou argumentar a favor de sua importância nos estudos evolutivos ainda no século XX, e mostrar que ela não era algo obsoleto. Segundo ele, os conceitos de aceleração e retardamento do desenvolvimento dos animais (hoje discutidos sob o nome de heterocronia) seriam muito importantes para criar novas formas nos desenvolvimentos dos organismos, formas estas que seriam passíveis de seleção natural, levando à evolução de caracteres de forma distinta; Gould fornece alguns novos elementos às ideias de Garstang, além de fazer sua própria argumentação. Em 1979, Gould é um dos autores do importante e interessante artigo “Size and shape in ontogeny and phylogeny” - “Tamanho e forma na ontogenia e filogenia”, em tradução livre - onde discute mais a fundo a questão da heterocronia. Fases do desenvolvimento embrionário. Fecundação. A fecundação é o encontro dos gametas masculino (espermatozóide) e feminino (ovócito II, em humanos). Fertilização. A fertilização é a união dos gametas, gerando um ovo fertilizado (ou zigoto) e iniciando o processo de desenvolvimento embrionário. Maiores detalhes no artigo "" (em inglês). Embriogênese. A embriogênese é o processo através do qual o embrião é formado e se desenvolve. Começa no momento da fertilização do óvulo, que a partir de então passará a se chamar de zigoto. O zigoto sofre rápidas divisões mitóticas sem que haja um grande aumento de crescimento (processo denominado de clivagem e diferenciação celular). Existem dois tipos de embriogênese: a animal, e a vegetal. Na vegetal, a embriogênese tem início com o encontro dos gametas femininos e masculinos (cada grupo de vegetal possui uma forma de encontro específica) onde ocorre a fusão desses gametas, passando por fases como zigoto, protoembrião, globular, cordiforme, torpedo e cotiledonar. É importante ressaltar que a função das células é determinada pela posição que a célula assume no embrião que é ativada por hormônios vegetais. Esse processo é o objeto da Embriologia. Na animal, os embriões passam pelos processos de clivagem, blastulação, gastrulação e neurulação (com a organogênese ocorrendo nestes últimos dois estágios - principalmente na gastrulação). Clivagem. "Ver artigo principal: Clivagem." Clivagem é o nome que se dá a cada uma das divisões mitóticas realizadas nos estágios iniciais de desenvolvimento dos embriões. Existem, basicamente, dois tipos de clivagem: holoblástica, quando a célula inteira é dividida, atravessando todo o eixo do embrião no caso da primeira divisão e meroblástica, ou parcial, que ocorre principalmente quando o ovo possui grande quantidade de vitelo. A clivagem holoblástica pode ser de 5 tipos: radial (como em equinodermos, hemicordados e cefalocordados), espiral (como em anelídeos, moluscos e platelmintos), bilateral (tunicados), rotacional (mamíferos placentários, nematódeos e possivelmente marsupiais) e radial deslocada (anfíbios e alguns peixes). Já a clivagem meroblástica pode ser de 3 tipos: bilateral (moluscos cefalópodes), discoidal (alguns peixes, répteis, aves e monotremados) e superficial (insetos). Blastulação. "Ver artigo principal: Blastulação." A blastulação é o processo de transformação do embrião em blástula, que se dá através de sucessivas clivagens e rearranjos celulares. Nesse estágio, as células do ovo são denominadas blastômeros. Gastrulação. "Ver artigo principal: Gastrulação." A gastrulação é o processo de movimentação de células, altamente coordenado, através do qual elas são dramaticamente rearranjadas e ganham novas posições e células vizinhas, estruturando um plano corpóreo de múltiplas camadas do organismo. Este processo determina os eixos do corpo e também especifica as camadas germinativas (ectoderme, mesoderme e endoderme), as quais darão origem a diferentes órgãos e tecidos. Neurulação. "Ver artigo principal: Neurulação." A neurulação é o processo de formação do tubo nervoso, que dará origem ao Sistema Nervoso Central (SNC). Nesse estágio, o embrião é chamado de nêurula. Ontogenia em animais selecionados. Peixe-palhaço ("Amphiprion ocellaris"). No primeiro dia após a fertilização, os estágios de blástula e gástrula já foram completados e o embrião passa de um estágio de duas camadas a esferoidal. No segundo dia, a cefalização começa com o processo de neurulação. Além disso, os primeiros somitos (derivados mesodérmicos) são formados enquanto melanóforos cobrem todo o blastóporo. Após mais 24h de desenvolvimento, os órgãos e estruturas dos sentidos (olhos, otólitos) começam a se formar enquanto um coração já formado está pulsando (55-60bpm). No dia seguinte, células sanguíneas, agora formadas, fluem para o interior de um coração que pulsa ainda mais rápido (110-120bpm) enquanto, simultaneamente, os brotos oculares são pigmentados. No quinto dia, o ouvido interno e a mandíbula se formam ao mesmo tempo em que as brânquias e o opérculo, que logo começa a se movimentar juntamente com as nadadeiras peitorais. 6 dias após a fertilização, o embrião é liberado do ovo e sua boca é formada, embora permaneça fechada. Olhos e otólitos se encontram muito mais desenvolvidos. Uma semana e o trato digestivo se encontra formado, enquanto a boca já pode se abrir frequentemente. No dia seguinte, os movimentos corporais já são muito mais intensos, com o peixe bem desenvolvido (onde costuma-se dizer que seu desenvolvimento inicial terminou). Rato de laboratório ("Mus musculus"). Um trabalho sobre a ontogenia inicial do rato de laboratório ("Mus musculus") bastante competente, complexo, completo e de livre acesso foi desenvolvido pela seção de embriologia da Universidade de Nova Gales do Sul, da Austrália. Ele pode ser acessado clicando neste link. Ser humano ("Homo sapiens"). O desenvolvimento embrionário dos seres humanos pode ser acompanhado de forma bastante completa no artigo “” (em inglês) ou “Embriologia Humana”, de forma um pouco mais resumida e em português. Estudos multidisciplinares. Ontogenia e Ecologia. Vários estudos têm sido realizados nas últimas décadas interrelacionando aspectos ecológicos de organismos dos mais diversos grupos com a ontogenia. Muitos desses trabalhos se desenvolvem para responder questões que envolvem alterações nos processos e padrões ecológicos encontrados entre espécies ou nas espécies. Alguns exemplos recentes desse tipo de pesquisa abordaram o desenvolvimento ontogenético de peixes que se alimentam de vitelo durante o seu desenvolvimento sob uma perspectiva ecológica, mudanças no comportamento e na ecologia alimentar de cobras, salamandras e peixes. Ontogenia e Fisiologia. Outra intersecção muito importante da ontogenia se dá com os estudos fisiológicos. Não é difícil imaginar o porquê, considerando que a fisiologia tem, como um dos seus principais objetivos, investigar como os organismos funcionam; por isso, não pode abordar suas maiores questões de forma estática, já que a maior parte das variáveis fisiológicas muda o tempo todo, algumas vezes de forma circadiana, outras de forma cíclica em períodos maiores de tempo, e outras ainda durante períodos do desenvolvimento dos organismos, seja de forma reversível ou não. Pensando nisso, muitos autores voltaram seu foco para a ontogenia dos processos fisiológicos. Bons exemplos incluem uma revisão feita sobre a ontogenia dos processos osmorregulatórios em peixes durante seu estágio pós-embrionário, um trabalho que correlaciona a ontogenia e o funcionamento de células T do sistema imune, ontogenia de enzimas pancreáticas e ontogenia no processo de adipogênese quando correlacionada aos aspectos nutricionais. Ontogenia e Evolução. A famosa frase de Dobzhansky “Nothing in Biology makes sense except in the light of evolution” - “Nada na Biologia faz sentido senão sob a luz da evolução”, em tradução livre, - se aplica também, de certa forma, à ontogenia. Pensando na importância da ontogenia na evolução, muitos pesquisadores correlacionam eventos do desenvolvimento com a evolução. Não é uma ideia totalmente nova, pensando nas ideias de Garstang e Gould (dois exemplos já supracitados), imaginar qual tipo de influência a ontogenia pode ter nos processos evolutivos. Mais recentemente, porém, um grande número de autores têm se dedicado à questão. A prolactina, por exemplo, importante hormônio no metabolismo de muitos organismos, é extremamente conservada filogeneticamente. Em 1980, um artigo trazia relações entre sua evolução e ontogenia. Outros exemplos são ainda mais recentes, o que mostra como a questão permaneceu ativa (e permanece até hoje) em vários grupos de pesquisa. Em 1992, um trabalho relacionou a ontogenia e a evolução da tolerância à salinidade em espécies de peixes, conhecidas por passarem do mar à água doce. Em 2000, um livro inteiro foi dedicado à ontogenia, ecologia e evolução de morcegos. Por fim, em 2001, um último exemplo (aqui citado; trabalhos na literatura são em muito maior número): um trabalho correlacionado ontogenia e evolução cranial de macacos é publicado. Teoria de personalidade. Segundo a psicologia comportamental e a psicologia evolucionista, a personalidade é formada pela interação entre filogenia (características da espécie), ontogenia (histórico de desenvolvimento e aprendizagem) e contexto sociocultural. A ontogenia é especialmente importante, no ser humano, para a formação do comportamento, pois ele passa por um longuíssimo período de imaturidade e dependência - o mais longo do reino animal.
1380
OU
OU
1381
Oxigénio
Oxigénio O é um elemento químico de número atómico 8 e símbolo O (8 protões e 8 eletrões) representando com massa atómica 16 u. Constitui parte do grupo dos calcogénios e é um não metal reactivo e um forte agente oxidante que facilmente forma compostos com a maioria doutros elementos, principalmente óxidos. Tem a segunda electronegatividade mais elevada de todos os elementos químicos, superado apenas pelo flúor. Medido pela sua massa, o oxigénio é o terceiro elemento mais abundante do universo, atrás do hidrogénio e hélio, e o mais abundante na crosta terrestre como parte de compostos óxidos, formando praticamente metade da sua massa. Em condições normais de pressão e temperatura, dois átomos do elemento ligam-se para formar o dioxigénio, um gás diatómico com fórmula . Este gás diatómico constitui 20,8% da atmosfera e é fundamental para suportar a vida terrestre. Não obstante, vários estudos dos níveis de oxigénio atmosférico indicam uma progressão global descendente na proporção deste elemento, principalmente por causa das emissões procedentes da queima de combustíveis fósseis. É um gás incolor (azul em estado líquido e sólido), inodoro e , comburente, não combustível e pouco solúvel em água. O dioxigénio é usado na respiração celular e muitas das principais moléculas orgânicas dos organismos vivos como proteínas, ácidos nucleicos, carboidratos e lípidos contêm oxigénio, além dos principais compostos inorgânicos que formam as conchas, os dentes e os ossos dos animais. A maior parte da massa dos organismos vivos é composta por oxigénio enquanto componente da água, o principal constituinte das formas de vida. Devido à sua reactividade química, o oxigénio não pode permanecer na atmosfera terrestre como elemento livre sem que seja constantemente reabastecido pela acção fotossintética dos organismos que utilizam a energia solar para produzir oxigénio a partir da água. O oxigénio elementar O2 somente começou a acumular-se na atmosfera depois do aparecimento destes organismos, há aproximadamente 2 500 milhões de anos. O alótropo ozono () é um forte absorvente de radiação ultravioleta, e a camada de ozono da Terra, a grande altitude, ajuda a proteger a biosfera da incidência de radiação procedente do Sol. Porém, o ozono é um agente contaminante perto da superfície terrestre, sendo um produto derivado do smog. A altitudes de órbita terrestre baixa, o oxigénio atómico presente provoca a corrosão das naves espaciais. O oxigénio foi descoberto autonomamente por Carl Wilhelm Scheele em Uppsala, no ano de 1773, e por Joseph Priestley em Wiltshire no ano de 1774, no entanto é Priestley quem costuma ser designado prioritariamente, uma vez que a sua obra foi a primeira a ser publicada. Em 1777, Antoine Lavoisier cunhou o seu nome e suas experiências com o oxigénio ajudaram a desacreditar a até então popular teoria do flogisto da combustão e corrosão. O nome deriva do grego ὀξύς (oxys) («ácido», literalmente «picante», em alusão ao sabor dos ácidos) e γόνος (-gonos) («produtor», literalmente «gerar»), porque na época em que se lhe deu esta denominação acreditava-se, equivocadamente, que todos os ácidos necessitavam de oxigénio para a sua composição. As aplicações habituais do oxigénio incluem, entre outras, o seu uso em calefações residenciais e motores de combustão interna, a produção de aço, plásticos e têxteis, aplicações de corte industrial e soldadura de aços e outros metais, como propulsor para foguetes, para terapias de oxigénio e sistemas de suporte à vida em aeronaves, submarinos, naves espaciais tripuladas e mergulho. Características principais. Estrutura molecular e propriedades. Nas Condições Normais de Temperatura e Pressão (PTN), o oxigénio é um gás incolor e inodoro com fórmula molecular O2, em que dois átomos de oxigénio se ligam com uma configuração electrónica em estado tripleto. Esta ligação apresenta uma ordem de ligação de dois e costuma-se simplificar nas descrições como uma ligação dupla ou como uma combinação duma ligação de dois electrões e duas ligações de três electrões. O oxigénio tripleto é o estado fundamental da molécula O2, que apresenta dois electrões desemparelhados que ocupam dois orbitais moleculares degenerados. Estes orbitais são classificados como antiligações — debilitam a ordem de ligação de três para dois-, de forma a que a ligação do dioxigénio é mais fraca do que a tripla ligação do nitrogénio diatómico, em que todos os orbitais das ligações moleculares são preenchidos, mas alguns orbitais de antiligação não. Na sua forma normal de tripleto, as moléculas de O2 são paramagnéticas; ou seja, na presença dum campo magnético formam um íman, devido ao momento magnético do spin dos electrões desemparelhados na molécula e à interação de troca negativa entre moléculas de O2 contíguas. O oxigénio líquido é de tal forma magnético que, em demonstrações laboratoriais, um fio de oxigénio líquido pode suster o seu próprio peso entre os polos dum íman potente. O oxigénio molecular singlete é um nome dado a várias espécies de O2 de maior energia, em que todos os spins dos electrões se emparelham. É muito mais reactivo com moléculas orgânicas comuns do que o oxigénio molecular propriamente dito. Na natureza, o oxigénio singlete costuma formar-se com a água durante a fotossíntese, utilizando a energia solar. É também produzido na troposfera por meio da fotólise do ozono pela luz de onda curta e pelo sistema imunitário enquanto fonte de oxigénio activo. Nos organismos fotossintéticos — e possivelmente também nos animais — os carotenoides exercem um papel fundamental na absorção de energia do oxigénio singlete e na conversão deste para o seu estado não excitado antes de provocar danos nos tecidos. Alótropos. O alótropo comum do oxigénio elementar é o chamado dioxigénio (O2), que possui um comprimento de ligação de 121 pm e uma energia de ligação de 498 kJ•mol−1, menor que a energia das outras ligações duplas ou pares de ligações simples presentes na biosfera, e responsável pela reação exotérmica do O2 com qualquer molécula orgânica. Devido ao seu teor de energia, o O2 é utilizado por formas de vida complexas, tal como os animais, na sua respiração celular, desempenhando um papel fundamental na composição da atmosfera terrestre. O trioxigénio (O3) é habitualmente conhecido como ozono e é um alótropo bastante reactivo, prejudicial para o tecido pulmonar. O ozono é produzido na atmosfera superior quando o O2 se combina com o oxigénio atómico causado pela divisão do O2 por radiação ultravioleta. Uma vez que o ozono é um poderoso absorvente na região ultravioleta do espectro electromagnético, a camada de ozono da atmosfera superior funciona como um escudo protector da radiação que o planeta recebe. Perto da superfície terrestre, todavia, é um contaminante formado como subproduto das emissões de automóveis. A molécula metaestável do tetraoxigénio (O4) só foi descoberta em 2001, e assumiu-se que existia numa das seis fases do oxigénio sólido. Em 2006 demonstrou-se que esta fase, criada por meio da pressurização do O2 a 20 GPa, é, de facto, um "cluster" O8 do sistema trigonal. Este "cluster" tem potencial para ser um oxidante muito mais potente do que o O2 e o O3 e pode, por conseguinte, ser usado como propulsor de foguetes. Em 1990 foi descoberta uma fase metálica quando o oxigénio sólido é submetido a uma pressão superior a 96 GPa e demonstrou-se em 1998 que a temperaturas muito baixas converte-se em supercondutor. Propriedades físicas. O oxigénio é mais solúvel em água do que o nitrogénio; água em equilíbrio com ar contém aproximadamente uma molécula de O2 por cada duas moléculas de N2, em comparação à proporção atmosférica, de aproximadamente 1:4. A solubilidade do oxigénio na água depende da temperatura, dissolvendo-se em cerca do dobro (14,6 mg•L−1) a 0 °C do que a 20 °C (7,6 mg•L−1). A 25 °C e , a água doce contém cerca de 6,04 mililitros (ml) de oxigénio por litro, enquanto que a água do mar contém cerca de 4,95 ml por litro. A 5 °C a solubilidade aumenta até 9,0 ml (cerca de 50 % mais do que a 25 °C) por litro na água e 7,2 ml (45% mais) na água do mar. O oxigénio condensa-se a 90,20 K (-182,95 °C, -297,31 °F) e congela a 54,36 K (-218,79 °C, -361,82 °F). Tanto o O2 líquido como o sólido são substâncias claras com uma cor azul céu provocada pela absorção no vermelho, contrastando com a cor azul do céu, que se deve à dispersão de Rayleigh da luz azul. O O2 líquido de grande pureza é obtido através da destilação fracionada do ar liquefeito. O oxigénio líquido também pode ser produzido pela condensação do ar, utilizando nitrogénio líquido como refrigerante. É uma substância altamente reactiva e deve ser separado de materiais inflamáveis. A espectroscopia do oxigénio molecular associa-se aos processos atmosféricos das auroras e outras emissões de luz na atmosfera. A absorção no contínuo de Herzberg e nas bandas de Schumann–Runge no ultravioleta produz oxigénio atómico, importante na química do meio atmosférico. O oxigénio molecular singlete em estado excitado é responsável pela luminescência química vermelha nas soluções. Importância da sua existência. O oxigénio é o elemento químico mais abundante, por massa, na biosfera, ar, mar e terra. É o terceiro mais abundante no universo, atrás do hidrogénio e hélio. Cerca de 0,9 % da massa do Sol é oxigénio. Constitui também 49,2 % da massa da crosta terrestre (cerca de 46,7%), e é o principal componente dos oceanos (cerca de 87% como componente da água). O oxigénio gasoso é o segundo componente mais abundante na atmosfera, constituindo 20,8 % do seu volume e 23,1 % da sua massa (cerca de 1015 toneladas). A Terra é uma excepção entre os planetas do Sistema Solar pela elevada concentração de oxigénio gasoso na sua atmosfera; por exemplo, Marte (com cerca de 0,1 % de O2 do total do seu volume) e Vénus têm concentrações muito inferiores. Contudo, o O2 que circula nestes planetas provém exclusivamente da reação das moléculas que contêm oxigénio, assim como o dióxido de carbono, por efeito da radiação ultravioleta. Os óxidos de metais, silicatos (SiO44-) e carbonatos (CO32-) encontram-se frequentemente em rochas e no solo. Na atmosfera apresenta-se como oxigénio molecular, O2, dióxido de carbono e em menor proporção como monóxido de carbono (CO), ozono (O3), dióxido de nitrogénio (NO2), monóxido de nitrogénio (NO) ou dióxido de enxofre (SO2). Nos planetas exteriores (mais distantes do Sol) e em cometas encontra-se água congelada e outros compostos de oxigénio; por exemplo, em Marte existe dióxido de carbono congelado. O espectro deste elemento também é com frequência observado nas estrelas. A concentração anormalmente elevada de oxigénio gasoso na Terra é resultado do ciclo do oxigénio. Este ciclo biogeoquímico descreve o movimento do oxigénio dentro e entre os seus três principais reservatórios no planeta: a atmosfera, a biosfera e a litosfera. O factor de condução mais importante neste ciclo é a fotossíntese, responsável pela atmosfera moderna da Terra, que libera oxigénio na atmosfera, enquanto que os processos de respiração e descomposição o eliminam. O oxigénio livre ocorre também em soluções nas massas de água do planeta. A maior solubilidade do O2 a baixas temperaturas tem importantes implicações para a vida marinha, uma vez que os oceanos polares sustentam uma densidade de vida muito maior devido ao seu elevado teor de oxigénio. A quantidade de O2 na água pode ser diminuída pela contaminação hídrica, devido à acção da decomposição das algas e outros biomateriais por um processo denominado eutrofização. Os cientistas avaliam este aspecto da qualidade da água através da medição da sua carência biológica de oxigénio, ou quantidade de O2 necessária para restaurá-la para níveis de concentração normais. Isótopos e origem estelar. O oxigénio possui dezassete isótopos cujo número de massa varia entre 12 e 28. O oxigénio encontrado na natureza é composto por três isótopos estáveis: O16, O17 e O18, sendo o O16 o mais abundante (99,762 % de abundância natural). A maior parte do O16 é sintetizado no final do processo de combustão do hélio no interior de estrelas massivas, mas outra parte é produzida no processo de combustão do néon. O O17 deriva fundamentalmente da fusão do hidrogénio em hélio durante o ciclo CNO, convertendo-o num isótopo comum nas zonas de combustão de hidrogénio nas estrelas. A maioria do O18 é produzido quando o N14 — que abunda devido à combustão CNO — captura um núcleo de He4, tornando o O18 comum nas zonas ricas em hélio das estrelas massivas. Foram evidenciados quatorze radioisótopos, dos quais os mais estáveis são o O15 com um período de semidesintegração de 70,606 segundos. Todos os restantes isótopos radioactivos têm períodos de semidesintegração inferiores a 27 segundos e a maior parte destes, inferiores a 83 milissegundos. A forma de desintegração dos isótopos mais leves que o O16 é a desintegração β+ para produzir nitrogénio. O tipo de decaimento mais comum para os isótopos mais pesados do que o O18 é a desintegração β que dá origem ao flúor. Compostos. O estado de oxidação do oxigénio é -2 em quase todos os compostos conhecidos do oxigénio. O estado de oxidação -1 encontra-se em alguns compostos, como os peróxidos. Os compostos noutro estado de oxidação são muito raros: -1/2 (superóxidos), -1/3 (ozónidos), 0 (elementar, ácido hipofluoroso), +1/2 (dioxigenil), +1 (difluoreto de dioxigénio) e +2 (difluoreto de oxigénio). A sua alta eletronegatividade faz com que reaja com muitos elementos químicos, excepto os gases nobres. O composto mais notável do oxigénio é a água (H2O); outros compostos importantes que apresentam o elemento oxigénio na sua composição são: o dióxido de carbono, os álcoois (R-OH), aldeídos, (R-CHO) e ácidos carboxílicos (R-COOH). Os radicais clorato (ClO3-), perclorato (ClO4-), cromato (CrO42-), dicromato (Cr2O72-), permanganato (MnO4-) e nitrato (NO3-) são fortes agentes oxidantes. Os epóxidos são éteres nos quais o átomo de oxigénio é um hétero-tomo. O ozónio (O3) forma-se mediante descargas elétricas a partir do oxigénio molecular, como por exemplo, durante as tempestades elétricas. Também já foi encontrado no oxigénio líquido, em pequenas quantidades, uma dupla molécula de oxigénio: (O2)2. Óxidos e outros compostos inorgânicos. A água (H2O) é um óxido de hidrogénio e é o composto de oxigénio mais comum. Os átomos de hidrogénio estão ligados covalentemente ao oxigénio na molécula de água, mas numa massa de água também são atraídos (cerca de 23,3 kJ•mol−1 por átomo de hidrogénio) pelo átomo de oxigénio doutra molécula de água adjacente. Estas ligações de hidrogénio entre moléculas de água mantêm-nas aproximadamente 15 % mais próximas do que seria espectável num líquido simples apenas com as forças de Van der Waals. Devido à sua electronegatividade, o oxigénio forma ligações químicas com quase todos os elementos a altas temperaturas para formar óxidos correspondentes. Contudo, alguns elementos formam óxidos directamente em condições normais de pressão e temperatura, como o óxido formado do ferro. As superfícies de metais como o alumínio e o titânio oxidam-se na presença do ar e são revestidas por uma fina camada de óxido que passiva o metal e abranda a corrosão. Alguns dos óxidos metálicos de transição são encontrados na natureza como compostos não estequiométricos, com um pouco menos de metal do que a fórmula química sugere. Por exemplo, o FeO ("wustite"), que se forma naturalmente, é escrito como Fex-1O, onde o «x» é normalmente cerca de 0,05. O oxigénio como composto está presente na atmosfera em pequenas quantidades em forma de dióxido de carbono (CO2). A rocha da crosta terrestre é composta por grandes quantidades de óxidos de silício (dióxido de silício SiO2, como o encontrado no granito e quartzo), alumínio (óxido de alumínio Al2O3, em bauxite e corindo), ferro (óxido férrico Fe2O3, na hematite e ferrugem) e cálcio (carbonato de cálcio CaCO3, no calcário). O restante da crosta terrestre é também constituído por compostos de oxigénio, em particular vários silicatos complexos. No manto terrestre, com uma massa muito maior do que a crosta terrestre, abundam os silicatos de ferro e magnésio. Os silicatos solúveis em água com as formas Na4SiO4, Na2SiO3 e Na2Si2O5 são utilizados em detergentes e adesivos. O oxigénio também actua como ligação para metais de transição, formando ligações de O2 metálico com átomos de irídio no complexo de Vaska, com platina no PtF6 e com o centro de ferro no grupo hemo da hemoglobina. Compostos orgânicos e biomoléculas. Entre as classes mais importantes de compostos orgânicos que contêm oxigénio mencione-se (onde «R» é um grupo orgânico): álcoois (R-OH), éteres (R-O-R), cetonas (R-CO-R), aldeídos (R-CO-H), ácidos carboxílicos (R-COOH), ésteres (R-COO-R), anidridos de ácido (R-CO-O-CO-R) e amidas (R-C(O)-NR2). Existem muitos dissolventes orgânicos importantes que contêm oxigénio, entre os quais: acetona, metanol, etanol, álcool isopropílico, furano, tetraidrofurano, éter etílico, dioxano, acetato de etila, dimetilformamida, dimetilsulfóxido, ácido acético e ácido fórmico. A acetona (CH3(CO)CH3) e o fenol (C6H5OH) são usados como matérias na síntese de muitas substâncias diferentes. Outros compostos orgânicos importantes que contêm oxigénio são, o glicerol, formaldeído, glutaraldeído, ácido acético e acetamida. Os epóxidos são éteres nos quais o átomo de oxigénio constitui parte dum anel de três átomos. O oxigénio reage espontaneamente com muitos compostos orgânicos a temperatura ambiente ou inferior, num processo designado autoxidação. A maior parte dos compostos orgânicos que contêm oxigénio não se produzem por acção directa do O2. Os compostos orgânicos importantes na indústria e comércio produzidos por oxidação directa dum precursor incluem o óxido de etileno e o ácido peracético. O elemento encontra-se em quase todas as biomoléculas importantes para (ou geradas por) a vida. Apenas algumas biomoléculas complexas comuns, como o esqualeno e o caroteno, não possuem oxigénio. Dos compostos orgânicos com importância biológica, os carboidratos contêm a maior proporção de oxigénio na sua massa. Todas as gorduras, ácidos gordos, aminoácidos e proteínas contêm oxigénio (devido à presença de grupos carbonilos nesses ácidos e nos seus resíduos de éster). O oxigénio também está presente em grupos de fosfato () nas moléculas biologicamente importantes que transportam energia, ATP e ADP, na coluna vertebral e purinas (à excepção de adenina e pirimidinas de ARN e ADN) e nos ossos como fosfato de cálcio e hidroxiapatita. História. Uma das primeiras experiências conhecidas sobre a relação entre combustão e o ar foi realizada por Filão de Bizâncio, escritor grego do século II a.C., que tinha como um de seus interesses a mecânica. Na sua obra "Pneumatica", Filão observou que invertendo um recipiente sobre uma vela acesa e colocando água em torno do gargalo do vaso, uma parte do líquido subia pelo gargalo. Filão supôs erradamente que partes do ar no recipiente eram convertidas no elemento clássico do fogo e, portanto, eram capazes de escapar através dos poros do vidro. Vários séculos depois, Leonardo da Vinci, com base no trabalho de Filão, observou que uma parte do ar é consumida durante a combustão e respiração. No final do século XVII, Robert Boyle provou que o ar é necessário para a combustão. O químico inglês John Mayow refinou este trabalho, mostrando que o fogo requer apenas uma parte do ar, que denominou de "nitroaereus spiritus" ou simplesmente "nitroaereus". Num experimento, descobriu que, colocando tanto um rato como uma vela acesa num recipiente fechado sobre água, levava a água a subir e substituir um décimo quarto do volume do ar antes de sufocar os objetos da experiência. A partir disso, supôs-se que o "nitroaereus" era consumido tanto na respiração como na combustão. Mayow observou que o antimónio aumentava o seu peso quando aquecido, e inferiu que o "nitroaereus" deve ter combinado com ele. Também pensava que os pulmões separavam o "nitroaereus" do ar passando-o para o sangue, e que o calor animal e o movimento dos músculos resultava da reação do "nitroaereus" com determinadas substâncias no organismo. Relatos dessas e doutras experiências e ideias foram publicados em 1668 na sua obra "Tractatus duo" no tratado "De respiratione". Teoria do flogisto. Robert Hooke, Ole Borch, Mikhail Lomonossov e Pierre Bayen produziram oxigénio durante experimentações entre os séculos XVII e XVIII, mas nenhum deles o reconheceu como um elemento. Isto deveu-se em parte à prevalência da filosofia da combustão e corrosão, denominada teoria do flogisto, que era até então a melhor explicação para esses processos. Esta teoria, estabelecida em 1667 pelo químico alemão Johann Joachim Becher e modificada pelo também químico Georg Stahl em 1731, postulava que todos os materiais combustíveis eram constituídos por duas partes; uma, chamada flogisto, que era emitida ao queimar a substância em questão, e outra, denominada desflogisticado, que era tida como a sua verdadeira forma, o "calx" (cinza; greda em latim). Acreditava-se que os materiais altamente inflamáveis que deixam poucos resíduos, como a madeira ou o carbono, eram constituídos essencialmente por flogisto, enquanto que as substâncias não combustíveis que se corroem, como o ferro, continham muito pouco. O ar não desempenhava nenhum papel na teoria do flogisto nem foram realizadas experiências quantitativas para testar a ideia; em vez disso, a teoria baseava-se em observações sobre o que acontece quando um objeto é queimado: os objectos mais comuns pareciam tornar-se mais leves e perdiam algo no processo de combustão. Para justificar o facto de que uma substância como a madeira realmente "ganhava" peso no seu conjunto durante a combustão, Stahl afirmava que o flogisto possuía massa negativa. Uma das primeiras evidências sobre a falsidade da teoria do flogisto era que os metais também ganhavam peso na oxidação (quando supostamente perdiam flogisto). Descoberta. A descoberta se deu pelo farmacêutico sueco Carl Wilhelm Scheele, que produziu oxigénio gasoso aquecendo óxido de mercúrio e vários nitratos por volta de 1772. Scheele chamou ao gás "ar do fogo", porque era o único apoio conhecido para a combustão, e escreveu um relatório sobre a sua descoberta em um manuscrito intitulado "Chemische Abhandlung von der Luft und dem Feuer» ( «Tratado químico do ar e do fogo" ) e enviou-o para a sua editora em 1775; no entanto, só em 1777 é que o documento foi publicado. O seu trabalho não teve reconhecimento imediato, sendo a descoberta ocasionalmente atribuída a Joseph Priestley, que elaborou uma experimentação independente a 1 de agosto de 1774. Este realizou uma experiência no qual focou a luz solar sobre óxido de mercúrio (II) (HgO) no interior de um tubo de cristal, que libertou um gás que denominou de «ar desflogisticado". Com isso, observou que as velas ardiam mais intensamente no gás e que o rato estava mais ativo e vivia durante mais tempo enquanto o respirava. Após ele mesmo inalar o gás, escreveu: "A sensação do gás nos meus pulmões não era perceptivelmente diferente à do ar normal, mas senti o meu peito particularmente leve e desafogado durante algum tempo depois". Priestley publicou as suas descobertas em 1775 num artigo intitulado "An Account of Further Discoveries in Air" ("Um relatório de mais descobertas no ar"), que incluiu no segundo volume do seu livro intitulado "Experiments and Observation on Different Kinds of Air". Uma vez que os seus achados foram publicados primeiro, Priestley é geralmente considerado o autor da descoberta. O renomado químico francês Antoine Lavoisier afirmou mais tarde ter descoberto a substância autonomamente. No entanto, Priestley visitou Lavoisier em outubro de 1774 e falou-lhe sobre o seu experimento e como libertar o novo gás. Scheele também escreveu uma carta a Lavoisier em 30 de setembro do mesmo ano, na qual descrevia a sua própria descoberta da substância antes desconhecida, mas o francês nunca reconheceu tê-la recebido. Após a morte de Scheele, foi encontrada uma cópia da carta entre os seus pertences. Contribuição de Lavoisier. Embora tenha sido contestada na época, a contribuição de Lavoisier conduziu efectivamente às primeiras experiências quantitativas satisfatórias sobre a oxidação e forneceu a primeira explicação correta a respeito do funcionamento da combustão. Estas e outras experimentações semelhantes, que tiveram início em 1774, iriam levar à desacreditação da teoria do flogisto e à comprovação de que a substância descoberta por Priestley e Scheele era um elemento químico. Numa experiência, Lavoisier observou que não havia um aumento da massa total quando o estanho e o ar eram aquecidos num recipiente fechado. Notou que, quando o recipiente era aberto, o ar entrava subitamente nele, o que indicava que uma porção do ar retido teria sido consumido. Também observou que o estanho aumentara o seu peso e que o aumento era igual ao peso do ar que retornava para o recipiente quando aberto. Esta e outras experiências sobre a combustão foram documentas no seu livro "Sur la combustion en général", publicado em 1777. Nesta obra, provou que o ar é uma mistura de dois gases: o "ar essencial", fundamental para a combustão e respiração, e o "azoto" (do grego "ἄζωτον", sem vida), que não servia para nenhuma das duas, o qual se viria mais tarde a denominar nitrogénio. Lavoisier renomeou o «ar essencial" como "oxigénio" em 1777, com base no grego "ὀξύς (oxys)" (ácido, literalmente "amargo", devido ao sabor dos ácidos) e "-γενής (-genēs)" (produtor, literalmente "que gera"), porque pensava, erroneamente, que o oxigénio era um constituinte de todos os ácidos. Os químicos — em particular sir Humphry Davy, em 1812 — depois de um tempo comprovaram que Lavoisier estava errado na sua apreciação, pois, na realidade, é o hidrogénio que constitui a base química dos ácidos, entretanto o nome já se popularizara o suficiente para assim permanecer. Passado recente. A hipótese atómica original de John Dalton assumia que todos os elementos eram monoatómicos e que os átomos dos compostos teriam por norma as relações atômicas mais simples. Por exemplo, Dalton achava que a fórmula da água era HO, apresentando a massa atómica do oxigênio como 8 vezes a do hidrogénio, em vez de 16, o valor que lhe é atribuído hoje em dia. Em 1805, Louis Joseph Gay-Lussac e Alexander von Humboldt mostraram que a água é formada por dois volumes de hidrogénio e um de oxigénio e, em 1811, Amedeo Avogadro chegou à correta interpretação sobre a composição do líquido, com base no que é hoje denominado de Lei de Avogadro e nas moléculas biatómicas elementares desses gases. No final do século XIX, os pesquisadores deram conta de que o ar podia ser liquefeito e os seus componentes isolados por meio da compressão e arrefecimento. Utilizando um método de cascata, o químico e físico suíço Raoul Pictet evaporou dióxido de enxofre para liquefazer dióxido de carbono, que por sua vez era evaporado para arrefecer o oxigénio gasoso o suficiente para liquefazê-lo. Pictet enviou um telegrama à Academia de Ciências da França em 22 de dezembro de 1877 anunciando a sua descoberta do oxigénio líquido. Apenas dois dias depois, o físico francês Louis Paul Cailletet anunciou o seu próprio método de liquefacção do oxigênio molecular. Nos dois casos foram produzidas apenas algumas gotas do líquido, pelo que não foi possível realizar uma análise conclusiva. O oxigênio foi liquefeito de forma estável pela primeira vez a 29 de março de 1883 pelos cientistas polacos da Universidade Jaguelónica Zygmunt Wroblewski e Karol Olszewski. Em 1891, o químico escocês James Dewar conseguiu produzir uma quantidade suficiente de oxigênio líquido para poder estudá-lo. O primeiro processo comercialmente viável para a produção de oxigênio líquido foi desenvolvido em 1895 de forma independente pelos engenheiros Carl von Linde, alemão, e William Hampson, britânico. Ambos reduziram a temperatura do ar até que este se liquefizesse e, então, destilaram os componentes gasosos fazendo-os chegar à ebulição um a um e capturando-os. Mais tarde, em 1901, foi demonstrada pela primeira vez a soldadura de oxiacetileno ao queimar uma mistura de acetileno e O2 comprimido. Este método de soldagem e corte do metal veio mais tarde a tornar-se comum. O físico William Thomson, em 1898, calculou que o oxigénio que permanece no planeta tem apenas cerca de 400 ou 500 anos, com base no ritmo de uso dos combustíveis fósseis na combustão. Em 1923, o cientista norte-americano Robert Goddard foi a primeira pessoa a desenvolver um motor de foguete, com uso de gasolina como combustível e oxigênio líquido como oxidante. Em 16 de março, conseguiu fazer voar um pequeno foguete propelido por combustível líquido ao longo de 56 m de altura a 97 km/h, em Auburn, Massachusetts. Acção biológica. Fotossíntese e respiração. O oxigénio respirado pelos organismos aeróbicos, liberado pelas plantas no processo de fotossíntese, participa na conversão de nutrientes em energia intracelular (ATP). O oxigénio molecular é o aceptor final de electrões da cadeia de transporte de electrões na respiração aeróbica celular. A redução dos níveis de oxigénio provoca hipoxemia, e a falta total dele ocasiona a anoxia, podendo provocar a morte do organismo. Todas as espécies de cianobactérias que vivem hoje podem ser rastreadas até um ancestral comum que evoluiu há cerca de 2,9 bilhões de anos. Os ancestrais das cianobactérias se ramificaram de outras bactérias há cerca de 3,4 bilhões de anos, com a fotossíntese oxigenada provavelmente evoluindo durante meio bilhão de anos intermediários, no Éon Arqueano. De acordo com algumas estimativas, as algas verdes e as cianobactérias dos ambientes marinhos produzem cerca de 70% do oxigénio produzido na Terra, e as plantas terrestres são responsáveis pelo restante. Outras estimativas apontam para uma contribuição oceânica na produção de oxigénio atmosférico ainda mais significativa, enquanto que outros estudos revelam números mais baixos, em torno dos 45% do oxigénio atmosférico total do planeta a cada ano. Uma fórmula genérica simplificada da fotossíntese é: 6 CO2 + 6 H2O + fotões → C6H12O6 + 6 O2 dióxido de carbono + água + luz solar → glucose + dioxigénio A evolução fotolítica do oxigénio ocorre nas membranas dos tilacoides dos organismos fotossintéticos e requer energia de quatro fotões. Estão implicados muitos processos, mas o resultado é a formação de um gradiente de protões através da membrana tilacoidal, que é usado para a sintetização de adenosina trifosfato (ATP) por meio da fotofosforilação. O O2 remanescente, após a oxidação e rutura da molécula de água, é liberado para a atmosfera. O dioxigénio molecular é essencial para a respiração celular em todos os organismos aeróbios. O oxigénio é utilizado nas mitocôndrias ​​para gerar adenosina trifosfato durante a fosforilação oxidativa. A equação para a respiração aeróbica é essencialmente o oposto da fotossíntese (embora o processo não seja exactamente o inverso, é muito diferente) e simplifica-se da seguinte forma: C6H12O6 + 6 O2 → 6 CO2 + 6 H2O + 2880 kJ•mol−1 Nos vertebrados, o O2 difunde-se através das membranas pulmonares para o interior dos glóbulos vermelhos. A hemoglobina liga-se ao O2 alterando a sua cor de um vermelho azulado para um vermelho brilhante (o CO2 libera-se de outra parte da hemoglobina através do efeito de Bohr). Outros animais utilizam a hemocianina (moluscos e alguns artrópodes) ou hemeritrina (aranhas e lagostas). Um litro de sangue pode dissolver 200 cm³ de O2. As espécies reactivas de oxigénio, como o ião superóxido (O2-) e peróxido de hidrogénio, são subprodutos perigosos no uso de oxigénio em organismos. Algumas partes do sistema imunológico de organismos mais avançados, no entanto, criam peróxido, superóxido e oxigénio singlete para destruir micróbios invasores. As espécies reativas de oxigénio também apresentam um papel importante na resposta de hipersensibilidade das plantas contra o ataque de agentes patogénicos. Um ser humano adulto em repouso respira em média 13,5 vezes por minuto — 1,8 a 2,4 gramas de oxigénio por minuto. A soma total da quantidade inalada por cada pessoa no planeta produz um total de 6 000 milhões de toneladas de oxigénio por ano. Organismos vivos. O conteúdo de oxigénio livre expresso como pressão parcial no corpo dum organismo vertebrado vivo é normalmente maior no sistema respiratório e diminui ao longo de qualquer sistema arterial, tecidos periféricos e sistema venoso, respectivamente. A pressão parcial é a pressão que o oxigénio teria se ocupasse por si só o volume. Acumulação na atmosfera. O oxigénio gasoso não combinado era quase inexistente na atmosfera antes da evolução das bactérias e arqueas fotossintéticas. Surgiu pela primeira vez em quantidades significativas durante o éon Paleoproterozoico (entre 3000 e 2300 milhões de anos atrás). Nos primeiros milhões de anos, o oxigénio combinou-se com ferro dissolvido nos oceanos para criar formações de ferro bandado. Os oceanos começaram a exalar oxigénio não combinado por volta de 3 000 e 2 700 milhões de anos, alcançando 10% do seu nível actual há cerca de 1 700 milhões de anos. A presença de grandes quantidades de oxigénio não combinado dissolvido nos oceanos e na atmosfera pode ter conduzido à extinção a maioria dos organismos anaeróbios que viviam na altura, durante a Grande oxidação ("catástrofe do oxigénio") há cerca de 2 400 milhões de anos. Contudo, a utilização de O2 na respiração celular permite que os organismos aeróbios produzam muito mais ATP do que os anaeróbios, contribuindo para que os primeiros dominassem a biosfera da Terra. A fotossíntese e respiração celular do O2 permitiram a evolução das células eucarióticas e, finalmente, o aparecimento de organismos multicelulares complexos como plantas e animais. Desde o início do período Cambriano, há 540 milhões de anos, os níveis de O2 na atmosfera oscilaram entre 15% e 30% do volume. Para fins do Carbonífero (há cerca de 300 milhões de anos) o nível de O2 na atmosfera atingiu um volume máximo de 35%, o que pode ter contribuído para o desmesurado tamanho dos insetos e anfíbios daquela época. As variações nos níveis de oxigénio ao longo da história foram alterando os diferentes climas. A diminuição dos níveis de oxigénio provocou uma queda na densidade da atmosfera, o que por sua vez aumentou a evaporação de água na superfície, dando lugar a um aumento de precipitações e temperaturas mais quentes. A atividade humana, inclusive a combustão de 7 000 milhões de toneladas de combustível fóssil todos os anos, exerceu um impacto muito pequeno na quantidade de oxigénio combinado na atmosfera. Com os níveis actuais da fotossíntese, demoraria cerca de 2 000 anos a regenerar a quantidade total de O2 na atmosfera atual. Produção industrial. São utilizados principalmente dois métodos para produzir 100 milhões de toneladas de O2 extraídas do ar para aplicações industriais a cada ano. O mais comum consiste na destilação fracionada do ar liquefeito nos seus diversos componentes, com o N2 destilado como vapor e O2 deixado como líquido. O outro método principal de obtenção de O2 gasoso consiste em passar uma corrente de ar limpo e seco através de um leito de crivos moleculares de zeólito, que adsorvem o nitrogénio e deixam passar um fluxo de gás que é entre 90 e 93% de O2. Simultaneamente, o outro leito de zeólito saturado de nitrogénio libera este gás ao reduzir a pressão de operação da câmara e introduzir nela, no sentido inverso do fluxo, parte do oxigénio separado no leito produtor. Depois de cada ciclo completo, os leitos são intercambiados, permitindo um fornecimento constante de oxigénio. Isto é conhecido por adsorção por oscilação de pressão e utiliza-se para produzir oxigénio em pequena escala. O oxigénio também pode ser produzido através da eletrólise da água, decompondo-a em oxigénio e hidrogénio, para o qual deve ser usada uma corrente contínua; se se usasse uma corrente alternada os gases de cada extremidade consistiriam em hidrogénio e oxigénio na explosiva relação de 2:1. Contrariamente à crença popular, a relação 2:1 observada na eletrólise de corrente contínua da água acidificada não demonstra que a fórmula empírica da água seja H2O, a menos que se assumam certas premissas sobre a fórmula molecular do hidrogénio e oxigénio. Um método semelhante é a evolução electrocatalítica do O2 de óxidos e oxiácidos. Também podem ser utilizados catalisadores químicos, como em geradores químicos de oxigénio ou nas velas de oxigénio usadas no equipamento de apoio em submarinos e que ainda são parte do equipamento padrão em companhias aéreas comerciais para situações de despressurização. Outra tecnologia de separação do ar consiste em forçar a dissolução do ar através de membranas de cerâmica com base em dióxido de zircónio, seja por alta pressão ou por corrente elétrica, para produzir O2 gasoso praticamente puro. Armazenamento. O custo da energia necessária para liquefazer o ar envolve o principal custo de produção, pelo que o preço da produção de oxigeno varia em função do preço da energia. Por motivos económicos, é costume transportar oxigénio em grandes quantidades em estado líquido, armazenado em tanques especialmente isolados, uma vez que um litro de oxigénio líquido equivale a 840 litros de oxigénio gasoso à pressão atmosférica e 20 °C (68 °F). Estas cisternas são usadas para encher os grandes contentores de oxigénio líquido que se encontram no exterior dos hospitais e demais instituições que necessitam de enormes quantidades de oxigénio gasoso puro. O oxigénio líquido é passado por uns permutadores de calor que convertem o líquido criogénico em gás antes de entrar no edifício. O oxigénio também é armazenado e transportado em cilindros que contêm o gás comprimido, sendo muito útil para determinadas aplicações médicas portáteis e oxicorte. Aplicações. Medicina. O propósito essencial da respiração consiste na absorção de O2 do ar e, em medicina, são utilizados suplementos de oxigénio. O tratamento não só aumenta os níveis de oxigénio no sangue do paciente, como também apresenta um efeito secundário de diminuir a resistência ao fluxo sanguíneo em muitos tipos de pulmões doentes, facilitando o trabalho de bombeamento do coração. A oxigenoterapia é utilizada para tratar o enfisema, a pneumonia, determinadas insuficiências cardíacas, certas desordens que causam uma elevada pressão arterial pulmonar e qualquer doença que afecte a capacidade do corpo para absorver e usar oxigénio gasoso. Os tratamentos são suficientemente flexíveis para ser usados em hospitais, na casa do paciente ou, cada vez mais comum, por meio de dispositivos portáteis. Assim, as tendas de oxigénio eram antes empregues como suplementos de oxigénio, mas foram substituídas pelas máscaras de oxigénio e cânulas nasais. A medicina hiperbárica (de alta pressão) utiliza câmaras especiais de oxigénio para aumentar a pressão parcial do O2 no paciente e, quando necessário, no pessoal médico. A intoxicação por monóxido de carbono, a mionecrose (gangrena gasosa) e a síndrome de descompressão são por vezes tratadas com recurso a estes aparelhos. O aumento da concentração de O2 nos pulmões ajuda a deslocar o monóxido de carbono do hemogrupo da hemoglobina. O oxigénio é tóxico para a bactéria anaeróbica que provoca gangrena gasosa, de forma que aumentar a sua pressão parcial ajuda a acabar com elas. A síndrome de descompressão ocorre em mergulhadores que saem demasiado rápido do mar, o que resulta na formação de bolhas de gás inerte no seu sangue, sobretudo de nitrogénio. O oxigénio é também utilizado clinicamente em pacientes que necessitam de ventilação mecânica, normalmente a concentrações superiores a 21% encontradas no ar ambiente. Para além disto, o isótopo 15O foi usado de forma experimental na tomografia por emissão de positrões. Suporte vital e uso recreativo. Uma aplicação notável do O2 como gás respirável de baixa pressão encontra-se nos trajes espaciais modernos, que envolvem o corpo dos seus ocupantes com ar pressurizado. Estes dispositivos usam oxigénio quase puro a uma pressão de cerca de um terço da normal, resultando numa pressão parcial normal de O2 no sangue. Este intercâmbio de oxigénio de alta concentração para uma baixa pressão é necessária para manter a flexibilidade dos fatos espaciais. Os mergulhadores e os tripulantes de submarinos também utilizam O2 fornecido artificialmente, mas a maioria usa uma pressão normal ou uma mistura de oxigénio e ar. O uso de O2 puro ou quase puro em mergulho a pressões maiores que a atmosférica geralmente restringe-se a intervalos de descanso, descompressão e tratamentos de emergência a relativamente pouca profundidade (~ 6 metros ou menos). O mergulho a uma profundidade mais elevada requer uma diluição significativa de O2 com outros gases, como nitrogénio ou hélio, para ajudar a prevenir a toxicidade do oxigénio. Os alpinistas e os que viajam em aviões não pressurizados normalmente têm um suplemento de O2. Os passageiros de aviões comerciais (pressurizados) possuem um fornecimento de O2 para situações de emergência, que é colocado automaticamente à sua disposição em caso de despressurização da cabine. Uma perda repentina de pressão na cabine ativa os geradores químicos de oxigénio em cada assento, pondo à disposição as máscaras de oxigénio. Assim que as máscaras caem, elas ficam presas por um cabo de acionamento. Quando a máscara é puxada, esse cabo aciona o gatilho do gerador de oxigénio, provocando uma reação exotérmica entre limalha de ferro e sal clorato de sódio, contidos no recipiente armazenador. O calor liberado aquece ainda mais o clorato restante, que se decompõe rapidamente, liberando oxigénio. O oxigénio, que provoca uma suave resposta de euforia quando inalado, tem toda uma história de uso recreativo em desportos e bares de oxigénio. Estes estabelecimentos apareceram no Japão, Califórnia e Las Vegas no final dos anos 1990, e oferecem exposições a níveis de O2 superiores ao normal em troca de uma determinada tarifa. Aos atletas profissionais, especialmente em futebol americano, em algumas ocasiões, quando saem do campo durante os intervalos, é-lhes colocada uma máscara de oxigénio com o propósito de aumentar o seu desempenho no jogo. O efeito farmacológico é contudo duvidoso, sendo que a explicação mais viável a haver está normalmente associada ao efeito placebo. Existem estudos que sustentam essa eventual estimulação e aumento do desempenho físico com misturas de O2 enriquecido, mas só quando inalado durante o exercício aeróbico. Indústria. A fundição de minério de ferro na produção de aço consome 55% do oxigénio produzido comercialmente. Neste processo, o O2 é injetado com uma lança de alta pressão no ferro fundido, que remove as impurezas de enxofre e o excesso de carbono, na forma dos seus respectivos óxidos, SO2 e CO2. As reações são exotérmicas e a temperatura aumenta até aos 1700 Cº. Outros 25% deste oxigénio são utilizados pela indústria química. O etileno reage com o O2 para criar óxido de etileno, que, por sua vez, converte-se em etilenoglicol, o material usado como base para a fabricação de uma grande variedade de produtos, incluindo anticongelantes e polímeros de poliéster (os precursores de muitos plástico e têxteis). Os restantes 20% são em grande parte utilizados em aplicações medicinais, oxicorte, como oxidante em combustível de foguetes e no tratamento de águas. O oxigénio é usado em soldadura oxiacetilénica queimando acetileno com O2 para produzir uma chama bastante quente. Neste processo, o metal, que pode ter até 60 centímetros de espessura, é aquecido primeiro com uma pequena chama de oxiacetileno para depois ser rapidamente cortado por um enorme jato de O2. Investigação. Os paleoclimatólogos medem a relação entre o oxigénio-18 e o oxigénio-16 nos esqueletos e exoesqueletos dos organismos marinhos para determinar como era o clima há milhões de anos. As moléculas de água do mar que contêm o isótopo mais leve, o oxigénio-16, evaporam-se a um ritmo ligeiramente maior do que as moléculas que contêm oxigénio-18 (cerca de 12% mais pesado); esta disparidade aumenta a baixas temperaturas. Em períodos com uma temperatura global mais baixa, a neve e a chuva procedentes dessa água evaporada tendem a ser mais ricas em oxigénio-16, enquanto que a água do mar deixada para trás tende a ser mais rica em oxigénio-18. Os organismos marinhos, portanto, incorporam mais oxigénio-18 nos seus esqueletos e exoesqueletos do que o fariam num ambiente mais quente. Os paleoclimatólogos também medem diretamente esta relação nas moléculas de água de amostras de núcleos de gelo que se conservaram durante várias centenas de milhares de anos. Os geólogos planetários mediram as diferenças na abundância de isótopos de oxigénio em amostras da Terra, Lua, Marte e meteoritos, mas não foram capazes de obter valores de referência para as relações entre isótopos do Sol, que se acredita serem iguais às da nebulosa protossolar. No entanto, a análise duma bolacha de silício exposta ao vento solar no espaço e devolvida à Terra pela sonda Genesis revelou que o Sol possui uma proporção de oxigénio-16 maior do que o nosso planeta. A medição permite-nos inferir que um processo desconhecido esgotou o oxigénio-16 do disco protoplanetário do Sol antes da fusão dos grãos de poeira que formaram a Terra. O oxigénio apresenta duas bandas de absorção espectrofotométrica com máximos em comprimentos de onda de 687 e 760 nanómetros. Alguns cientistas de deteção remota propuseram usar a medição da radiação proveniente dos dosseis de vegetação nessas bandas para caracterizar a saúde das plantas a partir de uma plataforma satélite. Esta aproximação explora o fato de que nessas bandas é possível distinguir a reflectividade da vegetação da sua fluorescência, que é muito mais fraca. A medição é tecnicamente difícil de se fazer devido à baixa relação sinal-ruído e à estrutura física da vegetação, mas tem sido encarada como um possível método de monitorização do ciclo do carbono a partir de satélites à escala global. Segurança e precauções. Toxicidade. O oxigénio gasoso pode ser tóxico a pressões parciais elevadas, produzindo convulsões e outros problemas de saúde. A toxicidade geralmente começa a aparecer com pressões parciais de mais de 50 kPa ou 2,5 vezes a pressão parcial do O2 ao nível do mar (21 kPa; igual a cerca de 50% da composição do oxigénio sob pressão normal). Isto não é um problema, excepto para os doentes com ventilação mecânica, porque o gás administrado através das máscaras de oxigénio é tipicamente composto por apenas 30%-50% de O2 por volume (cerca de 30 kPa na pressão normal), embora estes números variem significativamente dependendo do tipo de máscara. No passado, os bebés prematuros eram colocados em incubadoras que continham ar rico em O2, mas esta prática foi descontinuada depois de algumas destas crianças terem perdido a visão. A respiração de O2 puro em aplicativos espaciais, como nalguns trajes aeroespaciais modernos ou em naves pioneiras como a Apollo, não é prejudicial devido às baixas pressões totais utilizadas. No caso dos fatos, a pressão parcial do O2 no gás respiratório encontra-se, geralmente, cerca de 30 kPa (1,4 vez o normal) e a pressão parcial resultante no sangue arterial do astronauta é apenas ligeiramente maior do que a pressão normal ao nível do mar. (para mais informações vide traje espacial e gasometria arterial). A toxicidade do oxigénio para os pulmões e sistema nervoso central também pode ocorrer no mergulho profundo e no mergulho profissional. A respiração prolongada duma mistura de ar com uma pressão parcial de O2 superior a 60 kPa pode dar origem a uma fibrose pulmonar permanente. A exposição a pressões parciais superiores a 160 kPa (~ 1,6 atmosfera) pode causar convulsões, normalmente fatais para os mergulhadores. A toxicidade aguda pode ser produzida ao respirar uma mistura de ar com mais de 21% de O2 a 66 ou mais metros de profundidade; o mesmo pode acontecer ao respirar 100% de O2 a apenas 6 metros. Combustão e outros riscos. As fontes ricas em oxigénio na presença de materiais combustíveis são altamente susceptíveis de provocar a rápida combustão. Os riscos de fogo e explosão dão-se quando os oxidantes concentrados e os combustíveis estão demasiado próximos; no entanto, a ignição, seja pelo calor ou por uma faísca, é necessária para desencadear a combustão. O mesmo acontece se as fontes de oxigénio forem cloratos, percloratos, dicromatos etc.; estes compostos com alto poder oxidante podem provocar também queimaduras químicas. O oxigénio por si só não é um combustível, mas um oxidante. Os riscos de combustão também se aplicam a compostos de oxigénio de alto potencial oxidante, como os peróxidos, cloratos, nitratos, percloratos e dicromatos, porque podem doar oxigénio ao fogo. O O2 concentrado permite uma combustão rápida e enérgica. Os tubos e os recipientes de aço usados para armazenar e transportar tanto o oxigénio líquido como o gasoso actuam como combustível; à vista disso, o desenho e fabricação dos sistemas de O2 requerem uma atenção especial para assegurar que as fontes de ignição sejam minimizadas. O incêndio que acabou com a vida da tripulação do Apollo 1 em 1967 num ensaio na plataforma de lançamento alastrou-se tão rapidamente porque a cápsula estava pressurizada com O2 puro, mas a uma pressão ligeiramente maior do que a pressão atmosférica, em vez duma pressão de 1/3 da normal que deveria ter sido usada na missão. No caso dum derrame de oxigénio líquido, se este for embebido em matéria orgânica como madeira, produtos petroquímicos e asfalto estes materiais podem detonar imprevisivelmente ao sofrer um subsequente impacto mecânico. Tal como acontece com outros líquidos criogénicos, em contacto com o corpo humano pode provocar o congelamento da pele e dos olhos.
1383
O Ramalhete
O Ramalhete
1384
Olimpíada
Olimpíada Olimpíada (do latim "Olympĭas"), conforme Carta Olímpica grega de 1896, é o período de quatro anos civis entre a realização de dois Jogos Olímpicos consecutivos, ou "Jogos da Olimpíada". Cada Olimpíada ou Período Olímpico inicia no primeiro dia de janeiro (01/01) do primeiro ano de realização dos Jogos e segue até o trigésimo primeiro dia de dezembro do quarto ano (31/12), véspera do próximo evento. Por exemplo, de 1° de janeiro de 2016 até 31 de dezembro de 2019 o mundo viveu a XXXI Olimpíada (Rio 2016). Já os Jogos Olímpicos do Rio, realizados em agosto de 2016, foram os Jogos da XXXI Olimpíada O plural - Olimpíadas - é considerado como a soma de todas as edições de Jogos Olímpicos, tanto de verão quanto de inverno, realizadas até hoje. Olimpíadas de verão. Os "Jogos Olímpicos da Antiguidade" tiveram início na cidade de Olímpia na Grécia antiga, e os participantes o realizavam para homenagear o deus Zeus. Os homens participavam dos jogos em honra a Zeus e as mulheres tinham seus próprios jogos em honra à Hera. O vencedor recebia uma coroa de louro ou de folhas de oliveira. Modalidades praticadas: arremesso de dardo, salto em altura, lançamento de disco, corridas, lutas e muitas outras. No ano de 776 a.C, uma aliança entre reis de diferentes regiões da Grécia foi selada no santuário de Olímpia. Eram tempos de muitas guerras, e este acordo estabeleceu a Paz Olímpica enquanto durassem as competições. A partir de então, os gregos acertaram que durante os meses do verão na Grécia (julho a agosto), os jogos aconteceriam durante o período de trégua. A este período de quatro anos sem jogos, ou melhor, entre uma edição e outra, foi dado o nome de “Olimpíada”. E aos jogos em si, de “Jogos Olímpicos”. Lista das Olimpíadas. ! colspan="2"|Olimpíada !! Início !! Fim !! Sede dos Jogos Olímpicos right:none;text-align:right"| XXXV || style="border-left:none;text-align:right"|(33ª) || 1 Jan 2032 || 31 Dez 2035 || Brisbrane, Austrália
1386
Oiapoque
Oiapoque Oiapoque é um município brasileiro do estado do Amapá, Região Norte do país, na fronteira com a Guiana Francesa. Por ser a principal cidade do norte amapaense, recebeu a alcunha de "Capital do Norte do Amapá". Geografia. O município de Oiapoque, de acordo com a divisão do Instituto Brasileiro de Geografia e Estatística vigente desde 2017, pertence às Regiões Geográficas Intermediária de Oiapoque-Porto Grande e Imediata de Oiapoque. Até então, com a vigência das divisões em microrregiões e mesorregiões, o município fazia parte da microrregião de Oiapoque, que por sua vez estava incluída na mesorregião do Norte do Amapá. O município de Oiapoque está localizado na parte mais setentrional do estado do Amapá. Limita-se ao norte com a Guiana Francesa, ao sul com os municípios de Calçoene, Serra do Navio e Pedra Branca do Amapari. Ao leste é banhado pelo Oceano Atlântico e a oeste faz fronteira com o município de Laranjal do Jari. Dentro do município encontra-se Clevelândia do Norte, uma colônia militar brasileira criada em 1919 e que antigamente era chamada de "Colônia Militar do Oiapoque". Situa-se na margem direita do rio Oiapoque, a cerca de 3 quilômetros da sede municipal. Distâncias. Seguem abaixo algumas distâncias a partir de Oiapoque: Divisões Fisiográficas. Com altitude de 10 metros, o relevo do município é composto predominantemente por áreas de planícies. A vegetação compreende matas de terra firme; várzeas altas e baixas, que sofrem a influência direta dos períodos de cheia e vazante; campos com abundância de gramíneas (canarana) e matas litorâneas, que constituem os manguezais. Hidrografia. Bacia do Oiapoque pelos afluentes à margem direita. Este rio divide o Brasil da Guiana Francesa e corre de Oeste para o Norte, desaguando no oceano Atlântico. Clima e pluviosidade. Com clima quente úmido, a temperatura mínima é de 22º e a máxima de 34º centígrados. Possui precipitação com chuvas ocorrendo nos meses de dezembro a agosto, chegando a atingir cerca de 3.000 mm. A estação seca vai de setembro a dezembro, mês em que se verifica temperatura mais alta. Etimologia. A palavra Oiapoque tem origem tupi-guarany, sendo uma derivação do termo "oiap-oca", que significa "casa dos Waiãpi". História. Os primitivos habitantes da região são antepassados dos povos Waiãpi, que ocupavam a extensão territorial do rio Oiapoque; dos Galibi e Palikur, concentrados no vale do rio Uaçá e seus afluentes. Durante o período colonial, Oiapoque era parte da Capitania do Cabo Norte. Nos primórdios do século XVI, os portugueses da América travaram lutas com outros europeus, para estabelecer domínio territorial ao sul do rio Oiapoque, na época conhecido como "rio de Vicente Pinzón", e ao norte do rio Amazonas, para expandir os impérios colonizadores que cada grupo representava. O município de Oiapoque originou-se da morada de um mestiço, em data que não se pode precisar, de nome Emile Martinic, o primeiro habitante não-índio do município. Sabe-se que a localidade passou a ser conhecida como "Martinica"; e, ainda hoje, não é raro ouvir essa designação, notadamente de habitantes mais antigos. Em 1907, o Governo Federal criou o Primeiro Destacamento Militar do município, que servia de abrigo a presos políticos. Alguns anos depois, esse destacamento foi transferido para Santo Antônio, atual distrito de Clevelândia do Norte, com a denominação de Colônia Militar. Para consolidar a soberania nacional sobre as áreas limítrofes, face ao contestado franco-brasileiro, foi, então, erguido um monumento à pátria, indicativo do marco inicial do território brasileiro. O município foi criado em 23 de maio de 1945, através da lei Nº 7.578, e instalado em 1 de julho do mesmo ano. População. Oiapoque possui uma população de um município de pequeno porte, ao passo que a densidade demográfica também. Segundo o Censo de 2010 do IBGE a população era de 20.509 habitantes e densidade demográfica de . De acordo com estimativas do IBGE de 2018, habitantes e densidade de , sendo o 1380º município brasileiro mais populoso e o 4º maior município estadual em população, estando atrás de municípios da Região Metropolitana de Macapá (a capital estadua] e a Cidade-Porto do Amapá), além de Laranjal do Jari. Esportes. Na cidade há o Estádio João Natividade, chamado também de Natizão ou Natizo. Para outros esportes há o Ginásio Raimundo Ataíde. Política. Com a Constituição de 1988 é determinado um novo perfil a política local, que obtém mais verbas do governo federal e adquire mais responsabilidades na saúde, educação e segurança. Segundo o CAGED, há no total 4 estabelecimentos do setor público atuando na cidade. Indicadores. O Índice Firjan de Gestão Fiscal (IFGF) é um indicador que tem como objetivo medir o grau de responsabilidade administrativa por meio de indicadores que mostram o grau de evolução das políticas de recursos públicos e gestão fiscal dos municípios brasileiros. A leitura do IFGF varia entre 0 (gestão ruim) e 1 (gestão perfeita) e Oiapoque atingiu o índice IFGF de 0,2851 em 2011 (5039º no país e 14º no estado). Símbolos. Os símbolos do município de Oiapoque são a bandeira, o brasão e o hino. Poder legislativo. No legislativo possui 11 vereadores. e é representado pela Câmara de Oiapoque. Poder executivo. É representado pela Prefeitura de Oiapoque, cujo administrador atual é Breno de Almeida Lima, do PRTB para a gestão 2021-2024. Poder judiciário. No judiciário Oiapoque é uma comarca da Justiça Estadual e conta com um fórum. Possui as seguintes varas: Economia. Segundo dados do IBGE, em 2016 o Produto Interno Bruto de Oiapoque foi de cerca de R$ e o PIB "per capita" era de R$ . Possui o quarto maior Produto interno bruto (PIB) dentre os municípios do Amapá sendo superado apenas por municípios da Região Metropolitana de Macapá (a capital estadual e Santana) além de Laranjal do Jari, estando caracterizada também como a 1645ª maior economia do Brasil. Setor primário. No setor primário destaca-se principalmente a criação dos gados bovino, bubalino e suíno. Na agricultura temos a cultura da mandioca, laranja, milho, cana-de-açúcar e outros. Nesse setor há um total de 1 empresa de agropecuária, segundo o CAGED. Setor secundário. Aqui pode-se citar a extração de ouro como fonte complementar de renda. Os recursos giram também em torno do artesanato, incluindo-se aí a fabricação de jóias em ouro. Aliás, as pedras preciosas também são um ponto importante na economia do município, a cassiterita é uma delas. No setor moveleiro dispõe de algumas serrarias. As indústrias de panificação ajudam a fomentar a economia, que o município já está se preparando para expandir. Um passo neste sentido é a exportação do cacau beneficiado, através da Associação Agro-extrativista do Cassiporé para a França. Setor terciário. No setor terciário possui pequenos estabelecimentos comerciais (mercearias) que se beneficiam do intercâmbio com Saint Georges (São Jorge – Caiena) e com a vila de Clevelândia do Norte, onde há bares, restaurantes, dentre outros. Turismo. Em 1943, ergueu-se neste município um monumento à pátria, indicativo do marco inicial do território brasileiro, onde figuram citações do hino nacional e uma placa indicativa com os dizeres: “Aqui Começa o Brasil”. Oiapoque tem ainda como atrações turísticas a Cachoeira Grande, a Vila Brasil, que fica na cabeceira do rio Oiapoque, o Parque Nacional do Cabo Orange e a Serra do Tumucumaque. Eventos Culturais. O município homenageia em 15 de agosto a santa Nossa Senhora das Graças, que é a padroeira da cidade. A programação, como mandam os costumes, compreende os lados sagrado e profano: missa, arraial e procissão. No mês de outubro, festeja-se a Padroeira de Clevelândia do Norte, Nossa Senhora de Nazaré. Há além disto, as festas juninas, animadas com quadrilhas e desfiles de miss caipira, onde valem a criatividade e a imaginação. Urbanização. Com km² de área urbana, a quarta maior do estado do Amapá, Oiapoque vem crescendo sua demanda urbana e de serviços.
1387
Ontologia
Ontologia Ontologia (do grego "ontos" "ente" e -"logia", "discurso lógico"; no conjunto, "ciência do ser") é o ramo da filosofia que estuda conceitos como existência, ser, devir e realidade. Inclui as questões de como as entidades são agrupadas em categorias básicas e quais dessas entidades existem no nível mais fundamental. A ontologia é às vezes referida como a "ciência do ser" e pertence ao maior ramo da filosofia conhecido como metafísica. Os ontologistas frequentemente tentam determinar quais são as "categorias" ou "tipos mais altos" e como formam um "sistema de categorias" que fornece uma classificação abrangente de todas as entidades. As categorias comumente propostas incluem substâncias, propriedades, relações, estados de coisas e eventos. Estas categorias são caracterizadas por conceitos ontológicos fundamentais, como "particularidade" e "universalidade", "abstração" e "concretude", ou "possibilidade" e "necessidade". De especial interesse é o conceito de dependência ontológica, que determina se as entidades de uma categoria existem no nível mais fundamental. As discordâncias dentro da ontologia são muitas vezes sobre se as entidades pertencentes a uma determinada categoria existem e, em caso afirmativo, como se relacionam com outras entidades. Quando usado como substantivo contável, os termos "ontologia" e "ontologias" referem-se não à "ciência do ser", mas às teorias dentro da "ciência do ser". As teorias ontológicas podem ser divididas em vários tipos de acordo com seus compromissos teóricos. As "ontologias monocategóricas" sustentam que há apenas uma categoria básica, o que é rejeitado pelas "ontologias policategóricas". As "ontologias hierárquicas" afirmam que algumas entidades existem em um nível mais fundamental e que outras entidades dependem delas. As "ontologias planas", por outro lado, negam tal status privilegiado a qualquer entidade. Visão geral. A ontologia está intimamente associada à questão de Aristóteles do "ser enquanto ser": a questão do que todas as entidades no sentido mais amplo têm em comum. O "princípio eleático" é uma resposta a esta pergunta: afirma que o ser está inextricavelmente ligado à causalidade, que "o poder é a marca do Ser". Um problema com esta resposta é que exclui os objetos abstratos. Outra resposta explícita, mas pouco aceita, pode ser encontrada no slogan de Berkeley de que "ser é ser percebido". Intimamente relacionado, mas não idêntico à questão de "ser enquanto ser" é o problema das categorias. Categorias são geralmente vistas como os tipos ou gêneros mais altos. Um sistema de categorias fornece uma classificação de entidades que é exclusiva e exaustiva: cada entidade pertence a exatamente uma categoria. Várias classificações foram propostas, muitas vezes incluem categorias para substâncias, propriedades, relações, estados de coisas e eventos. No centro da diferenciação entre categorias estão vários conceitos e distinções ontológicas fundamentais, por exemplo, os conceitos de "particularidade" e "universalidade", de "abstração" e "concretude", de "dependência ontológica", de "identidade" e de "modalidade". Estes conceitos são às vezes tratados como categorias em si, são usados para explicar a diferença entre categorias ou desempenham outros papéis centrais na caracterização de diferentes teorias ontológicas. Dentro da ontologia, há uma falta de consenso geral sobre como as diferentes categorias devem ser definidas. Diferentes ontólogos frequentemente discordam sobre se certa categoria tem algum membro ou se uma determinada categoria é fundamental. O mais antigo registro da palavra ontologia é o latino "ontologia", que surgiu em 1606, no trabalho "Ogdoas Scholastica", de Jacob Loard ("Lorhardus"), e em 1613 no "Lexicon philosophicum", de Rudolf Göckel. Particulares e universais. Particulares ou indivíduos são geralmente contrastados com universais. Os universais dizem respeito a características que podem ser exemplificadas por vários particulares diferentes. Por exemplo, um tomate e um morango são dois particulares que exemplificam o universal da cor vermelha. Os universais podem estar presentes em vários lugares distintos no espaço ao mesmo tempo, enquanto os particulares são restritos a um lugar em um momento. Além disso, os universais podem estar completamente presentes em momentos diferentes, razão pela qual às vezes são chamados de repetíveis (""), em contraste com particulares não repetíveis. O chamado problema dos universais é o problema de explicar como diferentes coisas podem concordar em suas características, por exemplo, como um tomate e um morango podem ser ambos vermelhos. Os realistas sobre os universais acreditam que existem universais. Eles podem resolver o "problema dos universais" explicando a comunalidade através de um universal compartilhado por ambas as entidades. Os realistas estão divididos entre si sobre se os universais podem existir independentemente de serem exemplificados por algo ("ante res") ou não ("in rebus"). Os nominalistas, por outro lado, negam que haja universais. Eles têm que recorrer a outras noções para explicar como uma característica pode ser comum a várias entidades, por exemplo, postulando ou relações fundamentais de semelhança entre as entidades (nominalismo de semelhança) ou uma pertinência compartilhada a uma classe natural comum (nominalismo de classe). Abstrato e concreto. Muitos filósofos concordam que há uma distinção exclusiva e exaustiva entre "objetos concretos" e "objetos abstratos". Alguns filósofos consideram que esta é a divisão mais geral do ser. Exemplos de objetos concretos incluem plantas, seres humanos e planetas, enquanto coisas como números, conjuntos e proposições são objetos abstratos. Mas apesar do acordo geral sobre os casos paradigmáticos, há menos consenso sobre quais são as marcas características de concretude e abstração. Sugestões populares incluem definir a distinção em termos da diferença entre (1) existência dentro ou fora do espaço-tempo, (2) ter causas e efeitos ou não e (3) ter existência contingente ou necessária. Dependência ontológica. Uma entidade "depende ontologicamente" de outra entidade se a primeira entidade não pode existir sem a segunda entidade. Entidades ontologicamente independentes, por outro lado, podem existir sozinhas. Por exemplo, a superfície de uma maçã não pode existir sem a maçã e, portanto, depende ontologicamente dela. Entidades muitas vezes caracterizadas como ontologicamente dependentes incluem propriedades, que dependem de seus portadores, e limites, que dependem da entidade que demarcam de seu entorno. Como estes exemplos sugerem, a dependência ontológica deve ser distinguida da dependência causal, na qual um efeito depende para sua existência de uma causa. Muitas vezes é importante fazer uma distinção entre dois tipos de dependência ontológica: rígida e genérica. A dependência rígida diz respeito à dependência de uma entidade específica, tal como a superfície de uma maçã depende de sua maçã específica. A dependência genérica, por outro lado, envolve uma forma mais fraca de dependência: dependência de um certo tipo de entidade. Por exemplo, a eletricidade depende genericamente de partículas carregadas, mas não depende de nenhuma partícula carregada específica. As relações de dependência são relevantes para a ontologia, pois muitas vezes se sustenta que as entidades ontologicamente dependentes têm uma forma de ser menos robusta. Assim se introduz no mundo uma "hierarquia" que traz consigo a distinção entre entidades mais e menos fundamentais. Identidade. A identidade é um conceito ontológico básico que muitas vezes é expresso pela palavra "mesmo". É importante distinguir entre "identidade qualitativa" e "identidade numérica". Por exemplo, considere duas crianças com bicicletas idênticas envolvidas em uma corrida enquanto sua mãe está observando. As duas crianças têm a "mesma "bicicleta em um sentido ("identidade qualitativa") e a "mesma" mãe em outro sentido ("identidade numérica"). Duas coisas qualitativamente idênticas são frequentemente chamadas de indiscerníveis. Os dois sentidos de identidade estão ligados por dois princípios: o "princípio da indiscernibilidade dos idênticos" e o "princípio da identidade dos indiscerníveis". O "princípio da indiscernibilidade dos idênticos" é incontroverso e afirma que se duas entidades são numericamente idênticas entre si, então elas se assemelham exatamente uma à outra. O princípio da "identidade dos indiscerníveis", por outro lado, é mais controverso ao fazer a afirmação inversa de que se duas entidades se assemelham exatamente uma à outra, então devem ser numericamente idênticas. Isto implica que "não há duas coisas distintas que se assemelhem exatamente uma à outra". Um contraexemplo bem conhecido vem de Max Black, que descreve um universo simétrico composto por apenas duas esferas com as mesmas características. Black argumenta que as duas esferas são indiscerníveis, mas não idênticas, constituindo assim uma violação do "princípio de identidade dos indiscerníveis". O problema da "identidade ao longo do tempo" diz respeito à questão da "persistência": se ou em que sentido dois objetos em momentos diferentes podem ser "numericamente idênticos". Isso é geralmente referido como "identidade diacrônica" em contraste com a "identidade sincrônica". A afirmação de que "a mesa na sala ao lado é idêntica à que você comprou no ano passado" afirma a identidade diacrônica entre a mesa de agora e a mesa de então. Um exemplo famoso de negação da identidade diacrônica vem de Heráclito, que argumenta que é impossível entrar no mesmo rio duas vezes por causa das mudanças que ocorreram desde então. A posição tradicional sobre o problema da "persistência" é o endurantismo, a tese de que a identidade diacrônica, em um sentido estrito, é possível. Um problema com esta posição é que parece violar o princípio da "indiscernibilidade dos idênticos": o objeto pode ter sofrido mudanças nesse ínterim, resultando no fato de que é discernível de si mesmo. O perdurantismo ou quadridimensionalismo ("") é uma abordagem alternativa que sustenta que a "identidade diacrônica" só é possível um sentido fraco: enquanto os dois objetos diferem um do outro estritamente falando, ambos são partes temporais que pertencem ao mesmo todo temporalmente estendido. O "perdurantismo" evita muitos problemas filosóficos que atormentam o "endurantismo", mas o "endurantismo" parece estar mais em contato com a forma como normalmente concebemos a "identidade diacrônica". Modalidade. Modalidade diz respeito aos conceitos de possibilidade, realidade e necessidade. No discurso contemporâneo, esses conceitos são frequentemente definidos em termos de mundos possíveis. Um mundo possível é uma forma completa de como as coisas poderiam ter sido. O mundo real é um mundo possível entre outros: as coisas poderiam ter sido diferentes do que realmente são. Uma proposição é possivelmente verdadeira se há pelo menos um mundo possível no qual é verdadeira; é necessariamente verdadeira se é verdadeira em todos os mundos possíveis. Os "atualistas" e os "possibilistas" discordam sobre o "estado ontológico" dos mundos possíveis. Os atualistas sustentam que a realidade é em seu núcleo real e que os mundos possíveis devem ser entendidos em termos de entidades reais, por exemplo, como ficções ou como conjuntos de sentenças. Os possibilistas, por outro lado, atribuem aos mundos possíveis o mesmo "estado ontológico fundamental" que ao mundo real. Esta é uma forma de realismo modal, sustentando que a realidade tem características irredutivelmente modais. Outra questão importante neste campo diz respeito à distinção entre "seres contingentes" e "seres necessários". Os seres contingentes são seres cuja existência é possível, mas não necessária. Os seres necessários, por outro lado, não poderiam ter falhado em existir. Foi sugerido que esta distinção é a divisão mais alta do ser. Substâncias. A categoria de "substâncias" tem desempenhado um papel central em muitas teorias ontológicas ao longo da história da filosofia. "Substância" é um termo técnico dentro da filosofia que não deve ser confundido com o uso mais comum no sentido de substâncias químicas como ouro ou enxofre. Várias definições foram dadas, mas entre as características mais comuns atribuídas às substâncias no sentido filosófico é que são "particulares" que são "ontologicamente independentes": são capazes de existir por si mesmos. Sendo ontologicamente independentes, as substâncias podem desempenhar o papel de "entidades fundamentais" na "hierarquia ontológica". Se a "independência ontológica" é definida como incluindo a "independência causal", então apenas entidades auto-causadas, como o Deus de Spinoza, podem ser substâncias. Com uma definição especificamente ontológica de "independência", muitos objetos cotidianos, como livros ou gatos, podem ser considerados substâncias. Outra característica definidora frequentemente atribuída às substâncias é sua capacidade de "sofrer mudanças". As mudanças envolvem algo existente "antes", "durante" e "depois" da mudança. Podem ser descritas em termos de uma substância persistente que ganha ou perde propriedades, ou de "matéria" mudando sua "forma". Nesta perspectiva, a maturação de um tomate pode ser descrita como uma mudança na qual o tomate perde sua cor verde e ganha sua cor vermelha. Às vezes, considera-se que uma substância pode ter uma propriedade de duas maneiras: "essencial" e "acidentalmente". Uma substância pode sobreviver a uma mudança de "propriedades acidentais", mas não pode perder suas "propriedades essenciais", que constituem sua natureza. Propriedades e relações. A categoria de "propriedades" consiste em entidades que podem ser exemplificadas por outras entidades, por exemplo, por substâncias. As propriedades caracterizam seus portadores, expressam como é seu portador. Por exemplo, a cor vermelha e a forma redonda de uma maçã são propriedades desta maçã. Várias maneiras foram sugeridas a respeito de como conceber propriedades em si e sua relação com substâncias. A visão tradicionalmente dominante é que as propriedades são universais que são inerentes a seus portadores. Como universais, podem ser compartilhadas por diferentes substâncias. Os nominalistas, por outro lado, negam que existem universais. Alguns nominalistas tentam explicar propriedades em termos de relações de semelhança ou pertinência de uma classe. Outra alternativa para os nominalistas é conceituar propriedades como particulares simples, os chamados tropos. Esta posição implica que tanto a maçã quanto sua vermelhidão são particulares. Maçãs diferentes ainda podem se assemelhar exatamente umas às outras em relação à sua cor, mas não compartilham a mesma propriedade particular nesta visão: os dois tropos de cor são "numericamente distintas". Outra questão importante para qualquer teoria de propriedades é como conceber a relação entre um portador e suas propriedades. Os teóricos do substrato sustentam que há algum tipo de substância, substrato ou particular nu que atua como portador. A teoria de feixe ("") é uma visão alternativa que acaba com um substrato completamente: os objetos são simplesmente considerados como um feixe de propriedades. São mantidos juntos não por um substrato, mas pela chamada "relação de compresência" responsável pelo agrupamento. Tanto a teoria do substrato quanto a teoria de feixe podem ser combinadas com a conceituação de propriedades como universais ou como particulares. Uma distinção importante para propriedades é entre propriedades "categóricas" e "disposicionais". As propriedades categóricas dizem respeito a como algo é, por exemplo, que qualidades tem. As propriedades disposicionais, por outro lado, envolvem que poderes tem algo, o que é capaz de fazer, mesmo que não esteja realmente fazendo isso. Por exemplo, a forma de um cubo de açúcar é uma propriedade categórica, enquanto sua tendência a dissolver-se na água é uma propriedade disposicional. Para muitas propriedades há uma falta de consenso sobre como elas devem ser classificadas, por exemplo, se as cores são propriedades categóricas ou disposicionais. O categoricalismo é a tese de que em um nível fundamental existem apenas propriedades categóricas, que as propriedades disposicionais são inexistentes ou dependentes de propriedades categóricas. O disposicionalismo é a teoria oposta, dando primazia ontológica às propriedades disposicionais. Entre estes dois extremos, há dualistas que permitem propriedades categóricas e disposicionais em sua ontologia. As "relações" são formas em que as coisas, os relata, estão ligadas umas às outras. Relações são, em muitos aspectos, semelhantes a propriedades, pois ambas caracterizam as coisas às quais se aplicam. Propriedades às vezes são tratadas como um caso especial de relações envolvendo apenas um relatum. Central para a ontologia é a distinção entre relações "internas" e "externas". Uma relação é "interna" se é totalmente determinada pelas características de seus relata. Por exemplo, uma maçã e um tomate estão na relação interna de similaridade entre si porque ambos são vermelhos. Alguns filósofos inferiram disso que as relações internas não têm um estado ontológico próprio, pois podem ser reduzidas a propriedades intrínsecas. As relações "externas", por outro lado, não são fixadas pelas características de seus relata. Por exemplo, um livro está em uma relação "externa" com uma mesa por estar em cima dela. Mas isto não é determinado pelas características do livro ou da mesa, como sua cor, sua forma, etc. Estados de coisas e eventos. Os estados de coisas são entidades complexas, em contraste com substâncias e propriedades, que geralmente são concebidas como simples. Entidades complexas são construídas a partir de ou constituídas por outras entidades. Os estados de coisas atômicos são constituídos por um particular e uma propriedade exemplificada por este particular. Por exemplo, o estado de coisas que Sócrates é sábio é constituído pelo particular "Sócrates" e a propriedade "sábio". Os estados de coisas relacionais envolvem vários particulares e uma relação que os conecta. Os estados de coisas que "obtêm" também são chamados de fatos. É controverso qual estado ontológico deve ser atribuído a estados de coisas que não obtêm. Os estados de coisas têm sido proeminentes na ontologia do século XX, pois várias teorias foram propostas para descrever o mundo como composto de estados de coisas. Muitas vezes se sustenta que os estados de coisas desempenham o papel de veridadores (""): julgamentos ou afirmações são verdadeiros porque o estado de coisas correspondente obtém. Os eventos acontecem no tempo, às vezes são considerados como envolvendo uma mudança na forma de adquirir ou perder uma propriedade, como, por exemplo, a secagem da grama. Mas em uma visão liberal, a retenção de uma propriedade sem qualquer mudança também pode contar como um evento, por exemplo, a grama permanecendo molhada. Alguns filósofos veem os eventos como universais que podem se repetir em momentos diferentes, mas a visão mais dominante é que os eventos são particulares e, portanto, não repetíveis. Alguns eventos são complexos porque são compostos de uma sequência de eventos, muitas vezes chamada de processo. Mas mesmo eventos simples podem ser concebidos como entidades complexas envolvendo um objeto, um tempo e a propriedade exemplificada pelo objeto neste momento. A chamada filosofia do processo ou ontologia do processo atribui a primazia ontológica a mudanças e processos em oposição à ênfase no ser estático na metafísica da substância tradicionalmente dominante. Tipos de ontologias. As teorias ontológicas podem ser divididas em vários tipos de acordo com seus compromissos teóricos. Teorias ontológicas particulares ou tipos de teorias são frequentemente referidas como "ontologias" (singular ou plural). Este uso contrasta com o significado de "ontologia" (somente singular) como um ramo da filosofia: a "ciência do ser" em geral. Plano vs policategórico vs hierárquico. Uma maneira de dividir as ontologias é pelo número de categorias básicas que utilizam. As "ontologias monocategóricas" sustentam que há apenas uma categoria básica, enquanto as "ontologias poligategóricas" implicam que existem várias categorias básicas distintas. Outra forma de dividir ontologias é através da noção de hierarquia ontológica. As ontologias hierárquicas afirmam que algumas entidades existem em um nível mais fundamental e que outras entidades dependem delas. As ontologias planas ('), por outro lado, negam tal status privilegiado a qualquer entidade. Jonathan Schaffer fornece uma visão geral dessas posições, distinguindo entre ontologies "planas" (não hierárquicas), ontologias "classificadas" (') (policategóricas não hierárquicas) e ontologias "ordenadas" ("") (policategóricas hierárquicas). As ontologias "planas" estão interessadas apenas na diferença entre existência e não existência. São "planas" porque cada ontologia plana pode ser representada por um conjunto simples contendo todas as entidades com as quais esta ontologia está comprometida. Uma exposição influente desta abordagem vem de Willard Van Orman Quine, razão pela qual foi chamada de abordagem quineana à meta-ontologia. Esta perspectiva não nega que as entidades existentes podem ser subdivididas e podem estar em várias relações entre si. Estas questões são questões para as ciências mais específicas, mas não pertencem à ontologia no sentido quineano. As ontologias "policategóricas" estão preocupadas com as categorias do ser. Cada ontologia policategórica postula uma série de categorias. Estas categorias são exclusivas e exaustivas: cada entidade existente pertence a exatamente uma categoria. Um exemplo recente de uma ontologia policategórica é a ontologia de quatro categorias de E. J. Lowe. As quatro categorias são objeto, gênero, modo e atributo. A estrutura quádrupla é baseada em duas distinções. A primeira distinção é entre entidades substanciais (objetos e gêneros) e entidades não substanciais (modos e atributos). A segunda distinção é entre entidades particulares (objetos e modos) e entidades universais (gêneros e atributos). A realidade é construída através da interação de entidades pertencentes a diferentes categorias: entidades particulares instanciam entidades universais e entidades não substanciais caracterizam entidades substanciais. As ontologias "hierárquicas" estão interessadas no grau de fundamentalidade das entidades que postulam. Seu principal objetivo é descobrir quais entidades são fundamentais e como as entidades não fundamentais dependem delas. O conceito de fundamentalidade é geralmente definido em termos de fundamentação metafísica (""). As entidades fundamentais são diferentes das entidades não fundamentais porque não são fundamentadas em outras entidades. Por exemplo, às vezes se sustenta que as partículas elementares são mais fundamentais que os objetos macroscópicos (como cadeiras e mesas) que compõem. Esta é uma afirmação sobre a relação de fundamentação entre objetos microscópicos e macroscópicos. O monismo prioritário de Schaffer é uma forma recente de uma ontologia hierárquica. Sustenta que no nível mais fundamental existe apenas uma coisa: o mundo como um todo. Esta tese não nega nossa intuição de senso comum de que os objetos distintos que encontramos em nossos assuntos cotidianos, como carros ou outras pessoas, existem. Apenas nega que estes objetos têm a forma mais fundamental de existência. Um exemplo de ontologia "hierárquica" na filosofia continental vem de Nicolai Hartmann. Ele afirma que a realidade é composta de quatro níveis: o inanimado, o biológico, o psicológico e o espiritual. Estes níveis formam uma hierarquia no sentido de que os níveis mais altos dependem dos níveis mais baixos, enquanto os níveis mais baixos são indiferentes aos níveis mais altos. Ontologias de coisa vs ontologias de fatos. Ontologias de coisas (') e ontologias de fatos (') são ontologias de uma categoria: ambas sustentam que todas as entidades fundamentais pertencem à mesma categoria. Discordam sobre se esta categoria é a categoria de coisas ou de fatos. Um slogan para as ontologias de fatos vem de Ludwig Wittgenstein: "O mundo é a totalidade dos fatos, não das coisas". Uma dificuldade para caracterizar esta disputa é esclarecer o que são coisas e fatos, e como eles diferem uns dos outros. As coisas são comumente contrastadas com as propriedades e relações que instanciam. Os fatos, por outro lado, são frequentemente caracterizados como tendo essas coisas e as propriedades/relações como seus constituintes. Isto se reflete em uma caracterização linguística aproximada desta diferença, na qual os sujeitos e objetos de uma afirmação se referem a coisas enquanto a afirmação como um todo se refere a um fato. O reísmo é uma forma de ontologia de coisas. Franz Brentano desenvolveu uma versão do reísmo em sua filosofia posterior. Ele sustentava que só existem coisas particulares concretas. As coisas podem existir em duas formas: ou como corpos espaço-temporais ou como almas temporais. Brentano estava ciente do fato de que muitas expressões de senso comum parecem se referir a entidades que não têm lugar em sua ontologia, como propriedades ou objetos intencionais. Por isso ele desenvolveu um método para parafrasear estas expressões, a fim de evitar estes compromissos ontológicos. D. M. Armstrong é um conhecido defensor da ontologia de fatos. Ele e seus seguidores se referem aos fatos como estados de coisas. Os estados de coisas são os elementos básicos de sua ontologia: eles têm particulares e universais como seus constituintes, mas são primários em relação a particulares e universais. Os estados de coisas têm existência ontologicamente independente, enquanto "as particulares sem propriedades e universais sem instâncias são falsas abstrações". Ontologias constituintes vs teorias de blob. As "ontologias constituintes" e "teorias de blob", às vezes chamadas de "ontologias relacionais", se preocupam com a estrutura interna dos objetos. As ontologias constituintes sustentam que os objetos têm uma estrutura interna composta por constituintes. Isto é negado pelas teorias de blob: sustentam que os objetos são "blobs" sem estrutura. As teorias de feixe são exemplos de ontologias constituintes. Os teóricos de feixe afirmam que um objeto não é nada além das propriedades que ele "tem". De acordo com esta teoria, uma maçã normal poderia ser caracterizada como um feixe de vermelhidão, redondeza, doçura, etc. Os defensores da teoria de feixe discordam sobre a natureza das propriedades no feixe. Alguns afirmam que estas propriedades são universais, enquanto outros afirmam que são particulares, os chamados "tropos". O nominalismo de classe, por outro lado, é uma forma de teoria de blob. Os nominalistas de classe sustentam que as propriedades são classes de coisas. Instanciar uma propriedade é meramente ser um membro da classe correspondente. Portanto, as propriedades não são constituintes dos objetos que as têm. Relação com a linguagem. A partir do platonismo, alguns filósofos alegam que todos os substantivos referem-se a entidades existentes, e que inclusive o não ser é um princípio essencial qualificado como um tipo diferente de ser (seu estudo foi chamado de meontologia). Outros filósofos sustentam que nem sempre substantivos nomeiam entidades, mas que alguns fornecem uma espécie de atalho para a referência, para uma coleção de objetos, ou eventos quaisquer. Neste último ponto de vista, mente, pois em vez de se referir a uma entidade, refere-se a eventos mentais vividos por uma pessoa. Por exemplo, sociedade remete para um conjunto de pessoas com algumas características comuns, e geometria refere-se a um tipo específico de atividade intelectual. Entre estes pólos de realismo e nominalismo, há também uma variedade de outras posições; mas em qualquer uma, a ontologia deve dar conta de que palavras referem-se a entidades que não "são". Quando se aplica a este processo, substantivos, tais como "elétrons", "energia", "contrato", "felicidade", "tempo", "verdade", "causalidade", e "Deus", a ontologia torna-se fundamental para muitos ramos da filosofia. História. Filosofia hindu. A ontologia desempenha um papel na escola Samkhya de filosofia hindu do primeiro milênio a.C. A filosofia Samkhya considera que o universo consiste em duas realidades independentes: puruṣa (consciência pura e sem conteúdo) e prakṛti (matéria). O dualismo de substância entre puruṣa e prakṛti é semelhante, mas não idêntico, ao dualismo de substância entre mente e corpo que, seguindo as obras de Descartes, tem sido central em muitas disputas na tradição filosófica ocidental. Samkhya vê a mente como sendo a parte sutil de prakṛti. É composto de três faculdades: a mente sensorial (manas), o intelecto (buddhi) e o ego (ahaṁkāra). Estas faculdades desempenham várias funções, mas são por si só incapazes de produzir consciência, que pertence a uma categoria ontológica distinta e pela qual somente puruṣa é responsável. A escola de Yoga concorda com a filosofia Samkhya sobre o dualismo fundamental entre puruṣa e prakṛti, mas difere da posição ateísta de Samkhya ao incorporar o conceito de uma "deidade pessoal, mas essencialmente inativa" ou "deus pessoal" (Ishvara). Essas duas escolas contrastam com o Advaita Vedanta, que está comprometido com uma forma estrita de monismo, ao sustentar que a aparente pluralidade de coisas é uma ilusão (Maya) escondendo a verdadeira unidade da realidade em seu nível mais fundamental (Brahman). Filosofia grega. Pré-socráticos. Na tradição filosófica grega, Parmênides foi um dos primeiros a propor uma caracterização ontológica da natureza fundamental da existência. No prólogo (ou "proêmio") de "Sobre a Natureza", ele descreve duas visões da existência. Inicialmente, nada vem do nada, portanto o Ser é eterno. Ele postula que o ser é o que pode ser concebido pelo pensamento, criado ou possuído. Portanto, não pode haver vazio nem vácuo, ou "não-ser"; e a verdadeira realidade não pode vir a ser nem deixar de ser. Em vez disso, a totalidade da criação é eterna, uniforme e imutável, embora não infinita (Parmênides caracterizou sua forma como a de uma esfera perfeita). Parmênides, portanto, postula que a mudança, conforme percebida na experiência cotidiana, é ilusória. Oposta ao monismo eleático é a concepção pluralista do ser. No século V a.C., Anaxágoras e Leucipo substituíram a realidade do "ser" (única e imutável) pela do "devir", portanto por uma pluralidade "ôntica" mais fundamental e elementar. Esta tese teve origem no mundo helênico, enunciada de duas maneiras diferentes por Anaxágoras e por Leucipo. A primeira teoria tratava de "sementes" (que Aristóteles chamava de "homeomerias") das várias substâncias. A segunda foi a teoria atomística, que tratou a realidade baseada no vácuo, nos átomos e seu movimento intrínseco nele. O atomismo materialista proposto por Leucipo era indeterminista, mas Demócrito (c. 460–c. 370 a.C.) posteriormente o desenvolveu de forma determinista. Mais tarde (século IV a.C.), Epicuro tomou o atomismo original novamente como indeterminista. Ele via a realidade como composta de uma infinidade de corpúsculos ou átomos indivisíveis e imutáveis (do grego "atomon", lit. 'incortável'), mas ele dá peso à caracterização dos átomos, enquanto para Leucipo eles são caracterizados por uma "figura", uma "ordem" " e uma "posição" no cosmos. Os átomos estão, além disso, criando o todo com o movimento intrínseco no vácuo, produzindo os diversos fluxos do ser. Seu movimento é influenciado pela parênquise (Lucrécio nomeia-o clinâmen")" e isso é determinado pelo acaso. Essas ideias prenunciaram a compreensão da física tradicional até o advento das teorias do século XX sobre a natureza dos átomos. Platão. Platão desenvolveu a distinção entre a verdadeira realidade e a ilusão, ao argumentar que o Ser que é real são formas ou ideias eternas e imutáveis (um precursor dos "universais"), das quais as coisas experimentadas na sensação são, na melhor das hipóteses, meras cópias, e reais apenas na medida em que copiam ("participar de") tais formas. Em geral, Platão presume que todos os substantivos (por exemplo, "beleza") se referem a entidades reais, sejam corpos sensíveis ou formas insensíveis. Assim, em "Sofista", Platão argumenta que Ser é uma ideia na qual todas as coisas existentes participam e que elas têm em comum; ele argumenta, contra Parmênides, que as formas devem existir não apenas participando do Ser, mas que o próprio Não-ser é um tipo de ser: o não-ser é apenas uma alteridade, referindo-se de forma predicativa a algo que algum ente não é (outro ser), não a uma nulidade absoluta sem ser. No diálogo platônico "Parmênides", ele busca resolução de aporias sobre as relações existentes entre parte e todo (mereologia), unidade e multiplicidade, movimento e repouso, ser e não-ser, mesmidade e alteridade, no ser primordial unitário que ele chama de Um e em seus componentes. Aristóteles. Em suas "Categorias", Aristóteles (384-322 a.C.) identifica dez tipos possíveis de coisas que podem ser o sujeito ou o predicado de uma proposição. Para Aristóteles existem quatro dimensões ontológicas diferentes: Filosofia budista. Na filosofia budista, a ontologia foi objeto de intenso estudo nas linhagens escolásticas do Abidarma. Idade Média. A ontologia medieval foi fortemente influenciada pelos ensinamentos de Aristóteles. Os pensadores deste período muitas vezes se baseavam em categorias aristotélicas como "substância", "ato e potência" ou "matéria e forma" para formular suas próprias teorias. Ontologistas importantes nesta época incluem Avicena, Tomás de Aquino, Duns Scotus e Guilherme de Ockham. Tomás de Aquino. Fundamental para a ontologia de Tomás de Aquino é sua distinção entre essência e existência: todas as entidades são concebidas como compostas de essência e existência. A essência de uma coisa é o que esta coisa é, significa a definição desta coisa. Deus tem um status especial, pois Ele é a única entidade cuja essência é idêntica à sua existência. Mas para todas as outras entidades finitas há uma distinção real entre essência e existência. Esta distinção se manifesta, por exemplo, em nossa capacidade de compreender a essência de algo sem saber sobre sua existência. Tomás concebe a existência como um "ato de ser" que atualiza a potência dada pela essência. Coisas diferentes têm essências diferentes, que impõem limites diferentes ao ato de ser correspondente. Os exemplos paradigmáticos de compostos de existência e essência são substâncias materiais como gatos ou árvores. Tomás incorpora a distinção de Aristóteles entre matéria e forma ao sustentar que a essência das coisas "materiais", em oposição à essência das coisas "imateriais" como os anjos, é a composição de sua matéria e forma. Assim, por exemplo, a essência de uma estátua de mármore seria a composição do mármore (sua matéria) e a figura que tem (sua forma). A forma é universal, pois substâncias feitas de matéria diferente podem ter a mesma forma. As formas de uma substância podem ser divididas em formas substanciais e acidentais. Uma substância pode sobreviver a uma mudança de uma forma acidental, mas deixa de existir após uma mudança de uma forma substancial. Idade Moderna. A ontologia é cada vez mais vista como um domínio da filosofia separado no "período moderno". Muitas teorias ontológicas deste período eram racionalistas no sentido de que viam a ontologia em grande parte como uma disciplina dedutiva que começa a partir de um pequeno conjunto de primeiros princípios ou axiomas, uma posição melhor exemplificada por Baruch Spinoza e Christian Wolff. Este racionalismo na metafísica e na ontologia foi fortemente oposto por Immanuel Kant, que insistiu que muitas afirmações assim alcançadas devem ser descartadas, pois vão além de qualquer experiência possível que possa justificá-las. Descartes. A distinção ontológica de René Descartes entre mente e corpo é uma das partes mais influentes de sua filosofia. Na sua visão, as mentes são coisas pensantes enquanto os corpos são coisas extensas. "Pensamento" e "extensão" são dois "atributos" que cada um vem em vários "modos" de ser. Os modos de "pensar" incluem julgamentos, dúvidas, volições, sensações e emoções, enquanto as formas das coisas materiais são modos de "extensão". Os modos vêm com um grau menor de realidade, pois dependem para sua existência de uma substância. As substâncias, por outro lado, podem existir por si mesmas. O dualismo de substâncias de Descartes afirma que toda substância finita é ou uma substância pensante ou uma substância extensa. Esta posição não implica que mentes e corpos "estejam realmente" separados uns dos outros, o que desafiaria a intuição de que temos um corpo e também uma mente. Em vez disso, implica que mentes e corpos "podem", pelo menos em princípio, ser separados, já que são substâncias distintas e, portanto, são capazes de existência independente. Um problema de longa data para o dualismo de substâncias desde seu início tem sido explicar como mentes e corpos podem interagir causalmente entre si, como aparentemente fazem, quando uma volição efetua que um braço se mova ou quando a luz caindo sobre a retina causa uma impressão visual. Spinoza. Baruch Spinoza é bem conhecido por seu "monismo de substância": a tese de que existe apenas uma substância. Ele se refere a esta substância como "Deus ou Natureza", enfatizando tanto seu panteísmo quanto seu naturalismo. Esta substância tem uma quantidade infinita de atributos, que ele define como "o que o intelecto percebe da substância como constituindo sua essência". Destes atributos, apenas dois são acessíveis à mente humana: pensamento e extensão. Os "modos" são propriedades de uma substância que decorrem de seus atributos e, portanto, têm apenas uma forma de existência dependente. Spinoza vê as coisas cotidianas como rochas, gatos ou nós mesmos como meros modos e assim se opõe à concepção tradicional aristotélica e cartesiana de categorizá-las como substâncias. Os modos compõem sistemas determinísticos nos quais os diferentes modos estão ligados entre si como causa e efeito. Cada sistema determinístico corresponde a um atributo: um para coisas extensas, outro para coisas pensantes, etc. As relações causais só acontecem dentro de um sistema enquanto os diferentes sistemas funcionam em paralelo sem interagir causalmente entre si. Spinoza chama o sistema de modos "Natura naturata" ("natureza criada") e o contrasta com "Natura naturans" ("natureza criadora"), os atributos responsáveis pelos modos. Tudo no sistema de Spinoza é necessário: não há entidades contingentes. Isto é assim porque os atributos são eles mesmos necessários e porque o sistema de modos segue a partir deles. Wolff. Christian Wolff define a ontologia como a ciência do ser em geral. Ele a vê como uma parte da metafísica, além da cosmologia, da psicologia e da teologia natural. Segundo Wolff, é uma ciência dedutiva, conhecível a priori e baseada em dois princípios fundamentais: o princípio da não contradição ("não pode acontecer que a mesma coisa seja e não seja") e o princípio de razão suficiente ("nada existe sem uma razão suficiente porque existe em vez de não existir"). Os "seres" são definidos por suas "determinações" ou "predicados", que não podem envolver uma contradição. As determinações vêm em 3 tipos: "essentialia", "atributos" e "modos". "Essentialia" definem a natureza de um ser e, portanto, são propriedades necessárias deste ser. Os "atributos" são determinações que decorrem dos essencialia e são igualmente necessários, em contraste com os "modos", que são meramente contingentes. Wolff concebe a "existência" como apenas uma determinação entre outras, que um ser pode carecer. A ontologia se interessa pelo ser em geral, e não apenas pelo ser real. Mas todos os seres, existentes ou não, têm uma razão suficiente. A razão suficiente das coisas sem existência real consiste em todas as determinações que constituem a natureza essencial desta coisa. Wolff refere-se a isto como uma "razão de ser" e a contrasta com uma "razão de devir", que explica porque algumas coisas têm existência real. Schopenhauer. Arthur Schopenhauer foi um defensor do voluntarismo metafísico: ele considera a vontade como a realidade subjacente e última. A realidade como um todo consiste apenas de uma vontade, que é equiparada à kantiana coisa em si. Como a kantiana coisa em si, a vontade existe fora do espaço e do tempo. Mas, ao contrário da kantiana coisa em si, a vontade tem um componente experiencial: se apresenta na forma de esforço, desejo, sentimento, etc. A multiplicidade de coisas que encontramos em nossas experiências cotidianas, como árvores ou carros, são meras aparências que carecem de existência independente do observador. Schopenhauer as descreve como objetivações da vontade. Estas objetivações acontecem em diferentes "passos", que correspondem às formas platônicas. Todas as objetivações são fundamentadas na vontade. Esta fundamentação é governada pelo principium individuationis, que permite que uma multiplicidade de coisas individuais espalhadas no espaço e no tempo sejam fundamentadas na única vontade. Século XX. As abordagens dominantes da ontologia no século XX foram a fenomenologia, a análise linguística e o naturalismo. A "ontologia fenomenológica", como exemplificada por Edmund Husserl e Martin Heidegger, baseia seu método na descrição da experiência. A "análise linguística" atribui à linguagem um papel central para a ontologia, como visto, por exemplo, na tese de Rudolf Carnap de que o valor de verdade das afirmações de existência depende da estrutura linguística em que são feitas. O "naturalismo" dá uma posição proeminente às ciências naturais com o propósito de encontrar e avaliar afirmações ontológicas. Esta posição é exemplificada pelo método de ontologia de Quine, que envolve analisar os compromissos ontológicos das teorias científicas. Husserl. Edmund Husserl vê a ontologia como uma ciência de essências ('). As "ciências das essências" são contrastadas com "as ciências factuais" ('): as primeiras são conhecíveis a priori e fornecem a base para as segundas, que são conhecíveis a posteriori. A ontologia como ciência das essências não está interessada em "fatos reais", mas nas próprias essências, se elas "têm instâncias ou não". Husserl distingue entre a "ontologia formal", que investiga a essência da "objetividade em geral", e "ontologias regionais", que estudam as "essências regionais" que são compartilhadas por todas as entidades pertencentes à região. As regiões correspondem aos gêneros mais altos de entidades concretas: natureza material, consciência pessoal e espírito interpessoal. O método de Husserl para estudar ontologia e ciências da essência em geral é chamado de variação eidética. Envolve imaginar um objeto do tipo sob investigação e variar suas características. A característica alterada é "inessencial" para este tipo se o objeto pode sobreviver à sua mudança, caso contrário pertence à "essência do tipo". Por exemplo, um triângulo continua sendo um triângulo se um de seus lados for estendido, mas deixa de ser um triângulo se um quarto lado for adicionado. A ontologia regional envolve a aplicação deste método às essências correspondentes aos gêneros mais elevados. Heidegger. Central para a filosofia de Martin Heidegger é a noção de "diferença ontológica": a diferença entre ser como tal e entidades específicas. Ele acusa a tradição filosófica de ter "esquecido" esta distinção, o que levou ao erro de entender o "ser como tal" como uma espécie de entidade última, por exemplo, como "idéia, energia, substância, mônada ou vontade de poder". Heidegger tenta retificar este erro em sua própria "ontologia fundamental", concentrando-se no "sentido de ser", um projeto semelhante à meta-ontologia contemporânea. Um método para alcançar isto é o estudo do ser humano, ou Dasein, na terminologia de Heidegger. A razão disto é que já temos um entendimento "pré-ontológico de ser" que molda a forma como experimentamos o mundo. A fenomenologia pode ser usada para tornar explícito este entendimento implícito, mas tem que ser acompanhada pela hermenêutica, a fim de evitar as distorções devidas ao "esquecimento do ser". Em sua filosofia posterior, Heidegger tentou reconstruir a "história do ser" para mostrar como as diferentes épocas na história da filosofia foram dominadas por diferentes concepções do ser. Seu objetivo é recuperar a "experiência original do ser" presente no pensamento dos primeiros pensadores gregos que foi obscurecida por filósofos posteriores. Hartmann. Nicolai Hartmann é um filósofo do século XX dentro da tradição continental da filosofia. Interpreta a ontologia como a ciência de Aristóteles do ser enquanto ser: a ciência das características mais gerais das entidades, geralmente referidas como categorias, e as relações entre elas. Segundo Hartmann, as categorias mais gerais são os "momentos do ser" (existência e essência), os "modos do ser" (realidade e idealidade) e as "modalidades do ser" (possibilidade, atualidade e necessidade). Cada entidade tem tanto "existência" quanto "essência". A "realidade" e a "idealidade", em contraste, são duas categorias disjuntivas: cada entidade ou é real ou ideal. As entidades ideais são universais, repetíveis e sempre existentes, enquanto as entidades reais são individuais, únicas e destrutíveis. As entidades ideais incluem objetos matemáticos e valores. As "modalidades do ser" são divididas nas modalidades absolutas (atualidade e não atualidade) e nas modalidades relativas (possibilidade, impossibilidade e necessidade). As modalidades relativas são "relativas" no sentido de que dependem das modalidades absolutas: algo é possível, impossível ou necessário porque outra coisa é atual. Hartmann afirma que a realidade é composta por quatro níveis ("inanimado", "biológico", "psicológico" e "espiritual") que formam uma hierarquia. Carnap. Rudolf Carnap propôs que o valor de verdade das afirmações ontológicas sobre a existência de entidades depende da estrutura linguística na qual essas afirmações são feitas: são "internas" à estrutura. Como tal, muitas vezes são triviais, pois dependem apenas das regras e definições dentro desta estrutura. Por exemplo, decorre analiticamente das regras e definições dentro da estrutura matemática que os números existem. O problema que Carnap viu com os ontologistas tradicionais é que tentam fazer declarações "externas" ou independentes de estrutura sobre o que "realmente" é o caso. Tais declarações são, na melhor das hipóteses, "considerações pragmáticas" sobre qual estrutura escolher e, na pior das hipóteses, "sem sentido", de acordo com Carnap. Por exemplo, não há nenhum fato sobre se o realismo ou idealismo é verdadeiro; sua verdade depende da estrutura adotada. O trabalho dos filósofos não é descobrir quais coisas existem por si mesmas, mas "engenharia conceitual": criar estruturas interessantes e explorar as consequências de adotá-las. A escolha da estrutura é guiada por considerações práticas como conveniência ou fecundidade, já que não há noção de verdade independente da estrutura. Quine. A noção de compromisso ontológico desempenha um papel central nas contribuições de Willard Van Orman Quine para a ontologia. Uma teoria está ontologicamente comprometida com uma entidade se essa entidade deve existir para que a teoria seja verdadeira. Quine propôs que a melhor maneira de determinar isto é traduzindo a teoria em questão para a lógica de predicados de primeira ordem. De especial interesse nesta tradução são as constantes lógicas conhecidas como quantificadores existenciais, cujo significado corresponde a expressões como "existe..." ou "para alguns...". Eles são usados para ligar as variáveis na expressão seguinte ao quantificador. Os compromissos ontológicos da teoria correspondem então às variáveis ligadas pelos quantificadores existenciais. Esta abordagem é resumida pelo famoso ditado de Quine de que "ser é ser o valor de uma variável". Este método por si só não é suficiente para a ontologia, pois depende de uma teoria para resultar em compromissos ontológicos. Quine propôs que devemos basear nossa ontologia em nossa melhor teoria científica. Vários seguidores do método de Quine optaram por aplicá-lo a diferentes campos, por exemplo, às "concepções cotidianas expressas em linguagem natural".
1389
OCL
OCL OCL é um acrónimo de Object Constraint Language (ou Linguagem para Especificação de Restrições em Objetos, em português). É uma linguagem declarativa para descrever as regras que se aplicam aos modelos UML desenvolvida na IBM e que agora é parte do padrão UML. OCL, inicialmente, era apenas uma extensão de UML para especificações formais de modelos. A linguagem OCL é uma linguagem de texto precisa que possibilita a expressão de restrições em um modelo orientado a objeto que não possam ser especificadas através dos diagramas. OCL, por fornecer expressões livres das ambiguidades das linguagens naturais e menos difíceis que os métodos formais tradicionais, complementa os modelos UML.
1390
Ortodoxia
Ortodoxia A ortodoxia (com "o" minúsculo) significa conformidade com os princípios de qualquer doutrina geralmente aceita, em contraste com as doutrinas divergentes, que são consideradas falsas e rejeitadas como heterodoxia. A doutrina predominante prevalece sobre as doutrinas divergentes, domina a percepção pública e, assim, define efetivamente a norma, ou seja, a doutrina "correta". Mas a visão predominante às vezes pode ser derrubada por uma "revolução copernicana", de modo que a visão que prevalecia anteriormente dá lugar a um novo consenso, que se torna a nova ortodoxia. O termo "Ortodoxo", com "O" maiúsculo, é comummente aplicado como denominação distinta a dois grupos específicos de igrejas cristãs conhecidas como Igrejas Ortodoxas, assim chamadas mesmo por aqueles que questionam a sua reivindicação de serem exclusivamente ortodoxas. Variedade de campos. O termo "ortodoxia" é aplicado em particular à adesão a um ensino religioso, mas também a outros campos. Fala-se, por exemplo, da ortodoxia marxista e da ortodoxia dos líderes do Partido Comunista Brasileiro que Carlos Marighella abandonou. Um partido cubano fundado em 1947 por Eduardo Chibás, para combater a corrupção do governo e do aparato estatal, com atos marcadamente reformistas, se definiu "ortodoxo" ("Partido del Pueblo Cubano – Ortodoxos, PPC-O). Miguel de Unamuno observou: "Um preceptivo revolucionário ainda é prescritivo e tão absurdo quanto a ortodoxia acadêmica é a ortodoxia anti-acadêmica". Com a expressão "economia ortodoxa" se refere às teorias econômicas predominantemente ensinadas nas universidades. É usada em contraste com a expressão "economia heterodoxa", constituída por abordagens não hegemônicas nos meios acadêmicos, tais como a economia austríaca, a economia keynesiana e a economia marxiana. Budismo. No budismo, são consideradas ortodoxas as doutrinas que concordam com certos textos que as várias ordens monásticas budistas consideram autoritários, e o termo "budismo ortodoxo" implica fé correta, votos adequados, entendimento correto, comportamento correto, confiança genuína. Os textos ortodoxos são os do cânone na língua Páli. Cristianismo. Em geral, os cristãos consideram essencial manter inviolável a ortodoxia da doutrina, convencidos que certas declarações incorporam com precisão a verdade revelada do cristianismo e por esse motivo são normativas para toda a Igreja. Rejeitaram ideias como as dos gnósticos do século II e posteriormente as do arianismo e compuseram profissões de fé ("credos") das quais consideravam essencial a aceitação para os que tinham a mesma fé e comunhão. Mesmo entre os protestantes, os conservadores veem como essencial a ortodoxia em relação à obra salvadora de Cristo, enquanto os liberais consideram equivocado e amortecedor buscar a ortodoxia. Islão. O termo ortodoxia, em relação ao Islão, é usado de maneira diferente ou completamente rejeitada. O Islão sunita, que é a religião predominante no Islão, é frequentemente visto como uma forma ortodoxa do Islão. No entanto, essa definição é difícil: por um lado, é muito estreita, porque a forma xiita do islão também tem características de uma fé ortodoxa e a separação entre o islamismo sunita e o islamismo xiita tem sido frequentemente sem limites claros ao longo da história. Entre os sunitas e xiitas, sempre houve uma forte consciência de que a outra religião também faz parte do Islão. Judaísmo. O termo "judaísmo ortodoxo" abrange as crenças e práticas dos judeus fiéis à lei transmitida a Moisés no Monte Sinai, com as interpretações tradicionais estabelecidas ao longo dos séculos. Os judeus ortodoxos consideram a lealdade a uma cadeia de transmissão de halacá central desde o tempo de Moisés até hoje, incluindo os editores do Talmude e comentaristas posteriores. Um judeu ortodoxo é aquele que reconhece que deve se comportar de acordo com o halacá, o "corpus" de regras estabelecidas pela tradição oral, desde o Talmude até hoje. Dentro da ortodoxia religiosa judaica, dois ramos se diferenciaram gradualmente: os ortodoxos e os ultraortodoxos. Os sociólogos israelianos costumam fazer uma distinção entre judeus seculares, tradicionalistas (prática religiosa parcial), ortodoxos (prática religiosa estrita, mas imersão no mundo moderno) e ultraortodoxo — ou haredim — caracterizado por uma prática religiosa estrita, uma ampla rejeição da modernidade e um desejo de forte separatismo social: roupas específicas, bairros específicos, instituições religiosas específicas. A proporção de haredim permanece aproximadamente estável.
1391
Ornitólogo
Ornitólogo
1392
Ornitologia
Ornitologia Ornitologia é o ramo da zoologia que se dedica ao estudo das aves a partir de sua distribuição na superfície do globo, das condições e peculiaridades de seu meio, costumes e modo de vida, de sua organização e das características que as distinguem umas das outras, para classificá-las em espécies, gêneros e famílias. A ornitologia é uma das poucas ciências beneficiadas por importantes contribuições de amadores. Embora muitas informações provenham de observação direta, algumas áreas da ornitologia tiram proveito de técnicas e instrumentos modernos como anilhamento de aves (PT: anilhagem de aves), radar e radiotelemetria. No Ocidente, Aristóteles foi um dos primeiros a escrever sobre as aves em sua obra "Sobre a história dos animais", continuada em Roma, mais de três séculos depois, por Plínio, o Velho. Várias obras da Idade Média e do início da era moderna registram observações pessoais relevantes, como "A arte de caçar com aves", escrita pelo imperador alemão no , ou a "Histoire de la nature des oiseaux" (1555; "História da natureza das aves"), do naturalista francês Pierre Belon. O marco inicial do estudo científico das aves é o trabalho do naturalista inglês Francis Willughby, continuado por seu colega John Ray, que publicou "The Ornithology of F. Willughby" (1678; "A ornitologia de F. Willyghby"), em que aparece a primeira tentativa metódica de classificação das aves, baseada essencialmente nas características de forma e de função. Aplicaram-se à ornitologia, como aos demais ramos das ciências naturais, os métodos do naturalista sueco Lineu, cuja classificação sistemática, ou taxonomia, foi adotada como ponto de partida para todas as questões relativas à nomenclatura binária das espécies do mundo vivo, seguida com absoluta consistência pelos ornitólogos. Em consequência dos grandes descobrimentos marítimos do século XVI, um número crescente de aves inteiramente desconhecidas pelos europeus ficou sem classificação, o que se tornou um problema para a ornitologia. Os pesquisadores passaram a estudá-las por meio de exemplares conservados em seus gabinetes, origem dos primeiros museus. Entre essas coleções particulares, figurava a do físico francês René-Antoine Ferchault de Réaumur, a quem se deve a técnica de conservação dos exemplares a seco (taxidermia), em que se baseiam os estudos taxionômicos. No século XIX, os especialistas concentraram-se na anatomia interna, por sua aplicação à taxonomia. No decorrer do século XX, o estudo anatômico cedeu lugar ao crescente interesse por critérios ecológicos e etológicos. Ornitologia no Brasil. Entre as referências mais antigas feitas à avifauna brasileira, destacam-se as que se encontram no livro do arcabuzeiro alemão Hans Staden, que caiu prisioneiro dos índios por volta de 1553. A essa fonte somam-se as informações esparsas nas obras de dois franceses, o franciscano André Thevet e o calvinista Jean de Léry, bem como nas de outros religiosos e viajantes. O estudo das aves indígenas figura como um dos capítulos mais importantes da "História naturalis Brasiliae" (1648), do naturalista holandês Georg Marcgrave. Valiosos dados, cujo interesse se mantém até hoje, foram coletados no período colonial pela "viagem filosófica" de Alexandre Rodrigues Ferreira à região amazônica, patrocinada pela coroa portuguesa no final do século XVIII. Todas as muitas expedições científicas ao Brasil durante o século seguinte, como a de Georg Heinrich von Langsdorff, a do príncipe Maximilian von Wied-Neuwied e a de Hermann Burmeister, deixaram registros ornitológicos de variada importância. A obra de Burmeister se notabilizou por haver tentado uma descrição geral das aves do país, embora muito limitada a regiões de Minas Gerais. Materiais obtidos pelo colecionador alemão Johann Centurius von Hoffmannsegg e incorporados ao museu de Berlim permitiram que Johann Karl Wilhelm Illiger, Martin Heinrich Lichtenstein e outros descrevessem espécies até então ignoradas na Europa. O francês Pierre-Antoine Delalande colecionou extraordinário número de espécies novas, de ocorrência no Rio de Janeiro, descritas por seu compatriota Louis Vieillot. Outro francês, Edouard Ménétriès, que viajara por Minas Gerais em companhia de Langsdorff, reuniu material que mais tarde estudou no Museu de São Petersburgo. Entre os ornitologistas ingleses no Brasil, o principal foi William Swainson, que descreveu e desenhou primorosamente as aves nordestinas. Foram também muito úteis aos estudos ornitológicos brasileiros as viagens de Alfred Russel Wallace e de outros à Amazônia, assim como o "Catalogue of the Birds in the British Museum" (1874–1875; "Catálogo de aves do Museu Britânico"), que marcou época e até hoje constitui obra indispensável aos estudiosos. O dinamarquês Johannes Theodor Reinhardt ocupou-se das aves coletadas por Peter Wilhelm Lund em sua jornada pelas regiões campestres de Minas Gerais e estados vizinhos. A expedição americana de 1865, chefiada por Louis Agassiz, assinalou o começo de um ciclo de visitas ao Brasil de naturalistas-colecionadores dos Estados Unidos. Dentre os principais estudos da ornitologia brasileira destacam-se os trabalhos realizados no Museu Nacional, no Rio de Janeiro; no Museu Paraense Emílio Goeldi, em Belém do Pará; e no Museu Paulista, que em 1907 publicou um catálogo das aves do Brasil, seguido por edições ampliadas. Outras obras fundamentais de referência são "As aves do Brasil" (1894–1900), de Emílio Goeldi, e "Catálogo das aves amazônicas" (1914), de Emilie Snethlage.
1393
Oscar Wilde
Oscar Wilde Oscar Fingal O'Flahertie Wills Wilde, ou simplesmente Oscar Wilde (Dublin, Irlanda, 16 de outubro de 1854 Paris, 30 de novembro de 1900), foi um influente escritor, poeta e dramaturgo irlandês. Conhecido por sua sagacidade mordaz, pelas vestimentas extravagantes de dândi, pela habilidade de conversação e de ditos espirituosos e ricos em sarcasmo, ironia e cinismo, Wilde tornou-se uma das personalidades mais famosas de sua época e um dos dramaturgos mais populares de Londres, em 1890, após escrever de diversas formas na década de 1880. Enquanto para Max Nordau era um simples degenerado mental cujo único objectivo era causar espanto no público desprevenido, para Fernando Pessoa era antes um individualista forte, com um enorme sentido aristocrático, autor da frase: “"Eu sou daqueles que são feitos para ser a excepção, não para seguir a lei"”, mas também era um obcecado com a autocomplacência, incapaz de levar a bom fim as suas intenções. Hoje, Wilde é lembrado por seus epigramas, peças, livros, sobretudo "O Retrato de Dorian Gray", seu único romance, e pelas circunstâncias que o levaram durante a sociedade vitoriana a ser preso por atividades homossexuais num dos primeiros julgamentos de celebridades da história moderna. Os pais de Wilde eram intelectuais anglo-irlandeses em Dublin. Desde jovem, aprendeu a falar francês e alemão fluentemente. Na universidade, teve sólida formação e demonstrou ser um classicista excepcional, primeiro no Trinity College Dublin, depois na Universidade de Oxford. Associou-se à filosofia emergente do esteticismo, liderada por dois de seus tutores, Walter Pater e John Ruskin. Após a universidade, Wilde mudou-se para Londres, tendo destaque em círculos sociais e culturais e trabalhando prolificamente como jornalista. Foram eminentes, à época, suas conferências nos Estados Unidos e no Canadá sobre o Renascimento Inglês e a decoração de interiores. Na década de 1890, refinou suas ideias sobre a arte em uma série de diálogos e ensaios e incorporou temas de crítica social, decadência, tabus e beleza em "O Retrato de Dorian Gray" (1890). A oportunidade de construir detalhes estéticos com precisão e combiná-los com temas sociais mais amplos e diretos levou Wilde a escrever para o teatro. Em Paris, escreveu a peça "Salomé" (1891) em francês, mas a apresentação foi proibida na Inglaterra durante os ensaios por, segundo as autoridades, conter referências bíblicas. No ano seguinte, lançou o ensaio "A Alma do Homem sob o Socialismo" (1892), seu único texto explicitamente político, de crítica à propriedade privada e em favor do socialismo, servindo de inspiração para revolucionários posteriores. Escreveu ainda quadro comédias teatrais "para gente séria", convertendo-se num dos mais famosos dramaturgos tardios da era vitoriana. No apogeu de sua fama e sucesso, enquanto sua peça "A Importância de Ser Honesto" (1895) estava em cartaz, Wilde processou o pai de seu amante Alfred Douglas por difamação após ser acusado por ele de "sodomia", mas acabou sendo condenado de "indecência grosseira" por relações com outros homens jovens. Mesmo defendendo-se, notavelmente citando no julgamento "o amor que não ousa dizer seu nome", metáfora para o homoerotismo a partir de um poema de Douglas, foi condenado e preso por dois anos, de 1895 a 1897, com trabalhos forçados. Na prisão, escreveu "De Profundis," uma longa carta publicada postumamente em 1905 sobre a sua condição e um contraponto à sua filosofia hedonista anterior. Liberto, partiu imediatamente para a França, jamais retornando para a Irlanda ou a Grã-Bretanha, e onde escreveu sua última obra, "A Balada do Cárcere de Reading" (1898), poema em forma proletária em comemoração aos duros ritmos da vida na prisão. Declarado falido, de reputação arruinada e distante de seus dois filhos com Constance Lloyd, tendo apenas a fidelidade de um círculo reduzido de amigos, entre eles Robert Ross, amante e testamenteiro literário, Oscar Wilde morreu em Paris em 1900, prematuramente aos quarenta e seis anos de idade. Biografia. Primeiros anos. Oscar Fingal O'Flahertie Wills Wilde nasceu na cidade de Dublin, em 16 de outubro de 1854, quando a atual República da Irlanda ainda pertencia ao Reino Unido, na forma do Reino Unido da Grã-Bretanha e Irlanda. O segundo de três filhos, foi criado numa família protestante (depois convertendo-se à Igreja Católica), estudou na "Portora Royal School" de "Enniskillen" e no "Trinity College" de Dublin, onde se sobressaiu como latinista e helenista. Ganhou depois uma bolsa de estudos para o Magdalen College, de Oxford. Wilde saiu de Oxford em 1878, pouco antes de ter ganhado o prêmio "Newdigate" com o poema "Ravenna". Passou a morar em Londres e começou a ter uma vida social bastante agitada, sendo logo caracterizado pelas atitudes extravagantes. Conferências nos Estados Unidos e Canadá. Foi convidado para ir aos Estados Unidos a fim de dar uma série de palestras sobre o movimento estético por ele fundado, o esteticismo, ou dandismo, que defendia, a partir de fundamentos históricos, o belo como antídoto para os horrores da sociedade industrial, sendo ele mesmo um dândi. Em 1883, vai para Paris e entra para o mundo literário local, o que o leva a abandonar seu movimento estético. O melhor período intelectual de "Oscar Wilde" é o que vai de 1887 a 1895. Matrimônio, filhos e descendentes. Depois de se formar no Magdalen College, Oscar Wilde voltou a Dublin, onde conheceu e se interessou por Florence Balcombe. Ela, por sua vez, começou um relacionamento com o escritor Bram Stoker, que ficará conhecido mundialmente por seu livro "Drácula", com quem se casou em 1878. Percebendo a ligação, Wilde anunciou sua intenção de deixar a Irlanda permanentemente em carta a Balcombe. Finalmente, ele deixou o seu país natal em 1878 e voltaria apenas duas vezes e por motivos de trabalho. Os seis anos seguintes foram passados ​​em Londres, Paris e nos Estados Unidos, para onde viajou para dar palestras. Voltando para a Inglaterra, conhece a conterrânea Constance Lloyd em Londres, filha de Horace Lloyd, um rico advogado de Dublin, conselheiro da Rainha Vitória. Durante uma visita de Constance a Dublin, coincidida por ambos (já que Oscar também estava lá dando uma palestra no Teatro Gaiety), Wilde aproveitou para pedir-lhe em casamento. Finalmente, casaram-se em 29 de maio de 1884 em Paddington, Londres. O casal foi morar em Chelsea, um bairro de artistas londrinos. Tinham ensinado e propagado tanto a respeito de decoração, que as pessoas esperavam que a casa dos dois na Rua Tite, número 16 (hoje, número 34), estabelecesse novos padrões. Com Constance, Oscar Wilde teve dois filhos, Cyril Holland, nascido em junho de 1885, e Vyvyan Holland, em novembro 1886. Desde o nascimento do segundo filho, tornaram-se sexualmente afastados, e Wilde passou a viver mais tempo em hotéis, como o Avondale Hotel, do que na casa dos dois. Segundo o irmão de Constance, Otho Holland (Lloyd), a relação sexual entre ambos cessou e ela suspeitou da "reorientação" (o termo é do biógrafo de Wilde, Richard Ellmann) do marido apenas uma vez, e não foi até 1895, quando ela voltou para casa inesperadamente. Eles se separaram, ainda que sem divórcio formal, com o resultado do escândalo do julgamento e condenação de Wilde por suas atividades homossexuais em 1895 (ler a seção Julgamentos). Após a prisão de Wilde, Constance mudou seu sobrenome e o de seus filhos para Holland a fim de se dissociar do escândalo e livrá-los da arruinada reputação social de Wilde, que foi obrigado a renunciar aos direitos parentais sobre os filhos. Ela o visitaria na prisão para lhe contar da morte de sua mãe, Jane Wilde, em 1896. Solto, Wilde deixaria o Reino Unido no mesmo dia e jamais retornaria, e Constance mudou-se com seus filhos para a Suíça, matriculando-os em um internato de língua inglesa na Alemanha. Por causa da recidiva do relacionamento de Wilde com Bosie (Alfred Douglas) após o ocorrido, ambos vivendo juntos em Nápoles, Constance cortou a única fonte regular de renda de Wilde, um estipêndio de £ 3 por semana, e os amantes separaram-se por dificuldades financeiras e questões pessoais. De acordo com o "The Guardian", "as teorias [sobre a morte de Constance] variam de lesões na coluna após uma queda de escadas à sífilis contraída pelo marido". Ainda de acordo com o "The Guardian", cartas familiares na posse de Merlin Holland, neto de Wilde, revelam sintomas da esclerose múltipla, diagnosticada de maneira errada por seus dois médicos, já que essa doença neurológica era pouco conhecida à época. Ela ficaria paralisada após uma queda na escada na casa que dividia com Wilde e morreu em 7 de abril de 1898, após cirurgia na coluna. Foi enterrada em Gênova, Itália. O jovem Cyril foi morto prematuramente por um sniper alemão aos 29 anos de idade em 1915, lutando na Batalha de Festubert, enquanto servia como capitão durante a Primeira Guerra Mundial. Vyvyan (1886-1967) tornou-se autor e tradutor e viveu muito mais tempo do que o irmão (até os 80 anos de idade); em sua autobiografia "Filho de Oscar Wilde" (1954), registra que o pai foi devoto e amoroso para seus filhos e que ele e o irmão tiveram uma infância relativamente feliz. Seu filho Merlin Holland (1945), biógrafo e editor britânico, é o único neto de Oscar Wilde e tem pesquisado e escrito extensivamente sobre a vida e obra do avô, inclusive defendendo sua memória. Merlin Holland declarou em finais do século XX que o sobrenome Wilde ainda causa desconforto em certos círculos da sociedade britânica, porém que pensou na ideia de mudar seu sobrenome de volta para Wilde, resolvendo de vez a longa querela histórico-social de sua família. Em 1998, contou ao "The New York Times": "Mas, se eu fizesse isso, teria que ser não apenas por Oscar, mas também por seu pai e sua mãe, por toda a família. Era uma família extraordinária antes dele vir, portanto, se eu colocar o nome da família de volta no mapa pelos motivos certos, então está tudo bem". Merlin tem um filho com sua primeira esposa Sarah, Lucian Holland, nascido em 1979, que estudou no Magdalen College, frequentando os mesmos espaços universitários de seu bisavô. O sucesso. Em 1892, começa uma série de bem sucedidas histórias, hoje clássicos da dramaturgia britânica: "O leque de Lady Windermere" (1892), "Uma Mulher sem Importância" (1893), "Um Marido Ideal" e "A importância de ser Prudente" (ambas de 1895). Nesta última, o ar cômico começa pelo título ambíguo: "Earnest", "fervoroso" em inglês, tem o mesmo som de "Ernest", nome próprio. Publica contos como "O Príncipe Feliz", "O Gigante Egoísta" e "O Rouxinol e a Rosa", que escrevera para os seus filhos, e "O crime de Lord Artur Saville". O seu único romance foi "O Retrato de Dorian Gray". A situação financeira de Wilde começou a melhorar, e, com ela, conquista uma fama ainda maior. O sucesso literário foi acompanhado de uma vida bastante mundana e suas atitudes tornaram-se cada vez mais excêntricas. "Salomé". O censo de 1891 registra a residência dos Wildes na rua Tite, número 16, onde ele morava com sua esposa Constance e seus dois filhos. Wilde, porém, não satisfeito em ser mais do que nunca conhecido em Londres, voltou a Paris em outubro de 1891, desta vez como um escritor respeitado. Era bem recebido nos salões "littéraires", incluindo os famosos "mardis" de Stéphane Mallarmé, renomado e inovador poeta simbolista. As duas peças de Wilde durante a década de 1880, "Vera, ou Os niilistas" e "A Duquesa de Pádua", não tiveram muito sucesso. Continuou interessado em escrever para teatro e, depois de encontrar sua voz na prosa, seus pensamentos voltaram-se novamente para a forma dramática enquanto a iconografia bíblica de Salomé permeia sua mente. Uma noite, depois de discutir em um de seus encontros as representações de Salomé ao longo da história, voltou ao hotel e notou um caderno em branco sobre a mesa, e lhe ocorreu escrever nele o que estava dizendo. O resultado foi uma nova peça, "Salomé", escrita rapidamente e em língua francesa. A tragédia conta a história de Salomé, a enteada do tetrarca Herodes Antipas, que, para consternação de seu padrasto, mas para a alegria de mãe Herodíade, pede a cabeça de Jokanaan (João Batista) em uma bandeja de prata como recompensa por dançar a Dança dos Sete Véus. Quando Wilde voltou a Londres pouco antes do Natal, o "Paris Echo" referiu-se a ele como "le great event" da temporada. Os ensaios da peça de Wilde, a ser estrelada pela mundialmente famosa atriz Sarah Bernhardt, começaram, mas a licença da peça foi recusada pelo Lord Chamberlain, ou seja, a apresentação foi banida, uma vez que retratava personagens bíblicos. Oscar Wilde protestou contra a dramática decisão da censura, chamando-a de "odiosa e ridícula". Ele argumentou que todos os grandes artistas — pintores, escultores, músicos, escritores — tiraram alguns de seus melhores temas da bíblia. Por que, perguntou ele, o dramaturgo está proibido de lidar com as grandes tragédias de almas que melhor se adequam à sua arte? Quando foi informado de que a proibição seria mantida, declarou, mal-humorado, que iria se estabelecer na França (o que só ocorreria depois de sua prisão), país cuja capital era mais aberta e cosmopolita do que a da Inglaterra conservadora, e ser naturalizado lá. "Salomé" foi publicada em conjunto em Paris e Londres em 1893, mas só foi apresentada ao público em 1896 em Paris, durante o posterior encarceramento de Wilde. Alfred Douglas. Em meados de 1891, o poeta, ensaísta e crítico Lionel Johnson apresentou Wilde a Lord Alfred Douglas, primo de Johnson e, à época, estudante de graduação em Oxford. Conhecido por sua família e amigos como "Bosie", Douglas era um jovem belo e mimado. Uma amizade íntima brotou entre Wilde e Douglas, e em 1893 o autor estava apaixonado por Douglas e eles se relacionavam regularmente em um caso tempestuoso. Se Wilde era relativamente indiscreto, até mesmo extravagante, na maneira como agia, Douglas era imprudente em público. Wilde, que ganhava até £ 100 libras por semana com suas peças (e seu salário na revista "The Woman's World" era de £ 6 libras), conseguia atender a todos os caprichos de Douglas: materiais, artísticos, sexuais. Douglas iniciou Wilde no submundo vitoriano da prostituição gay. Alfred Taylor, por sua vez, que possuía um bordel masculino, aprresentou a Wilde uma série de jovens prostitutos da classe trabalhadora, de 1892 em diante. Esses encontros raros geralmente assumiam a mesma forma: Wilde encontrava-se com o rapaz, oferecia-lhe presentes, jantava com ele em particular e depois o levava para um quarto de hotel. Ao contrário das relações idealizadas de Wilde com Ross, John Gray e Douglas, todos os quais permaneceram parte de seu círculo estético, esses consortes eram mais ignorantes e nada sabiam de literatura. Logo sua vida pública e privada se dividiram fortemente; anos depois, em "De Profundis", ele escreveu a Douglas que "Era como um banquete com panteras; o perigo constituía metade da emoção. Eu costumava me sentir como o encantador de serpentes deve se sentir quando atrai a naja para fora do pano pintado ou do cesto de bambu que a contém, e a faz abrir seu capelo segundo sua vontade e oscilar para a frente e para trás como uma planta oscila suavemente acima do regato. Eram para mim a mais brilhante das serpentes douradas, seu veneno como parte de sua perfeição. Eu não sabia que quando fossem me dar o bote seria sob a flauta de outro, sob a paga de outro. Não sinto vergonha alguma de tê-las conhecido, eram intensamente interessantes; do que sinto vergonha é a horrível atmosfera filistina à qual fui arrastado". Douglas e alguns amigos de Oxford fundaram um jornal chamado "The Chameleon" ("O Camaleão"), para o qual Wilde "enviou uma página de paradoxos originalmente destinada ao "Saturday Review"". "Frases e filosofias para o uso de jovens" viria a ser atacado seis meses depois, no julgamento de Wilde, onde ele foi forçado a defender a revista para a qual havia enviado seu trabalho. [4] Em qualquer caso, tornou-se único: O Camaleão não foi publicado novamente. "" ("Frases e Filosofias para o Uso dos Jovens") seria atacado seis meses depois, no julgamento de Wilde, onde ele foi forçado a defender a revista para a qual havia enviado seu texto. Em qualquer caso, tornou-se único: "The Chameleon" não foi publicado novamente. O pai de Lord Alfred, John Douglas, 9.º Marquês de Queensberry, era conhecido por seu ateísmo declarado, modos brutos e pela criação das regras modernas do boxe. Queensberry, que rivalizava regularmente com seu filho, confrontou Wilde e Lorde Alfred várias vezes a respeito da natureza do relacionamento dos dois. Em junho de 1894, visitou Wilde na rua Tite, número 16, sem hora marcada, e, segundo o biógrafo e crítico literário Richard Ellmann, esclareceu sua posição nos seguintes termos: "Não vou dizer que você é isso, mas você parece isso, e posa como isso, o que é tão ruim quanto. E se eu pegar você e meu filho novamente em qualquer restaurante público, vou espancá-los", ao que Wilde teria respondido: "Não sei quais são as regras de Queensberry, mas a regra de Oscar Wilde é atirar na hora". Seu relato no "De Profundis" foi menos triunfante: "Foi quando em minha biblioteca em Tite Street, gesticulando com as mãozinhas no ar em fúria epiléptica, seu pai, na companhia de um capanga, ou amigo, postado entre nós, proferiu cada palavra imunda que sua mente imunda foi capaz de conceber, gritando ainda as ameaças repulsivas que tão ardilosamente viria a concretizar. Nesse caso, é claro, foi ele que teve de deixar o recinto primeiro. Eu o expulsei. No seu caso, "eu" saí. Não foi a primeira vez que me vi obrigado a salvá-lo de si próprio...". Queensberry apenas descreveu a cena uma vez, alegando que Wilde "mostrou a ele a pena branca", o que significa que ele teria agido de forma covarde. Embora tentando manter a calma, Wilde percebeu que estava se envolvendo em uma brutal briga familiar. Além do mais, a sociedade vitoriana cristã e puritana condenava judicialmente qualquer relacionamento entre homens e a homossexualidade com uma lei contra a "sodomia". Wilde não queria suportar os insultos de Queensberry, mas sabia que confrontá-lo poderia levar ao desastre se suas ligações fossem divulgadas publicamente. O estopim da querela se deu através de processos e julgamentos que culminariam na prisão de Wilde (conferir as próximas seções deste verbete). Na prisão, escreveu, mas não enviou, a severa e longa carta a Alfredo Douglas, hoje intitulada "De Profundis". Douglas ainda se encontraria com Wilde até o final de 1897, quando viveram um tempo juntos em Napóles após Wilde ser solto, contra os avisos de familiares e amigos, mas logo separaram-se para sempre. No início do século XX, convertido ao catolicismo e estreitando laços com políticos de direita, Douglas cada vez mais renegaria e maldiria Wilde, seu passado e sua sexualidade, e, depois de ser preso e solto por difamar Winston Churchill, alegando má conduta na Primeira Guerra Mundial, só o reabilitaria em sua vida em 1940 no livro "Oscar Wilde: Um Resumo" ("Oscar Wilde: A Summing Up"), no qual, ainda não sem resquícios de preconceito cristão, afirma que a homossexualidade seria um pecado como o adultério e a fornificação, mas não um crime, e que o violento preconceito que existia contra a homossexualidade no tempo de Wilde, no final do século XIX, era "simulado" e "hipócrita". "A Importância de Ser Honesto" e a glória. A última peça escrita por Wilde — sua obra-prima da comédia, nas palavras de Daniel Mendelsohn e em entendimento crítico geral — satiriza a moral vitoriana e retorna ao tema das identidades trocadas: dois protagonistas envolvem-se em "bunburying" (estratagema usado por pessoas que precisam de uma desculpa para evitar as obrigações sociais em seu dia a dia; termo cunhado pelo próprio Wilde a partir de Bunbury, o amigo fictício do personagem Algernon), o que lhes permite escapar dos costumes sociais tradicionais. A peça "The Importance of Being Earnest" (traduzida para o português com diferentes títulos: "A Importância de ser Honesto", "A Importância de ser Prudente", "A Importância de ser Ernesto") tem tom ainda mais leve do que as comédias anteriores de Wilde. Enquanto seus outros personagens frequentemente assumem temas sérios em momentos de crise, esta peça carece dos personagens wildeanos já conhecidos: não há "mulher com um passado", os protagonistas não são nem vilões nem astutos, simplesmente "cultivés" ociosos e as jovens idealistas não são tão inocentes. Ambientado principalmente em salas de estar e quase completamente desprovido de ação ou violência, "A Importância..." não traz a decadência autoconsciente encontrada no romance "O Retrato de Dorian Gray" ou em "Salomé". A peça foi escrita em plena maturidade artística de Wilde, no final de 1894. Estreou em 14 de fevereiro de 1895, no Teatro St. James em Londres, segunda colaboração de Wilde com George Alexander, ator-produtor. Ambos revisaram, prepararam e ensaiaram assiduamente cada linha, cena e cenário nos meses anteriores à estreia, criando uma representação cuidadosamente construída da sociedade vitoriana tardia, mas simultaneamente zombando dela, de seus dogmas e hipocrisias e atrasos. Durante o ensaio, Alexander pediu que Wilde encurtasse a peça de quatro para três atos, o que o autor o fez. As estreias em St. James pareciam uma festa, e a abertura de "A Importância..."' não foi exceção. O ator Allan Aynesworth (que interpretou Algernon) contou a Hesketh Pearson mais tarde: "Em meus 53 anos de atuação, nunca me lembro de um triunfo maior do que o daquela primeira noite". A imediata recepção da peça como o melhor trabalho de Wilde até então finalmente cristalizou sua fama em sólida reputação artística. A recepção crítica contou com palavras de William Archer, H. G. Wells e George Bernard Shaw. "A Importância..." continua sendo hoje sua peça mais popular. O sucesso de Wilde foi incidido por uma escalada em sua rivalidade com John Douglas, 9.º Marquês de Queensberry, pai de Alfred Douglas. Queensberry planejou insultar Wilde publicamente, jogando um buquê de vegetais podres no palco; Wilde foi avisado antecipadamente e impediu o Marquês de entrar no teatro. Quinze semanas depois, sua fama e prestígio seriam arruinados e Wilde estava na prisão. Julgamentos. Oscar Wilde viveu três processos em 1895: uma ação que ajuizou contra John Douglas, 9.º Marquês de Queensberry, por difamação criminal, e que fracassou, mesmo o Marquês tendo sido preso; seu primeiro julgamento por "indecência", a partir da acusação de Queensberry, no qual o júri não conseguiu chegar a um veredito final; e, finalmente, o julgamento em que foi condenado junto a Alfred Taylor, que mantinha em sua casa uma espécie de bordel masculino, enquanto Wilde por ter sido, nas palavras do juiz Alfred Wills, "o centro de extensa corrupção da mais horrenda espécie entre jovens". A difamação: "Wilde v. Queensberry". O Marquês de Queensberry, sendo motivado mais por sua personalidade litigiosa do que pelo exercício da moral vitoriana, tendo em vista que era um ateu fervoroso e declarado, além de frequentador habitual de lugares considerados “mal-afamados”, endereçou um bilhete a Oscar em 18 de fevereiro de 1895 no Albermale Club, onde havia escrito: "A Oscar Wilde, que posa de somdomita" ["sic"]. Deliberado ou não, o Marquês escreveu "Somdomite", ao invés da grafia correta em inglês, "sodomite", e também muito se discute o fato de não acusar Wilde categoricamente, mas preferir a insinuação de "posa de". Wilde, após receber o bilhete do porteiro do clube Albermarle, foi convencido, em grande parte por influência de Alfred, a tomar providências. Em 1º de março de 1895, Wilde, Douglas e Ross abordaram o advogado Charles Octavius Humphreys com a intenção de processar John Douglas por difamação, exigindo uma intervenção imediata. Humphreys solicitou um mandado de prisão de Queensberry e requisitou os advogados Sir Edward Clarke e Charles Willie Mathews para representarem Wilde. Seu filho Travers Humphreys foi advogado júnior da acusação no caso subsequente, conhecido como Wilde vs. Queensbury. O procurador acata o pedido e o Marquês é detido por difamação criminal. Com o início do processo, em 3 de abril de 1895 no Old Bailey perante o juiz Richard Henn Collins, não sem cenas de quase histeria pela imprensa e nas galerias públicas, nenhum dos lados está disposto a ceder, e, após uma falha tentativa de solução amigável, o Marquês, por intermédio de seu advogado, pede para que seja provada a ilegalidade da situação; com essa jogada, os lados se invertem, e agora Wilde, acusador, deve provar que as acusações são falsas, enquanto Queensberry deve defender o próprio fundamento e provar a veracidade dos fatos apontados pelo seu bilhete. Uma situação que poderia ter sido ignorada facilmente cresce sem proporções e ameaça engolfá-lo. De acordo com a Lei de Libelação de 1843, Queensberry poderia evitar a condenação de até dois anos de prisão por calúnia apenas demonstrando que sua acusação era de fato verdadeira, e ela deveria promover o que a lei vitoriana chamava de "benefício público". Os advogados do Marquês contrataram detetives particulares para seguir Wilde e encontrar evidências das suas ligações homossexuais. Registraram a associação de Wilde com chantagistas e prostitutos, travestis e homossexuais de bordéis, e várias pessoas envolvidas foram entrevistadas, algumas sendo coagidas a comparecer como testemunhas, já que também eram cúmplices dos "crimes" dos quais Wilde foi acusado. Amigos próximos de Wilde novamente aconselharam-no contra a acusação em uma reunião da "Saturday Review" no Café Royal, em Londres, em 24 de março de 1895; Frank Harris o avisou que "eles vão provar a sodomia contra você" e o aconselhou a fugir para a França. Wilde e Douglas saíram zangados; o primeiro dos dois ainda disse: "é num momento como este que se vê quem são os seus verdadeiros amigos". Essa cena foi testemunhada pelo renomado dramaturgo irlandês George Bernard Shaw, que a lembrou a Arthur Ransome um dia ou mais antes do julgamento de Ransome, décadas depois, por caluniar Douglas, em 1913. Para Ransome, o acontecido confirmava o que ele havia dito em seu livro de 1912 sobre Wilde ("Oscar Wilde, um Estudo Crítico"): que a rivalidade de Douglas contra Robbie Ross por Wilde e sua querela com o pai resultaram no desastre público de Wilde e em sua queda, conforme, de fato, o próprio escreveu em "De Profundis". Douglas viria a perder o caso contra Ransome por difamação no início do século XX. E Shaw, que estabeleceu correspondência com Douglas até o fim da vida desse, em 1945, incluiu um relato da discussão entre Harris, Douglas e Wilde no prefácio da sua peça "A Dama Negra dos Sonetos" (1910). A extensão das evidências reunidas contra Wilde o forçou a declarar humildemente: "Eu sou o promotor neste caso". O advogado de Wilde, Sir Edward George Clarke, a seu pedido abriu o caso perguntando preventivamente ao cliente sobre duas cartas sugestivas que o autor escrevera para Douglas, que a defesa, devassando sua intimidade, tinha em seu poder. Wilde fez questão de mostrar a carta em juízo para mostrar do que se tratava, caracterizando-a como um "soneto em prosa" e admitindo que a "linguagem poética" poderia parecer estranha ao tribunal, mas afirmou que sua intenção era inocente. Wilde contou que as cartas foram obtidas por chantagistas que tentaram extorquir dinheiro dele, o que ele recusou, sugerindo que eles deveriam levar as £ 60 libras (equivalentes a £ 7 000 libras esterlinas hoje) oferecidas, "incomum para um pedaço de prosa desse tamanho". Por fim, alegou considerar as cartas como obras de arte, em vez de algo que o pudesse se envergonhar. Em "De Profundis", escrito na prisão, dirigindo-se a Alfred Douglas, Wilde reconta a história da carta: Os advogados do Marquês, pai de Douglas, eram liderados por Edward Carson, político, advogado e jurista que fora colega de Wilde no Trinity College, inclusive conhecidos de infância. O jornalista Kevin Myers alega que a resposta inicial de Carson seria de recusar em assumir o caso, mas que aceitou ao descobrir que Queensberry falava a verdade. Carson interrogou Wilde sobre como ele percebia o conteúdo moral de suas obras. O escritor argentino Jorge Luis Borges, fã de Wilde desde a infância, quando traduziu para o espanhol o conto "O Príncipe Feliz" (sua avó era inglesa, o inglês sua segunda língua), e, já velho, pensado em se matar no mesmo Hôtel d'Alsace (hoje, L'Hôtel) em que Wilde morreu em Paris, afirmou, relembrando o caso em diálogo com Osvaldo Ferrari, que o erro de Wilde, que foi uma de suas influências literárias, era achar que teria êxitos contra os juízes e a promotoria defendendo-se por meio de epigramas, parecendo mais inteligente do que todos eles, já que a acusação do Marquês não era falsa. De fato, com seu humor e petulância características, o esteta Wilde respondeu a Carson que obras de arte não são morais ou imorais, mas apenas bem ou mal feitas, e que apenas "brutos e analfabetos", cujas opiniões artísticas "são incalculavelmente estúpidas", fariam julgamentos desse tipo sobre arte. Carson divergiu da prática normal de fazer perguntas fechadas, que costumam englobar todas as respostas possíveis, e pressionou Wilde em cada tópico de diversos ângulos, extraindo nuances de significado das respostas de Wilde, removendo-as de seu contexto estético e retratando Wilde como evasivo e decadente. Enquanto Wilde ganhava risos do tribunal, Carson marcava o maior número de pontos legais. Para minar a credibilidade de Wilde, e para justificar a descrição de Queensberry de Wilde como um "posing somdomite", Carson extraiu da testemunha uma admissão de sua capacidade de "posar", demonstrando que havia mentido sobre sua idade sob juramento. Wilde respondeu petulantemente: "Não tenho nenhum desejo de posar de jovem. Tenho trinta e nove ou quarenta anos. Você tem meu certificado e isso resolve o assunto". Aproveitando a oportunidade, Carson voltou a esse tópico ao longo de seu interrogatório, usando repetidamente a palavra "pose" com ênfase irônica e certa dose de escárnio. Para justificar ainda mais a sua posição, Carson tentou defender a acusação de Queensberry citando o romance de Wilde, "O Retrato de Dorian Gray", sobretudo uma cena do segundo capítulo, em que o cínico Lorde Henry Wotton explica sua filosofia decadente e hedonista a Dorian, "um jovem inocente", em palavras de Carson, que tentava mostrar através do livro como o próprio Wilde seduzia rapazes mais jovens e como teria "corrompido" a inocência do filho do Marquês. Carson, então, passou à evidência factual e questionou Wilde sobre sua amizade com homens mais jovens de classe baixa. Wilde admitiu usar o primeiro nome e dar presentes a eles, mas insistiu que nada desagradável havia acontecido e que eram bons amigos. Carson apontou repetidamente a natureza incomum desses relacionamentos e insinuou que os homens eram prostitutos. Wilde respondeu que não acreditava em barreiras sociais e simplesmente gostava da companhia de jovens. Sendo ainda mais intromissivo, Carson perguntou diretamente a Wilde se ele já tinha beijado um certo criado, ao que Wilde respondeu: "Oh, querido, não. Ele era um garoto particularmente simples — infelizmente feio — tive pena dele por isso". Carson aproveitou tal resposta e o pressionou ainda mais, perguntando repetidamente por que a feiura do menino era relevante, pois, assim, provaria o interesse homossexual de Wilde. Este, por sua vez, hesitou, e, pela primeira vez, ficou agitado com o rumo do interrogatório: "Você me pica e me insulta e tenta me enervar; e às vezes alguém diz coisas levianamente quando deveria falar mais sério". Em seu discurso de abertura para a defesa, Carson anunciou que havia localizado vários prostitutos que testemunhariam que fizeram sexo com Wilde. Seguindo o conselho de seus advogados, Wilde então desistiu da acusação contra o Marquês. Queensberry foi considerado inocente, pois o tribunal declarou que sua acusação de que Wilde estava "posando de somdomita ["sic"]" era justificada, "verdadeira em substância e de fato". De acordo com a Lei de Libelação de 1843, a absolvição de Queensberry tornou Wilde legalmente responsável pelas despesas consideráveis ​​que Queensberry havia incorrido em sua defesa, o que deixou Wilde falido. Além disso, o advogado do Marquês denunciava a carta de Wilde como tentativa de corromper a inocência do filho do seu cliente, abrindo uma acusação criminal acolhida pela Coroa. A reviravolta e a condenação: "Regina v. Wilde e Taylor". Depois de ter deixado o tribunal, Wilde recebeu mandado de prisão sob a acusação de sodomia e "indecência grosseira". Robert Ross encontrou-se com Wilde no Cadogan Hotel, em Knightsbridge, com Reginald Turner, e ambos o aconselharam a ir imediatamente a Dover tentar conseguir um barco para a França, cuja Paris era ambiente menos provinciano do que o Reino Unido, mais cosmopolita e onde ele escaparia da perseguição judicial; porém, sua mãe o aconselhou a ficar e lutar, e Wilde, num gesto que parece de resignação e conformação, diante do desígnio e das consequências por seu estilo de vida, mesmo sem se arrepender de sua vida, disse apenas: "O trem partiu. É tarde demais". Em 5 de abril de 1895, dá-se início uma das muitas audiências transcorridas nesse mês. Ao meio dia, Wilde sai em companhia de Douglas e Ross. Às 15h30, o inspetor Brockwell pergunta ao juiz Bridge se pode emitir o mandado de captura, tendo a esperança secreta de que Wilde já estivesse em território francês e que nada ocorreria. Oscar não pretendia fugir, esperava cautelosamente a sua eventual condenação. Em 6 de abril de 1895, Wilde foi preso por "indecência grosseira" de acordo com a Seção 11 da Lei de Emenda da Lei Criminal de 1885, um termo que significava atos homossexuais que não equivaleriam à sodomia, um "delito" sob uma lei separada. Seguindo as instruções de Wilde, Ross e o seu mordomo forçaram entrada até o quarto e a biblioteca do número 16 da Rua Tite, carregando com eles e preservando alguns objetos pessoais, manuscritos, cartas e afins. Wilde foi então colocado em prisão preventiva em Holloway, onde recebia visitas diárias de Douglas. A prisão de Holloway era uma grande penitenciária ao norte da Cidade de Londres, tendo também aprisionado importantes feministas e militantes no fim do século XIX e início do século XX nas ilhas britânicas. Os eventos ocorreram rapidamente e sua acusação foi aberta em 26 de abril de 1895 perante o juiz Arthur Charles. Wilde declarou-se inocente. Ele já havia implorado a Douglas para deixar Londres e ir para Paris, mas Douglas reclamou amargamente, até mesmo querendo depor no processo, já que a denúncia agora o envolvia como se sua inocência tivesse sido "corrompida" por Wilde; finalmente, Douglas foi pressionado a ir embora e fugiu por um tempo para o Hotel du Monde. Temendo perseguição generalizada, Ross e muitos outros dentro e fora do círculo de Wilde também deixaram o Reino Unido nessa época. Sob interrogatório no dia 30 de abril, Wilde ficou hesitante no início, depois falou com sua típica eloquência um de seus ditos mais notáveis e famosos, diante das correspondências entre ele e Douglas sendo devassadas e exibidas como provas contra ele, constando numa das cartas um dos versos do poema "" ("Dois Amantes", 1894), de Douglas, que trazia a seguinte metáfora para homoerotismo: Tal resposta, ainda que bela, brilhante e inesquecível, foi contraproducente no sentido jurídico frio, pois apenas serviu para reforçar as acusações de comportamento homossexual, mas Wilde permanecia inquebrantável em sua honra de refinado intelectual e artista. O julgamento, no entanto, terminou com o júri incapaz de chegar a um veredicto. O advogado de Wilde, Sir Edward Clarke, conseguiu um magistrado que permitisse que Wilde e seus amigos pagassem fiança. O reverendo Stewart Headlam ofereceu a maior parte da garantia de £ 5 000 libras exigidas pelo tribunal, tendo discordado do tratamento dado a Wilde pela imprensa e pela corte. Wilde foi libertado de Holloway e, evitando qualquer atenção, escondeu-se na casa de Ernest e Ada Leverson, dois de seus amigos firmes. Edward Carson abordou Frank Lockwood, Procurador-Geral do Reino Unido, e perguntou: "Não podemos desistir do camarada agora?". Lockwood respondeu que gostaria de fazê-lo, mas temeu que o caso tivesse se tornado politizado demais para ser abandonado. O julgamento final foi presidido pelo inflexível juiz Alfred Wills, que, segundo o próprio Wilde em "De Profundis", "sumaria o caso com pouco entendimento e muito moralismo". Durante o interrogatório do agora réu, Wilde foi perguntado se conhecia e sabia de Alfred Taylor (o suposto proxeneta que era acusado de gerenciar jovens para o autor), e de suas inesperadas "mascaradas", ou seja, do hábito de se travestir, e do ambiente "suspeito" de sua casa, "pouco iluminada e extremamente perfumada". Taylor, de trinta e três anos de idade, em seu testemunho inspecionado por J. P. Grain, respondeu apenas que gostava de incenso e: "Acho que ele [Wilde] gosta de gente jovem", negando, porém, ter contado a certos rapazes que Wilde se interessava por garotos. Wilde, por sua vez, não sabia mentir ou não queria mentir, e a cada novo testemunho mais detalhes comprometedores vão revelando as suas intimidades e seus variados encontros com jovens, enquanto o seu retrato como “corruptor da juventude” toma forma e passa a dar suporte inestimável à acusação, à imprensa e ao público. O caso, então, torna-se irreversível. Em 25 de maio de 1895, após três julgamentos, Oscar Wilde e Alfred Taylor foram condenados no Tribunal de Old Bailey a dois anos de prisão, com trabalhos forçados, pelo juiz Alfred Wills, que sentenciou Wilde por ter, em suas palavras na sentença, "sido o centro de extensa corrupção da mais horrenda espécie entre jovens" e Taylor por manter "uma espécie de bordel masculino". O juiz qualificou a sentença, a mais severa que a lei permitia, como "totalmente inadequada para um caso como este", e que aquele foi "o pior caso que já julguei". Ao ouvir a dura pena da condenação, a resposta de Wilde, "E eu? Não posso dizer nada, meu senhor?", foi afogada por gritos de "Vergonha!" no tribunal. Embora seja amplamente acreditado que a acusação relacionava-se às atividades consensuais de Wilde, o livro "Os Julgamentos de Oscar Wilde" ("The Trials of Oscar Wilde"; um dos autores, H. Montgomery Hyde, "barrister", biógrafo, autor, político, foi parlamentar e chegou a perdeu uma cadeira no parlamento britânico em 1959 por lutar contra a descriminalização da homossexualidade em seu país), inclui uma transcrição original do julgamento por difamação (que veio à tona em 2000), sugerindo que ele teve relações com adolescentes. Antony Edmonds, autor de "O Escandaloso Verão de Oscar Wilde" ("Oscar Wilde's Scandalous Summer"), acha que, por isso, malgrado o preconceito judicial da sociedade britânica, Wilde teria enfrentado processo mesmo hoje: “Por exemplo, ele certamente pagou por sexo com jovens menores de idade de 18, o que é uma ofensa criminal. Mas mesmo que suas atividades tivessem levado apenas à exposição e não à prisão, ele teria sido violentamente exposto ao ridículo na mídia. Wilde tinha 39 anos quando seduziu Alphonse Conway, e Conway era um garoto inexperiente de 16". Já Merlin Holland (único neto de Wilde, editor e biógrafo, e outro autor de "Os Julgamentos de Oscar Wilde"), no entanto, argumenta: “Alguém está tirando isso do contexto, ele não era um predador odioso. Os meninos pareciam ser parceiros dispostos e parecia haver um relacionamento entre ele e eles.” Prisão. Oscar Wilde foi preso de 25 de maio de 1895 a 18 de maio de 1897 na Cidade de Londres. Entrou pela primeira vez na Prisão de Newgate para processamento, depois foi transferido para a Prisão de Pentonville, onde o trabalho forçado a que havia sido condenado consistia em andar por muitas horas numa esteira colhendo carvalho (separando as fibras em pedaços de velhas cordas da marinha), e onde aos prisioneiros só era permitido ler apenas a bíblia e "O Peregrino - A Viagem do Cristão à cidade Celestial" (1678). Poucos meses depois, Wilde foi transferido para a Prisão de Wandsworth, em Londres. Os presidiários também seguiam o regime de "trabalho duro, comida difícil e cama difícil", o que prejudicou e consumiu sua saúde. Em novembro, ele desmaiou na capela de doença e fome. Rompeu o tímpano direito na queda, lesão que mais tarde contribuiu para sua morte. A situação era tão grave que ele passou dois meses na enfermaria. Richard Haldane, membro do parlamento britânico pelo Partido Liberal, tendo depois ingressado no Partido Trabalhista, visitou Wilde e, através de sua influência política e atribuições públicas, o transferiu em novembro para o Cárcere de Reading, cerca de 30 milhas (48 km) a oeste de Londres em 23 de novembro de 1895. A transferência em si foi possivelmente o ponto mais baixo de seu encarceramento, pois uma multidão zombava e cuspia nele na plataforma da ferrovia. Wilde passou o resto de sua sentença naquele cárcere. Era endereçado e identificado apenas como "C.3.3" — ocupante da terceira cela no terceiro andar da ala C. Na verdade, Wilde não obteve, no início, nem mesmo permissão de ter papel e caneta para escrever, mas Haldane finalmente conseguiu permitir o acesso também a outros livros e materiais de escrita. Não deixando de estar sob vigilância, solicitou, entre outros volumes e obras, a bíblia em francês; livros de gramática italiana e alemã; alguns textos da Grécia Antiga; a "Divina Comédia" de Dante; o então novo romance de Joris-Karl Huysmans, "En Route" ("A Caminho"), sobre a "redenção cristã"; e ensaios de Santo Agostinho, do cardeal John Henry Newman e de Walter Pater. Cerca de cinco meses depois que Wilde chegou ao Cárcere de Reading, Charles Thomas Wooldridge, um soldado da Royal Horse Guards, foi levado a Reading para aguardar seu julgamento pelo assassinato de sua esposa em 29 de março de 1896; em 17 de junho, Wooldridge foi condenado à morte e voltou à prisão para sua execução, que ocorreu na terça-feira, 7 de julho de 1896 — o primeiro enforcamento em Reading em 18 anos. Do enforcamento de Wooldridge, Wilde escreveu mais tarde "A Balada do Cárcere de Reading", poema longo publicado no ano seguinte à sua liberdade, em 1898, e cuja famosa última estrofe é: "[...] "Apesar disso – escutem bem – todos os homens/Matam a coisa amada;/Com galanteio alguns o fazem, enquanto outros/Com face amargurada;/Os covardes o fazem com um beijo,/Os bravos, com a espada!"". A imaginação, a beleza e o amor pela arte não ficaram ausentes em suas últimas obras, porém tornaram-se mais amadurecidas pelo sofrimento. Entre janeiro e março de 1897, Wilde escreveu uma carta de 50 000 palavras para Alfred Douglas, que só será publicada postumamente sob o título de "De Profundis". Não teve permissão para enviá-la, mas obteve permissão para levá-la consigo quando fosse libertado da prisão. Em modo reflexivo, e com críticas severas a Douglas, na epístola Wilde examina friamente sua vida até aquele momento do cárcere, como ele tinha sido um "agent provocateur" na sociedade vitoriana, sua arte, seus paradoxos, sempre procurando subverter e brilhar. Na carta, sua própria avaliação de si mesmo foi escrita nos seguintes termos: Wilde examinou de maneira aguçada como esse fato ligou-se à sua relação com Douglas. Lamenta a qualidade do relacionamento entre os dois, jamais as supostas implicações morais da homossexualidade da sociedade preconceituosa. Bosie teria o destruído como artista, era o homem fatal, "a cabeça da Medusa que transforma homens vivos em pedra", segundo suas próprias palavras. Identificou nele arrogância e vaidade: por exemplo, não havia esquecido a observação de Douglas, quando Wilde estava doente, “Quando não está em seu pedestal, você não é interessante. Da próxima vez que estiver doente, partirei de imediato”. Wilde escreveu: "Ah! que grosseria de caráter isso revela! Que total falta de imaginação! Quão empedernido e baixo havia se tornado seu temperamento a essa altura!". No entanto, também, "mais do que tudo", se "culpou" por "toda a degradação ética em que lhe permiti me lançar": "Estou aqui porque tentei pôr seu pai na cadeia". A primeira metade da carta termina com Wilde perdoando Douglas, tanto para o seu próprio bem quanto para o dele. A segunda metade da carta traça a jornada de redenção e realização por meio da leitura na prisão. Oscar Wilde percebeu que sua provação havia enchido sua vida com o fruto da experiência, por mais amarga que fosse: Wilde foi libertado da prisão em 19 de maio de 1897 e navegou naquela noite para Dieppe, na Terceira República Francesa. Ele nunca mais voltou para o Reino Unido. Ao ser solto, deu o manuscrito epistolar a Robert Ross, que pode ou não ter seguido as instruções de Wilde de enviar uma cópia a Douglas (que mais tarde negou tê-la recebido). Conforme dito, a carta foi publicada parcialmente em 1905 como "De Profundis" (título dado sobretudo por Ross); sua publicação completa e correta, porém, ocorreu pela primeira vez em 1962 em "The Letters of Oscar Wilde", já que a edição de Ross expurgava todas as referências a Douglas (que, casado com Olive Custance desde 1902 e convertido ao catolicismo, cada vez mais repudiava e renegava sua sexualidade e seu passado com Wilde), expandindo-a um pouco para uma edição das obras coletadas de Wilde em 1908, e então doando-a ao Museu Britânico com o entendimento de que não se tornaria pública até 1960. Em 1949, um dos filhos de Wilde, Vyvyan Holland, publicou "De Profundis" novamente, incluindo partes anteriormente omitidas, mas contando apenas com um texto datilografado e defeituoso que lhe foi legado por Ross, contendo muitos erros, inclusive de digitação, "melhorias" adicionadas pelo próprio Ross e outras omissões inexplicáveis. Os últimos anos. Foi libertado em 19 de maio de 1897. Poucos o esperavam na saída, entre eles seu maior amigo, Robert Ross. Depois de passar alguns meses em Berneval-le-Grand, França, foi morar para Paris e passou a usar o nome de Sebastian Melmoth, em referência ao mártir católico São Sebastião e ao personagem Melmoth, que vendeu a alma ao diabo, da obra "Melmoth the Wanderer" (um romance gótico de Charles Maturin, um tio-avô de Wilde). As roupas tornaram-se mais simples e o escritor passou a morar num lugar humilde, de apenas dois quartos. A produtividade literária era pequena. O fato histórico de seu sucesso ter sido arruinado pelo Lord Alfred Douglas (Bosie) tornou-o ainda mais culto e filosófico, sempre defendendo "o amor que não ousa dizer seu nome", definição sobre a homossexualidade, como forma de mais perfeita afeição e amor. Oscar Wilde morreu de um violento ataque de meningite, agravado pelo álcool e pela sífilis, às 9h50 do dia 30 de novembro de 1900 em seu quarto no Hôtel d'Alsace (hoje chamado de L'Hôtel). Em seu leito de morte, foi aceito pela Igreja Católica Romana, e Robert Ross, em sua carta para More Adey (datada de "14 de Dezembro de 1900"), afirma: "Ele estava consciente de que havia pessoas presentes e levantou sua mão quando pedi, mostrando entendimento. Ele apertou nossas mãos. Eu então fui enviado em busca de um padre e, depois de grande dificuldade, encontrei o Padre Cuthbert Dunne, que foi comigo e administrou o Batismo e a Extrema Unção — Oscar não pode tomar a Eucaristia". Oscar Wilde foi enterrado no Cemitério de Bagneux, fora de Paris, porém, em 1950, foi movido para o Cemitério de Père Lachaise. Sua tumba é obra do escultor Sir Jacob Epstein, à requisição de Robert Ross, que também pediu um pequeno compartimento para que seus próprios restos ficassem junto à tumba de Wilde. A obra. No seu único romance, "O Retrato de Dorian Gray", considerado por muitos críticos como uma obra-prima da literatura britânica, Oscar Wilde trata da arte, da vaidade e das manipulações humanas. Já em várias de suas novelas, como, por exemplo "O Fantasma de Canterville", Wilde critica o patriotismo da sociedade. Em seus contos infantis preocupou-se em deixar lições de moral através do uso de linguagem simples. "O Filho da Estrela" (ver em "Ligações Externas"), é exemplo disso. No teatro, escreveu nove dramas, muitos ainda encenados até hoje. Destacou-se como poeta, principalmente na juventude. "Rosa Mystica", "Flores de Ouro" são alguns trabalhos conhecidos nesse campo. Foi um mestre em criar frases marcadas por ironia, sarcasmo e cinismo. Cronologia. Sai da Prisão e em 28 de maio, aparece no Daily Chronicle, a primeira carta sobre o regime penitenciário britânico, sob o título O Caso do Guarda Martin. Ver também. Bibliografia. Moyle, Franny (2011). Constance. New York, NY: Pegasus Books. p. 1. ISBN 9781605983813.
1394
Osciloscópio
Osciloscópio O osciloscópio é um instrumento de medida de sinais elétricos/eletrônicos que apresenta gráficos a duas dimensões de um ou mais sinais elétricos (de acordo com a quantidade de canais de entrada). O eixo vertical (y) do ecrã (monitor) representa a intensidade do sinal (tensão) e o eixo horizontal (x) representa o tempo, tornando o instrumento útil para mostrar sinais periódicos. O monitor é constituído por um "ponto" que periodicamente "varre" a tela da esquerda para a direita. Características e usos. Descrição. Um típico osciloscópio é uma caixa retângular com uma tela, conectores de entrada, "knobs" para controle e botões na frente do painel. Atualmente existem osciloscópios fixos com tela de cristal sólido Para ajudar na medidas, uma grade chamada "graticule" ou retículo é desenhada na face da tela. Cada quadrado na graticule é conhecido como uma "divisão". O sinal a ser medido é ligado a um dos canais de entrada, geralmente através de um conector coaxial, como os conectores BNC ou tipo N. Se a fonte do sinal já possui seu conector coaxial, então um simples cabo é usado para ligá-la, caso contrário um cabo específico chamado "ponta de prova para osciloscópio" é usado. Em seu modo mais simples, o osciloscópio desenha repetidamente uma linha horizontal chamada de "traço" através do meio da tela da esquerda para a direita. Um dos controles, o "timebase control" (controle da base de tempo), determina a velocidade com que a linha é desenhada, e é calibrado em segundos por divisão. Se a tensão de entrada difere do zero, o traço pode ser defletido tanto para cima quanto para baixo. Outro controle, o "vertical control" (controle vertical), determina a escala da deflexão vertical, e é calibrado em volts por divisão. O traço resultante é um gráfico da voltagem (tensão) em função do tempo. Se o sinal de entrada é periódico, então um traço relativamente estável pode ser obtido apenas ajustando a base de tempo (timebase) de acordo com a frequência do sinal de entrada. Por exemplo, se o sinal é uma onda seno com frequência igual a 50 Hz, então seu período é de 20 ms, então a base de tempo (timebase) deve ser ajustada de modo que o tempo entre a passagens sucessivas seja de 20 ms. Este modo é chamado de "continual sweep" (varredura contínua). Infelizmente, a base de tempo dos osciloscópios não é perfeitamente precisa, e a frequência do sinal não é perfeitamente estável, então o traço pode se mover pela tela, dificultando as medidas. Para prover um traço mais estável, os osciloscópios modernos tem uma função chamada "trigger" (desencadear ou disparar). Quando o "triggering" é utilizado, o instrumento irá parar cada vez que a varredura chegue no extremo direito da tela e retornar de volta ao lado esquerdo da tela. O osciloscópio então aguarda um evento específico antes de começar a desenhar o próximo traço. O evento de trigger (disparo) é comumente acionado quando a forma de onda da entrada atinge uma tensão em uma direção específica (tensão crescente ou decrescente) determinada pelo usuário. Este recurso ressincroniza a base de tempo ao sinal de entrada, impedindo o deslizamento horizontal do traço. Desta forma, o trigger permite a visualização de sinais periódicos tais como ondas quadradas e ondas seno. O circuito de Trigger também permite a visualização de sinais não-periódicos, tais como pulsos que não se repetem em uma taxa fixa. Os Tipos de trigger incluem: A maioria dos osciloscópios também permitem que você tire a base de tempo e a insira um sinal no amplificador horizontal. Isto é chamado de modo X-Y, e é útil para ver a relação de fase entre dois sinais, o que é comum em análise de rádio e televisão. Quando os dois sinais são senóides de frequência e fases variáveis, o traço resultante é chamado de curva de Lissajous. Alguns osciloscópios possuem "cursores", que são linhas que podem ser movidas sobre a tela para medir o intervalo de tempo entre dois pontos, ou a diferença entre duas tensões. Muitos osciloscópios possuem um ou mais "canais" de entrada, permitindo que eles mostrem mais de um sinal na tela. Geralmente o osciloscópio tem um conjunto de controles verticais para cada canal, porém apenas um sistema de trigger e base de tempo. Um osciloscópio "dual-timebase" (base de tempo duplo) possui dois sistemas de trigger de modo que dois sinais possam ser vistos em diferentes eixos de tempo. Isto também é chamado de modo "magnificação". O usuário mantém um sinal complexo desejado usando uma configuração de trigger compatível. Então ele permite a "magnificação", "zoom" ou "base de tempo dupla", e pode mover uma janela para observar os detalhes do sinal complexo. Algumas vezes o evento que o usuário deseja ver pode ocorrer apenas ocasionalmente. Para capturar estes eventos, alguns osciloscópios são "storage scopes" (osciloscópios de armazenamento) que preservam o sinal mais recente na tela. Alguns osciloscópios digitais podem fazer a varredura a velocidades baixas como uma vez por hora, emulando um gravador em papel de tira. Isto é, o sinal passa pela tela da direita para a esquerda. A maioria dos osciloscópios mais sofisticados mudam do modo de varredura para o modo de escrita em tira com cerca de uma varredura a cada dez segundos. Isto ocorre porque caso contrário, o osciloscópio iria aparentar estar quebrado: está coletando informações, porém o ponto não pode ser visto na tela. Exemplos de usos. O uso clássico de um osciloscópio é diagnosticar uma peça defeituosa em um equipamento eletrônico. Em um rádio, por exemplo, se olha no esquema elétrico do aparelho e se localizam as conexões entre os estágios (como mixer eletrônico, osciladores eletrônicos, amplificadores). Então o terra do osciloscópio é ligado ao terra do circuito, e a ponta de prova é colocada na conexão entre dois estágios no meio do circuito. Quando o sinal esperado está ausente, se sabe que algum estágio precedente do circuito está defeituoso. Como a maioria das falhas ocorre por causa de um único componente defeituoso, cada medida pode provar que metade do estágio de uma peça complexa está funcionando corretamente, ou seja, que não é a causa do defeito. Uma vez que o estágio defeituoso é encontrado, testes mais específicos deste estágio podem geralmente mostrar a um profissional experiente qual componente está com defeito. Uma vez que este componente é substituído, a unidade pode voltar à operação, ou ao menos o próximo defeito pode ser procurado. Outro uso possível é a checagem de um circuito novo. Muito frequentemente circuitos novos se comportam abaixo do esperado devido aos níveis de tensão errados, ruído elétrico ou erros no projeto. Os circuitos digitais geralmente operam a partir de um oscilador ("clock"), então um osciloscópio de traço duplo ("dual-trace") é necessário para verificar circuitos digitais. Osciloscópios com "armazenamento" são muitos úteis para "capturar" efeitos eletrônicos raros que podem levar a uma operação defeituosa. Outro uso é para engenheiros de software que programam circuitos eletrônicos. Muitas vezes o osciloscópio é a única maneira de ver se o software está rodando corretamente. Para essa aplicação existe, no entanto, um equipamento mais apropriado, o analisador lógico, uma espécie de osciloscópio digital que permite a leitura de dezenas de canais simultaneamente. Conselhos para uso. O problema mais típico encontrado quando se utiliza um osciloscópio não familiar é que o traço não está visível. Muitos osciloscópios mais recentes possuem "opções de reset" ou um botão "auto set up". Utilize-o caso haja confusão. Alguns instrumentos possuem um botão "beamfinder", que limita o tamanho do traço de modo que ele irá aparecer na tela. Outra razão para a "perda" do traço é um ajuste de luminosidade ("brightness") muito baixo. Todos os osciloscópios possuem um ajuste de luminosidade que serve para tornar o traço visível tanto em varreduras lentas como nas mais rápidas. Um ajuste muito tenue pode tornar o traço pouco visível. Um ajuste muito intenso pode deixar o sinal borrado. Alguns osciloscópios possuem um ajuste de foco que permite ajustar a espessura do traço. Verifique que primeiro você configure as opções de canal para acoplamento "DC", com trigger automático. Aumente o valor do volts per division (volts por divisão) do canal (efetivamente diminuindo a Altura da linha) até a linha aparecer. Configure o time per division (tempo por divisão) próximo da velocidade do evento desejado, e então ajuste o volts per division até o evento aparecer em um tamanho útil. Os osciloscópios comumente possuem uma saída de teste que pode ser medida para se asseguram que um canal e sua ponta de prova estejam funcionando. Quando se utiliza um osciloscópio não familiar, é recomendado medir a este sinal primeiro. A capacitância do fio na ponta de prova pode fazer com que o osciloscópio mostre imprecisamente sinais de alta velocidade. Se o sinal parece distorcido, ou seja, se ele mostrar pontas ou elevações estranhas, a capacitância da pronta de prova deve ser ajustada. Muitas destas (como as com atenuação de 10x) tem um pequeno parafuso de ajuste para a capacitância. A maioria dos osciloscópio provê uma saída de teste que produz uma onda quadrada para o ajuste da ponta. O ajuste deve ser feito de modo que as bordas da onda pareçam um quadrado, sem excessos nem arredondamento. A largura de banda das pontas de teste devem ser iguais ou exceder à largura de banda dos amplificadores de entrada do osciloscópio. Em geral, a conexão de terra do osciloscópio deve ser ligada ao terra do circuito que está sendo analisado. A maioria dos osciloscópios possuem um conector de terra em sua saída. Para medir precisamente sinais de alta frequência, o cabo de terra deve ser o mais curto possível; para frequências acima de 100 MHz, o conector embutido terra deve ser removido e substituído por um pequeno pino de terra que sai do anel de terra na ponta da prova. Se o osciloscópio possui uma conexão com o terra das linhas de alimentação, e provável que o pino de terra também esteja ligado ao terra (através do chassi do osciloscópio). Se o circuito em teste também tem sua referência com o terra das linhas de alimentação, então conectar o pino de terra a qualquer sinal teria o mesmo efeito de um curto-circuito ao terra, podendo causar danos ao circuito em teste ou ao próprio osciloscópio. Isto pode ser evitado alimentando-se o osciloscópio através de um transformador de isolação. Existem dois acoplamentos possível no canal de entrada: "AC" coupling (acoplamento AC) bloqueia qualquer DC (corrente continua) no sinal. Isto é útil quando se mede um pequeno sinal em um offset d.C.Note que o modo de acoplamento a AC é feito se adicionando um capacitor internamente, que, apesar de ter um valor alto, pode afetar o modo como os sinais de baixa frequência irão aparecer. "DC" coupling (acoplamento DC) usado quando se mede uma tensão contínua, não bloqueia nenhum sinal. Verifique se você está ajustando o trigger do canal correto. Ajuste o "trigger delay" para zero. Ajuste o nível de trigger até o evento desejado. Após tudo, ajuste do trigger delay até a característica desejada do sinal aparecer. As pontas de prova do osciloscópio são relativamente caras e frágeis. Para reduzir a capacitância, o condutor no cabo de prova é algumas vezes mais fino que um fio de cabelo humano. A "caneta" plástica da ponta é muitas vezes fácil de se quebrar. Deve-se evitar deixar a ponta de prova em algum local em que ela possa ser pisada. Seleção. Os osciloscópios geralmente possuem uma lista das características acima. A medida básica é a largura de banda de seus amplificadores verticais. Os osciloscópios típicos para propósito geral devem possuir uma largura de banda de no mínimo 100 MHz, apesar de larguras de bandas muito menores serem aceitáveis para aplicações em frequências na faixa de áudio. Uma taxa de varredura útil pode ser de um segundo a 100 nanossegundos, com "triggering" e varredura com atraso. Para trabalhar com sinais digitais, dois canais são necessários, e um instrumento com uma taxa de varredura de no mínimo 1/5 da frequência máxima do sistema digital é recomendada. O benefício principal de um osciloscópio de qualidade é a boa qualidade do circuito de "trigger". Se o "trigger" for instável, o "display" sempre será um pouco confuso. A qualidade melhora enormemente conforme a frequência de resposta e a estabilidade da tensão do "trigger" aumentam. Os osciloscópios de empactamento digital costumavam mostrar sinais electricos, do género AA-2B, denominados por vezes de quebrados devido às baixas taxas de armazenamento, porém este problema hoje em dia é muito mais raro devido ao aumento no tamanho das memórias. Até o ano de 2004, um osciloscópio dual-channel, com armazenamento, de 150 MHz, novo custava cerca de US$1.200, sendo considerado muito bom para o uso geral. Como funciona. Osciloscópio de raios catódicos (CRO). O mais novo e mais simples tipo de osciloscópio consiste num tubo de raios catódicos, um amplificador vertical, uma base de tempo, um amplificador horizontal e uma fonte de alimentação. Estes são chamados de osciloscópios 'analógicos' para serem distinguidos dos osciloscópios 'digitais' que se tornaram relativamente comuns nos anos 90 e 2000. Antes da introdução do tubo de raios catódicos (CRO) nesta forma atual, o mesmo já vinha sendo utilizado em outros instrumentos de medição. O tubo de raios catódicos é uma estrutura de vidro com vácuo no seu interior, similar aos tubos de televisões a preto e branco, que possuem uma face plana coberta com um material fosforescente (o fósforo). A tela possui tipicamente menos de 20 cm de diâmetro, sendo muito menos do que as telas da maioria das televisões. A parte no pescoço do tubo é o acelerador de elétrons, que é uma placa de metal aquecida com uma malha de fios (o "grid") na sua frente. Um pequeno potencial de "grid" é usado para bloquear os elétrons de serem acelerados quando o raio precisa ser desligado, como durante o retorno do varrimento ou quando nenhum evento de "trigger" (disparo de evento) ocorre. É aplicada uma diferença de potencial de, no mínimo, algumas centenas de volts para fazer com que a placa aquecida (o cátodo) fique carregado negativamente com relação às placas de deflexão. Para osciloscópios com uma largura de banda maior, onde o traço pode mover-se mais rapidamente através da tela, é tipicamente utilizada uma tensão de aceleração pós-deflexão de mais de 10 000 volts, aumentando a velocidade com que os elétrons atingem o fósforo. A energia cinética dos elétrons é então convertida pelo fósforo em luz visível no ponto do impacto. É através da variação dessa tensão que se obtém o ajuste de luminosidade. Quando ligado, um tubo de raios catódicos (CRT) normalmente mostra um único ponto brilhante no centro da tela, porém este ponto pode ser movido eletrostaticamente ou magneticamente. O CRT de um osciloscópio utiliza a deflexão eletrostática. Entre o acelerador de elétrons e a tela existem dois pares de placas metálicas opostos chamados de placas de deflexão. O amplificador vertical gera um diferença de potencial através de um par de placas, gerando um campo elétrico vertical, através do qual o raio de elétrons passa; quando os diferenciais das placas são os mesmos, o raio não é defletido. Quando a placa superior é positiva com relação à inferior, o raio é defletido para cima; quando o campo é invertido, o raio é defletido para baixo. O amplificador horizontal realiza uma função semelhante com os pares de placas de deflexão horizontais, fazendo com que o raio se mova para a direita ou para a esquerda. Este sistema de deflexão é chamado de deflexão eletrostática, e é diferente do sistema de deflexão eletromagnética utilizado nos tubos das televisões. Em comparação à deflexão magnética, a deflexão eletrostática pode seguir mudanças aleatórias no potencial, porém, é limitada a ângulos de deflexão pequenos. A base de tempo é um circuito eletrônico que gera uma tensão de rampa. Esta é uma tensão que muda continuamente e linearmente no tempo. Quando ela atinge um valor pré-definido a rampa é reiniciada, com a tensão retornando ao seu valor inicial. Quando um evento de "trigger" é reconhecido o "reset" é ativado, permitindo que a rampa volte ao seu estado inicial e cresça novamente. A tensão da base de tempo geralmente controla o amplificador horizontal. O seu efeito é a varredura do raio de elétrons a uma velocidade constante da esquerda para a direita através da tela, e então retornando o raio rapidamente para a esquerda para iniciar a próxima varredura. A base de tempo pode ser ajustada para o período do sinal medido. Desse modo, o amplificador vertical é controlado por uma tensão externa (a entrada vertical) que é tirada do circuito que está sendo medido. O amplificador possui uma impedância de entrada muito alta, de tipicamente um megaohm, de modo que ele consome apenas uma pequena corrente da fonte do sinal. O amplificador controla a deflexão causada pelas placas verticais com uma tensão que é proporcional à entrada vertical. O ganho do amplificador vertical pode ser regulado para se ajustar à amplitude da tensão de entrada. Uma tensão positiva de entrada move o raio para cima, e uma tensão negativa o move para baixo, de modo que a deflexão vertical do ponto mostra o valor da diferença de potencial da entrada. A resposta deste sistema é muito mais rápida do que a de sistemas de medição mecânicos como os multímetros, onde a inércia do ponteiro atrasa a sua resposta para a entrada. Quando todos estes componente trabalham simultaneamente, o resultado é um traço brilhante na tela que representa um gráfico da tensão em função do tempo. A tensão está representada pelo eixo vertical, e o tempo no horizontal. Observar sinais de alta velocidade é difícil utilizando um osciloscópio de raios catódicos convencional, especialmente se os sinais não forem repetitivos, muitas vezes necessitando que o ambiente seja escurecido ou que uma capa especial seja colocada sobre a tela do tubo. Para auxiliar na visualização de tais tipos de sinal, utilizam-se osciloscópios especiais com tecnologia de visão noturna, utilizando uma placa com microcanais na fase do tubo para amplificar sinais de baixa intensidade de luz. Apesar de um osciloscópio de raios catódicos permitir que os sinais sejam vistos na sua forma elementar, não possui nenhum meio de gravar este sinal em papel para o propósito de documentação. Posteriormente, câmeras especiais para osciloscópios foram desenvolvidas para poderem fotografar a tela diretamente. A câmeras mais novas utilizavam filmes de rolo ou em chapas, enquanto nos anos 70 as câmeras instantâneas Polaroid® se tornaram populares. A maioria dos osciloscópios multi-canais não possuem múltiplos raios de elétrons. Em contrapartida, eles mostram apenas um ponto por vez, porém alternam este entre os valores de um canal e outro, ou alternam as varreduras (modo ALT) ou várias vezes por varredura (modo CHOP). Muito poucos osciloscópios de "raio duplo" foram construídos; nestes, o acelerador de elétrons forma dois raios de elétrons e existem dois pares de placas de deflexão vertical e um conjunto comum da placas de deflexão horizontal. O amplificador vertical e o controle da base de tempo são calibrados para mostrar a distância vertical na tela que corresponde a uma certa diferença de potencial, e a distância horizontal, que corresponde a um certo intervalo de tempo. A fonte de alimentação é um componente importante do osciloscópio que provê baixas tensões para alimentar o aquecedor do catodo no tubo e os amplificadores vertical e horizontal. São necessárias altas tensões para controlar as placas de deflexão eletrostática. Estas tensões devem ser muito estáveis, já que qualquer variação causaria erros no posicionamento e brilho do traço. Os osciloscópios analógicos mais recentes adicionaram processamento digital ao projeto padrão. A mesma arquitetura básica - tubo de raios catódicos, amplificadores vertical e horizontal - foi mantida, embora o raio de elétrons seja controlado por um circuito digital que permite mostrar gráficos e textos juntos com as formas de onda analógicas. As capacidades extra deste sistema incluem: Osciloscópios analógicos com armazenamento. Uma capacidade extra disponível em alguns osciloscópios analógicos é chamada de 'armazenamento'. Esta permite que a imagem do traço que normalmente decai em uma fração de segundo permaneça na tala por vários minutos ou mais tempo. Um circuito elétrico então pode ser deliberadamente ativado para armazenar e apagar o traço da tela. O armazenamento é realizado utilizando o princípio da emissão secundária. Quando o raio de elétrons de escrita ordinário passa sobre um ponto na superfície de fósforo, ele não apenas faz o fósforo se iluminar momentaneamente, além disso a energia cinética do elétron atinge elétrons livres da superfície de fósforo. Isto pode deixar uma rede de cargas positivas. Os osciloscópios com armazenamento provêem um ou mais aceleradores de elétrons, (chamados de "flood guns") que produzem um fluxo de elétrons de baixa energia que percorre toda a tela de fósforo. Os elétrons da flood gun são desenhados mais nitidamente nas áreas da tela de fósforo onde o acelerador de elétrons deixou uma rede de cargas positivas: desta forma, os elétrons das flood guns re-iluminam o fósforo nas áreas carregadas positivamente da tela. Se a energia dos elétrons da flood gun estiver corretamente balanceada, cada elétron liberado pela flood gun atinge um elétron secundário da tela de fósforo, assim preservando a rede de cargas positivas nas áreas iluminadas de tela de fósforo. Desta forma, a imagem originalmente feita pelo raio de escrita pode ser mantida por um longo tempo. Eventualmente, pequenos desbalanceamentos na taxa de emissão secundária podem fazer com que a tela inteira seja alimentada positivamente (se ilumine) ou que se alimente negativamente (apagando a imagem). São estes desbalanceamentos que limitam o tempo máximo de armazenamento possível. Alguns osciloscópios utilizam uma forma de armazenamento estritamente binária (on/off) conhecida como "armazenamento biestável". Outros permitem uma série constante de ciclos de limpeza curtos e incompletos que criam a impressão de um fósforo com "persistência variável". Certos osciloscópios também permitem o desligamento parcial ou total das flood guns, permitindo a preservação (invisível) da imagem armazenada para posterior vizualisação. (A alimentação positiva ou negativa ocorre somente quando as flood guns estão ligadas ("on"), com as flood guns desligadas, apenas os defeitos nas cargas podem degradar a imagem armazenada). Osciloscópios com armazenamento digital. O osciloscópio com armazenamento digital (DSO) é atualmente o tipo preferido da maioria da aplicações industriais, apesar de osciloscópios análogicos CRO simples ainda serem utilizados por hobbistas. O osciloscópio digital substitui o método utilizado no osciloscópio de armazenamento analógico por uma memória digital, que é capaz de armazenar as informações por quanto tempo forem necessárias sem degradação. Isto também permite um processamento complexo do sinal por circuitos de processamento de sinal digital de altas velocidades. A entrada vertical, ao invés de controlar o amplificador vertical, é digitalizado por um conversor analógico-digital para criar um conjunto de informações que é armazenado na memória de um microprocessador. O conjunto de informações é processado e então enviado para a tela, que nos osciloscópios mais antigos era um tubo de raios catódicos, porém atualmente pode ser também um LCD. Osciloscópios com o LCD colorido são comuns. O conjunto de dados pode ser enviado através de uma LAN ou WAN para processamento ou arquivamento. A imagem da tela pode ser diretamente gravada no papel através de uma impressora ou plotter, sem a necessidade de uma câmera para osciloscópios. O próprio software de análise de sinal pode extrair muitas características úteis como tempo de subida, largura de pulso e amplitude, espectros de frequência, histogramas e estatísticas, mapas de persistência, e um grande número de parâmetros úteis para profissionais de campos especializados como as telecomunicações, análises de drives de disco e eletrônica de potência. Osciloscópio baseado em computador. Apesar de a maioria das pessoas pensarem no osciloscópio como um instrumento dentro de uma caixa, um novo tipo de "osciloscópio" está surgindo, o qual consiste de um conversor analógico-digital externo (algumas vezes com sua própria memória ou com habilidade de processamento de dados) conectado a um PC que provê o display, interface de controle, armazenamento em disco, rede e muitas vezes a alimentação elétrica. A viabilidade destes Osciloscópio baseados em PC esta no seu uso comum e no baixo custo dos PCs padrão. Isto torna o instrumento particularmente prático para o mercado educacional, onde os PCs são comuns porém os investimentos em equipamentos são comumente baixos. As vantagens dos osciloscópios baseados em PC incluem: Este tipo de instrumento também possui desvantagens, entre elas: Alternativas ao osciloscópio. Existe uma alternativa prática ao osciloscópio que pode ser útil em muitas necessidades, e algumas vezes superior em reparo de rádio, que é ouvir os sinais. O plano básico é mixar (multiplicar) uma frequência intermediária com o sinal, e então amplificar e ouvir o resultado em um alto-falante. Em outras palavras, se utiliza a modulação em amplitude para inserir o sinal na banda de áudio. (portanto para frequências de aúdio não é necessária modulação) Com os circuitos de estado sólido modernos, tal tipo de equipamento é barato e poder ser alimentado por uma pequena bateria. Este sistema de diagnóstico foi muito usado quando o rádio estava no princípio de seu desenvolvimento, e ainda é utilizado na Ásia, e por alguns operadores de rádio amador. Na União Soviética, o instrumento para diagnóstico de rádios combinava um multímetro com um oscilador, um mixer de frequência e um amplificador de áudio para realizar este trabalho. Osciloscópios na cultura popular. Nos anos 50 e 60, os osciloscópios eram frequentemente utilizados em filmes e programas de televisão para representar equipamento científico e técnico genérico, O programa da TV norte-americana de 1964 "The Outer Limits" usava uma imagem de um osciloscópio em seus créditos de abertura ("There is nothing wrong with your television set...") enquanto o filme "" mostrava um osciloscópio Tektronix RM503 montado em um rack. Uso incomum. Em 1958 William Higinbotham criou o que seria um dos primeiros videogames do mundo ao adaptar um osciloscópio para uma simulação de partida de tênis, em Tennis for Two.
1395
Onda
Onda Em física, uma onda é uma perturbação oscilante de alguma grandeza física no espaço e periódica no tempo. A oscilação espacial se caracteriza por seu comprimento de onda, enquanto que o tempo decorrido em uma oscilação completa é denominado período da onda, e é o inverso da sua frequência. O comprimento de onda e a frequência estão relacionadas pela velocidade com que a onda se propaga. Fisicamente, uma onda é um pulso energético que se propaga através do espaço ou através de um meio (líquido, sólido ou gasoso), com velocidade definida. Segundo alguns estudiosos e até agora observado, nada impede que uma onda magnética se propague no vácuo ou através da matéria, como é o caso das ondas eletromagnéticas no vácuo ou dos neutrinos através da matéria, onde as partículas do meio oscilam à volta de um ponto médio mas não se deslocam. Exceto pela radiação eletromagnética, e provavelmente as ondas gravitacionais, que podem se propagar através do vácuo, as ondas existem em um meio cuja deformação é capaz de produzir forças de restauração através das quais elas viajam e podem transferir energia de um lugar para outro sem que qualquer das partículas do meio seja deslocada; isto é, a onda não transporta matéria. Há, entretanto, oscilações sempre associadas ao meio de propagação. Classificação das ondas. Meio de propagação. Ondas mecânicas. São ondas que se propagam somente em meios materiais e são descritas pelas leis de Newton. Exemplos: Ondas eletromagnéticas. São ondas resultantes da combinação de um campo elétrico com um campo magnético. As ondas eletromagnéticas se propagam no vácuo com a mesma velocidade: c = m/s. Diferem das ondas mecânicas por se propagarem sem a necessidade um meio físico intermediário. Exemplos: Ondas de matéria. Essas ondas são utilizadas em laboratório. São ondas associadas a elétrons, prótons e outras partículas elementares e mesmo a átomos e moléculas. Direção de vibração. Ondas transversais. Ondas transversais são aquelas em que a vibração é perpendicular à direção de propagação da onda; exemplos incluem ondas em uma corda e ondas eletromagnéticas. Ondas longitudinais. Ondas longitudinais são aquelas em que a vibração ocorre na mesma direção do movimento; um exemplo são as ondas sonoras. Direção de propagação. Ondas unidimensionais. São aquelas que se propagam numa só direção. Exemplo: Ondas em cordas. Ondas bidimensionais. São aquelas que se propagam num plano ou em uma superfície que possua equipotencial gravitacional, como o oceano, ou superfícies com potencial elástico. Exemplos: Ondas na superfície de um lago , lagoa ou mar, bexigas cheias d'água e bolhas d'água em microgravidade. Ondas tridimensionais. São aquelas que se propagam em todas as direções. Exemplo: Ondas sonoras na atmosfera ou em metais. Características das ondas. Ondas podem ser descritas usando um número de variáveis, incluindo: frequência, comprimento de onda, amplitude e período, etc. Comprimento de onda e número de onda. O comprimento é o tamanho de uma onda, a distância entre dois vales ou duas cristas. É representado pela letra grega lambda (λ). O número de onda (k) é dado pela seguinte relação: Amplitude. A amplitude de uma onda é a medida da magnitude de um distúrbio em um meio durante um ciclo de onda. Por exemplo, ondas em uma corda têm sua amplitude expressada como uma distância (metros), ondas de som como pressão (pascals) e ondas eletromagnéticas como a amplitude de um campo elétrico (volts por metro). A amplitude pode ser constante (neste caso a onda é uma "onda contínua"), ou pode variar com tempo e/ou posição. A forma desta variação é o envelope da onda. A amplitude é representada pela letra grega gama (γ). Frequência e período. O período é o tempo("T") de um ciclo completo de uma oscilação de uma onda. A frequência ("f") é período dividido por uma unidade de tempo (exemplo: um segundo), e é expressa em hertz. Veja abaixo: Quando ondas são expressas matematicamente, a frequência angular (ω; radianos por segundo) é constantemente usada, relacionada com frequência "f" em: Velocidade da onda. A velocidade de uma onda é descrita pela seguinte equação: onde formula_5 é o comprimento de onda e formula_6 a frequência de onda. Está equação também pode ser descrita em termos da frequência angular e do número de onda: A velocidade de uma onda também está relacionada com as propriedades do meio. As propriedades de massa e elasticidade do meio determinam a velocidade com a qual a onda pode se propagar. Em uma corda esticada. onde formula_9 é a tensão na corda (N) e formula_10 é a densidade linear da corda. Velocidade do som. onde formula_12 é o módulo de elasticidade volumétrico e formula_13 é a densidade volumétrica do meio. Equação de Schrödinger. A equação de Schrödinger descreve o comportamento ondulatório da matéria na mecânica quântica. As soluções desta equação são funções de onda que podem ser usadas para descrever a densidade de probabilidade de uma partícula. Tipos de ondas. Ondas estacionárias. Ondas que permanecem no mesmo lugar são chamadas "ondas estacionárias", como as vibrações em uma corda de violino. Quando uma corda é deformada, a perturbação propaga-se por toda a corda, refletindo-se nas suas extremidades fixas. A interferência de duas ondas senoidais iguais que se propagam em sentidos opostos produz uma onda estacionária, ou seja, uma oscilação que aparenta não se mover através do material. Os nodos resultam da interferência (destrutiva) entre a crista e o vale de duas ondas. Nos anti-nodos, onde o deslocamento é máximo, a interferência dá-se entre duas cristas ou dois vales de onda. Cada padrão de oscilação corresponde a uma determinada frequência a que se chama um harmônico. As frequências de vibração variam com o comprimento da corda e com as suas características (material, tensão, espessura), que determinam a velocidade de propagação das ondas. À frequência mais baixa a que a corda vibra chama-se frequência fundamental. A onda estacionária de uma corda com extremidades fixas é dada por: onde formula_15 é a amplitude de cada onda. Ondas senoidais. Ondas que se movem (não-estacionárias) têm uma perturbação que varia tanto com o tempo "t" quanto com a distância "x" e pode ser expressada matematicamente como: onde formula_17 é a amplitude da onda, formula_18 é o "número de onda", formula_19 é a frequência angular e formula_20 é a "constante de fase". Meios de propagação. Podemos classificar os meios onde as ondas se podem propagar das seguintes formas: Propriedades físicas. Todas as ondas tem um comportamento comum em situações padrões. Todas as ondas tem as seguintes características : Energia e potência de uma onda progressiva em uma corda. Quando produzimos uma onda em uma corda esticada, fornecemos energia para que a corda se mova. À medida que a onda se propaga, essa energia é transportada como energia cinética e energia potencial elástica. Um elemento de massa "dm", oscilando transversalmente em um movimento harmônico simples enquanto a onda passa por ele, possui energia cinética associada à sua velocidade transversal. Quando o elemento passa pela posição y = 0, a velocidade transversal é máxima e, consequentemente, a energia cinética também é máxima. Quando o elemento está na posição mais alta (y = ymáx), a velocidade transversal é nula e, assim, a energia cinética também se torna nula. A energia potencial elástica em uma corda está associada às variações de comprimento. Uma corda inicialmente reta sendo atravessada por uma onda senoidal sofre deformações. Ao oscilar transversalmente, um elemento da corda "dx" aumenta e diminui de comprimento periodicamente para assumir a forma de uma onda senoidal. Quando o elemento está na posição y = ymáx, seu comprimento é o valor de repouso "dx" e, portanto, a energia potencial elástica é nula. Já em y = 0, seu alongamento é máximo e, consequentemente, sua energia potencial elástica também é máxima. Quando a onda se propaga ao longo da corda, as forças associadas à tensão da corda realizam trabalho continuamente para transferir energia das regiões com energia para as regiões sem energia. Ao produzirmos uma onda ao longo do eixo x, em uma corda esticada, fazendo-a oscilar continuamente, fornecemos energia para o movimento e alongamento da corda; quando as partes da corda se deslocam perpendicularmente ao eixo x, adquirem energia cinética e energia potencial elástica. Quando a onda passa por partes que estavam anteriormente em repouso, a energia é transferida para essas partes. Assim, dizemos que a onda transporta energia ao longo da corda. A taxa média com a qual a energia cinética é transportada é A energia potencial elástica tem a taxa média de transmissão dada pela mesma equação utilizada para a taxa média de transporte da energia cinética. A potência média, que é a taxa com a qual as duas formas de energia são transmitidas pela onda é dada por
1396
Oeste (sub-região)
Oeste (sub-região) O Oeste (também conhecida como "Região do Oeste") é uma sub-região portuguesa situada no centro-oeste do país, pertencendo à região do Centro. Tem uma extensão total de 2.220 km2, 363.551 habitantes em 2021 e uma densidade populacional de 164 habitantes por km2. Está composta por 12 municípios e 89 freguesias, sendo a cidade das Caldas da Rainha a cidade administrativa e um dos principais núcleos urbanos. Com 30.443 habitantes na sua área urbana e 50.898 habitantes em todo o município, é a maior cidade e o terceiro maior município, a seguir de Torres Vedras com 83.130 habitantes e Alcobaça com 54.981 em todo o município, sendo limitada a nordeste com a Região de Leiria, a leste com a Lezíria do Tejo, a sul com a Área Metropolitana de Lisboa e a oeste com o Oceano Atlântico. Municípios. Compreende 12 municípios: Estes municípios formam por sua vez a Comunidade Intermunicipal do Oeste. A região Oeste caracteriza-se por uma influência costeira e rural. Como assuntos de especial interesse destacam-se a hortofruticultura, nomeadamente a Pera-rocha do Oeste, a Maçã de Alcobaça e a Ginja de Óbidos e Alcobaça. O surf, as praias, o património monumental e a geologia fazem do turismo uma importante actividade económica da região.
1397
Oceano Atlântico
Oceano Atlântico O oceano Atlântico é o segundo maior oceano em extensão, com uma área de aproximadamente km², cerca de um quinto da superfície da Terra. É o oceano que separa a Europa e a África a Leste, da América, a Oeste. Seu nome deriva de Atlas, uma divindade da mitologia grega. É por isso que, às vezes, o oceano Atlântico é referido como "mar de Atlas". A menção mais antiga sobre seu nome é encontrada em "Histórias", de Heródoto, por volta de 450 a.C.. Antes de os europeus descobrirem outros oceanos, o termo "oceano" foi sinônimo de todas as águas que circundam a Europa Ocidental e que os gregos acreditavam ser um grande rio que circundava toda a Terra. Esta denominação desapareceu, no entanto, na Idade Média, altura em que se utilizava o nome de "mar Ocidental" ou "mar do Norte" (que hoje designa uma parte do Atlântico, o mar do Norte). O responsável pelo reaparecimento do nome "Atlântico", foi o geógrafo Mercator ao colocá-lo no seu célebre mapa do mundo em 1569. A partir deste momento a nomenclatura da idade média foi gradualmente sendo substituída por este nome, que subsistiu até os nossos dias. O oceano Atlântico apresenta uma forma semelhante à letra S. Sendo uma divisão das águas marítimas terrestres, o Atlântico é ligado ao oceano Ártico (que em algumas vezes é referido como sendo apenas um mar do Atlântico), a norte, ao oceano Pacífico, a sudoeste, e ao oceano Índico, a sudeste, e ao oceano Antártico, a sul. (Alternativamente, ao invés do oceano Atlântico ligar-se com o oceano Antártico, pode-se estabelecer a Antártida como limite sul do oceano, sob outro ponto de vista). A linha do Equador divide o oceano em Atlântico Norte e Atlântico Sul. Com um terço das águas oceânicas mundiais, o Atlântico inclui mares como o Mediterrâneo, o mar do Norte, o Báltico e o mar das Caraíbas (Caribe). Geografia. O oceano Atlântico, o segundo maior do mundo em superfície, está localizado em sua maior parte no hemisfério ocidental e alonga-se no sentido Norte-Sul. O oceano Atlântico cobre uma área de aproximadamente 106 461 460 quilômetros quadrados, ou 21% da terra. Entretanto, ele está se alargando no local onde as placas da América do Sul e da América do Norte se afastam das placas da Eurásia e da África, a uma velocidade de cerca de 4 centímetros por ano. Com um formato que lembra um S, comunica com o oceano Ártico pelo estreito da Islândia; com o oceano Pacífico e com o oceano Índico pela ampla passagem que se abre entre a América, a África e a Antártida, nas altas latitudes austrais. No hemisfério Norte, as costas continentais, muito recortadas, delimitam numerosos mares anexos (mar da Mancha, mar do Norte, mar Báltico, mar Mediterrâneo, mar das Antilhas). Ao sul, ao contrário, as costas são bem retilíneas. O Atlântico, embora seja o segundo maior extensão, é o oceano que junto com seus mares banha a maior quantidade de países: Fundo oceânico. O fundo oceânico apresenta uma disposição regular: a plataforma continental, ampla ao largo das costas da Europa, da América do Norte e da porção meridional da América do Sul, estreita-se nas costas da África e do Brasil; uma enorme cadeia de montanhas submarinas, a dorsal meso-atlântica, estende-se ao longo do oceano; entre ela e os continentes abre-se uma série de bacias de a m de profundidade (bacias americana, brasileira e argentina, a Oeste; bacias escandinava, da Europa Ocidental, da Guiné, de Angola e do Cabo, a Este). A crista dorsal é sulcada em toda a sua extensão por uma grande fossa tectônica ("rift"), que secciona no sentido longitudinal. Área de constante instabilidade geológica, provocada pela contínua emissão de material ígneo, é objeto de estudos geológicos que analisam os processos de formação e evolução das placas tectônicas, ou seja, da crosta terrestre. A crista da dorsal meso-atlântica situa-se geralmente entre - e - m, mas emerge em alguns pontos, formando ilhas: Jan Mayen, Islândia, Açores, Ascensão, Tristão da Cunha. Nas latitudes equatoriais, a dorsal é cortada por falhas transversais que determinam fossas abissais (fossa da Romanche. - m). Nas outras porções do Atlântico as fossas são raras: situam-se nas Antilhas (Ilhas Caimão e Porto Rico — a mais profunda com - m) e nas ilhas Sandwich do Sul (- m) A origem da cordilheira meso-oceânica (ou Dorsal Atlântica) está relacionada à dinâmica da tectônica de placas. O afastamento entre as placas Sul-Americana e Africana, em consequência das correntes de convecção do magma existente no manto, determina a formação de um extenso dobramento moderno que se estende de norte a sul ao longo do oceano Atlântico. Origem das águas. O meio ambiente terreno, exposto ao calor dos raios solares e os ventos, promove a evaporação e precipitação dos líquidos sobre os continentes dando início ao ciclo das águas, responsável pela sedimentação do fundo do mar e a salinização dos oceanos. Nesse sentido, tem-se que na fachada ocidental, grandes bacias hidrográficas despejam considerável quantidade de sedimentos sobre a plataforma continental, definindo cones aluvionais, como os dos rios São Lourenço e Mississippi, no Atlântico Norte, e o do Amazonas, na faixa equatorial. As águas do Atlântico são as mais salgadas de todos os oceanos (37,5 por mil de salinidade média) e animadas por correntes oceânicas que asseguram intensa circulação entre as águas frias das altas latitudes e as águas quentes equatoriais. As correntes frias do Labrador e das Falkland descem respectivamente ao longo das encostas setentrionais e meridionais da América. De Benguela percorre a costa sul-ocidental africana, em direção ao equador. São compensadas pelas correntes quentes do Brasil e Equatorial Atlântica, nos seus ramos N e S, pela corrente do Golfo, que tem grande influência sobre os climas da Europa norte-ocidental tornando-os menos rigorosos. Essa circulação das águas favorece sua oxigenação e a proliferação de plâncton, definindo importantes zonas pesqueiras, como as costas do Brasil meridional, a fachada norte-americana em torno da Terra Nova, as costas da Escandinávia e da Islândia, além da África meridional. As plataformas continentais encerram, às vezes, jazidas petrolíferas (mar do Norte, costas da Venezuela e do Brasil, golfo da Guiné). Ladeado no hemisfério Norte pelas duas áreas mais industrializadas do globo (NE dos Estados Unidos e Europa Ocidental), o Atlântico Norte apresenta o mais intenso tráfego marítimo e aéreo transoceânico do mundo. História. Os antigos, que o apelidavam de "mar Tenebroso" ou "mar Oceano", conheciam apenas as costas situadas entre o norte das ilhas britânicas e as Canárias. Dos séculos VIII a XI, os Normandos frequentaram as praias da Noruega, da Islândia, da Gronelândia, de Spitsbergen e da Nova Escócia, no actual Canadá. Até o final da Idade Média, só se faziam navegações costeiras, indo até ao cabo Bojador (atingido pelo navegador português Gil Eanes em 1434). No século XV os portugueses intensificaram a exploração da costa africana e, ao mesmo tempo, desenvolveram técnicas de navegação que permitiram viagens por alto-mar. A navegação por latitudes (determinadas pela observação da altura da estrela Polar ou do Sol ao meio-dia, técnica desenvolvida por volta de 1485) foi facilitada pelo uso de instrumentos como a bússola e o astrolábio. Outro fator decisivo foi o estudo do regime dos ventos no Atlântico: em 1439, as informações existentes já permitiam uma navegação assídua e segura. Essas técnicas, aliadas aos novos navios desenvolvidos pelos portugueses (as caravelas, de maior porte, calado mais alto e comum sistema de velas que permitia o aproveitamento dos ventos, mesmo em sentido contrário) permitiriam o reconhecimento da costa da África e as primeiras incursões em alto mar; há ainda informações de que no século XV os portugueses teriam explorado também o Atlântico Norte, juntando conhecimentos que mais tarde facilitaram a viagem de Cristóvão Colombo na primeira travessia documentada do oceano. Com o desenvolvimento técnico obtido, as viagens portuguesas tornaram-se mais ousadas e frequentes através do Atlântico, de tal forma que até 1488 toda a costa oeste da África estava explorada, reconhecida e, nos primeiros 20 anos do século XVI, toda a costa atlântica do continente americano (encontrado em "1492" por Colombo) fora visitada por navegadores portugueses, espanhóis ou italianos a serviço da Espanha. Os reis de Portugal procuraram, desde o início, garantir descobertas de seus navegadores e desde 1443, várias leis reivindicaram o direito de navegação exclusiva nos mares reconhecidos por suas naus. Em 1454, o Papa Nicolau V ratificou a pretensão dos portugueses, reservando-lhes o direito exclusivo de navegação e comércio. Em 1474, D. Afonso V mandou que aqueles que violassem essas determinações fossem mortos e seu bens confiscados pela coroa. O Tratado de paz de Toledo, entre Espanha e Portugal, ratificou esses direitos, que foram reafirmados nas ordenações Manuelinas (1514). Até 1580, houve pouca contestação internacional a essas pretensões, exceto pequenos conflitos diplomáticos causados pela ação de corsários protegidos pelos reis da França e Grã-Bretanha. Após 1580, contudo, a contestação cresceu, envolvendo também os holandeses em guerra com a Espanha pela sua independência. Eles estenderam as ações bélicas contra Portugal, após a união das duas Coroas e passaram à liberdade dos mares; na trégua assinada com Felipe III (III de Espanha e II de Portugal), obtiveram o direito de navegar por esses mares, embora sob licença régia. Esse tratado marcou o início do fim do domínio exclusivo pelos portugueses dos mares que haviam descoberto e, após 1640, o princípio da liberdade dos mares estava solidamente estabelecido. A partir do século XVII, começou a exploração hidrográfica do Atlântico, efetuada de início pelos holandeses, depois pelos ingleses e franceses no século XVIII. No século XIX, foram organizados numerosos cruzeiros oceanográficos que permitiram a elaboração de uma detalhada carta batimétrica do Atlântico. Fundos oceânicos. A crosta oceânica forma o fundo dos grandes oceanos e difere da crosta continental essencialmente pela sua pouca espessura e alta densidade. Características. Das áreas cobertas pelas águas oceânicas pode-se considerar um domínio continental e um domínio oceânico. No domínio continental englobam-se os seguintes elementos morfológicos: No domínio oceânico englobam-se os seguintes elementos morfológicos: Países e territórios banhados pelo oceano. O oceano Atlântico, incluindo os mares Báltico, Mediterrâneo e Negro, banha os seguintes países e territórios (em itálico): Mares do oceano Atlântico. A leste — Europa e África. Varrendo a borda leste do oceano Atlântico, de norte para sul, encontramos: Borda oeste — Américas. Varrendo a borda leste do oceano Atlântico, de norte para sul, encontramos:
1398
Oceano Pacífico
Oceano Pacífico O Oceano Pacífico é o maior oceano da Terra, situado entre a América, a leste, a Ásia e a Austrália, a oeste, e a Antártida, ao sul. Com 180 milhões de km² de área superficial, o Pacífico cobre quase um terço da superfície do planeta e corresponde a quase metade da superfície e do volume dos oceanos. Movendo-se um globo terrestre de forma adequada é possível visualizar-se um hemisfério inteiro do planeta coberto apenas por água, ficando todos os continentes no hemisfério oposto, ocultos à visão em tal posição. Em sua essência — excluída pequena área associada ao oceano Antártico — trata-se basicamente do oceano Pacífico, cujas águas ainda avançam sobre o hemisfério não visível. Em vista da teoria das placas tectônicas e da deriva continental, sua origem remonta ao oceano único que cercava a Pangeia em tempos primitivos, o Pantalassa. Tem 707,5 km de fossas, e 87,8% de sua área apresenta profundidades superiores a 3 000 m; é o oceano com maior profundidade média (4 282 m) e onde se localizam as maiores fossas submarinas (fossa das Marianas, com 11 034 m). Sua forma grosseiramente circular é delimitada por margens continentais activas (que correspondem ao círculo de fogo do Pacífico) sob as quais se afunda uma crusta oceânica em rápida expansão. Em suas águas foi registrada a maior temperatura em um oceano: 40,4 °C, a uma profundidade de 2 000 m, a cerca de 480 km ao oeste da costa estadunidense. Descoberto pelos europeus em 1513 (Vasco Núñez de Balboa), embora desde 1511 que os portugueses navegassem regularmente no mar meridional da China, o qual pertence ao oceano Pacífico, chegando à Tailândia em 1511 e à China em junho de 1513, com Jorge Alvares, portanto antes de Balboa avistar aquele oceano. Transposto pela primeira vez em 1520 (Fernão de Magalhães), o Pacífico tem assistido a um crescimento de sua importância como via de ligação entre algumas das regiões de maior dinamismo econômico da atualidade (Extremo Oriente) e costa ocidental da América do Norte). Fenômenos atmosféricos. El Niño. É um fenômeno oceânico-atmosférico caracterizado por um aquecimento anormal das águas superficiais no oceano Pacífico Tropical. Altera o clima regional e global, mudando os padrões de vento a nível mundial, afetando assim, os regimes de chuva em regiões tropicais e de latitudes médias. La Niña. La Niña (“a menina” em espanhol) é um fenômeno oceânico-atmosférico que ocorre nas águas do oceano Pacífico (equatorial, central e oriental). A principal característica deste fenômeno é o resfriamento (em média de 2 a 3 °C) fora do normal das águas superficiais nestas regiões do oceano Pacífico. O fenômeno La Niña não ocorre todos os anos e nem da mesma forma. Sua frequência é de 2 a 7 anos, com duração aproximada de 9 a 12 meses (há casos que pode durar até 2 anos). O La Niña afeta o comportamento climático no continente americano e outras regiões do planeta. Acompanhamento. O acompanhamento científico deste fenômeno climático é feito pela Organização Meteorológica Mundial. É feito o monitoramento do oceano Pacífico tropical, através de boias amarradas, marégrafos (instrumentos que registram o fluxo das marés) e satélites. As informações são captadas e analisadas com o objetivo de fazer a previsão do comportamento futuro do La Niña. Origem do nome. Fernão de Magalhães batizou este oceano com o nome de "Pacífico" por acreditar que ele era mais calmo que o tempestuoso oceano Atlântico. Esta comparação foi feita quando Fernão de Magalhães e os seus companheiros de navegação transpuseram o estreito de Magalhães, uma passagem entre os dois oceanos já citados. Morfoestrutura do fundo oceânico. Flanqueado por cadeias montanhosas recentes, com intensa atividade vulcânica, o Pacífico é percorrido por um vasto sistema de dorsais. A dorsal Sudeste-Pacífica constitui um prolongamento, através da dorsal Pacífico-Antártica, das dorsais do oceano Índico (dorsal Antártico-Australiana). Em sua porção setentrional atinge as latitudes do litoral mexicano, desaparecendo ao penetrar no golfo da Califórnia. Trata-se de uma dorsal em rápida expansão (entre 8,8 e 16,1 cm por ano), sem fossa axial. As zonas de fraturas que a segmentam são numerosas, com deslocamento pronunciado. Essa dorsal emerge na latitude da ilha de Páscoa, unindo-se à dorsal do Chile, que se liga à costa meridional da América, e na latitude das ilhas Galápagos, unindo-se à dorsal de Cocos ou das Galápagos. Essas dorsais dividem o Pacífico em três conjuntos.Os fundos oceânicos situados a leste da dorsal Sudeste-Pacífica pertencem a placa litosférica da Antártida (que corresponde à bacia Pacífico-Antártica e à planície abissal de Bellingshausen), à placa de Nazca (bacias Peruana e Chilena, separadas pela dorsal de Nazca) e à placa de Cocos (limitada pela dorsal de Cocos). Todo o imenso conjunto de fundos oceânicos situados a oeste da dorsal Sudeste-Pacífica é sustentado pela placa litosférica Pacífica, que a oeste América do Norte apresenta grandes zonas de fraturas, com relevos monumentais, alinhados por milhares de quilômetros ao longo de antigas falhas de transformação. Mais a oeste, o centro do oceano Pacífico é entrecortado por cadeias submarinas e grandes edifícios vulcânicos, ora emergindo em forma de ilhas (Havaí, Marquesas, Marshall, Carolinas), frequentemente coroadas por formações coralíneas (atóis). As bacias oceânicas que as rodeiam (Médio-Pacífica, Melanésia, Nordeste, Noroeste) apresentam uma delgada cobertura sedimentar sobre a crosta basáltica. A presença das fossas oceânicas periféricas, ao longo dos arcos insulares (Aleutas, Kurilas, Japão, Marianas, Filipinas, Salomão, Tonga, Kermadec) e da costa ocidental da América (Chile, Peru, América Central) explica-se por corresponderem a zonas de subducção da crosta oceânica, em que esta mergulha sob as placas litosféricas Americana, a leste, e Eurasiática e Indo-Australiana, a oeste. São áreas de intensa atividade sísmica e vulcânica, sujeitas à ocorrência de maremotos. Atol. O oceano Pacífico tem um número considerável de atóis, a maior concentração de todos os oceanos na Terra. Correntes oceânicas e Giro Pacífico Norte. Existem várias correntes oceânicas, por exemplo: Norte Pacífica, Califórnia, Norte ameno, Sul equatorial, Sul frio, Sul ameno Norte equatorial, Kuroshio, Aleutas, Sul Equatorial, Humboldt. As quatro primeiras limitam uma área de calmaria chamada Giro Pacífico Norte. Esta área foi descrita principalmente pelo pesquisador Charles Moore, desde 1997 e recebe nomes como "sopa gigante de lixo", "mancha de lixo" ou "ilha de lixo". Sua extensão é incerta, sendo descrita como do tamanho dos Estados Unidos, embora careça de fontes precisas. Foi descrita em fevereiro de 2008 no site da BBC e no jornal britânico "The Independent". É composta principalmente de plástico. História. Importantes migrações humanas ocorreram no Pacífico em épocas pré-históricas, nomeadamente as dos polinésios a partir da margem asiática do oceano para o Taiti e depois para o Havaí, a Nova Zelândia e a Ilha da Páscoa. O oceano foi avistado pelos europeus no início do século XVI, inicialmente pelo explorador espanhol Vasco Núñez de Balboa, que cruzou o istmo do Panamá em 1513 e nomeou-o como "Mar del Sur" ("Mar do Sul"), e depois pelo explorador português Fernão de Magalhães, que navegou o Pacífico durante a sua circum-navegação entre 1519 e 1522. Contudo, os portugueses já navegavam no Mar da China Meridional, que integra este oceano, desde 1511 e também no Mar de Banda desde 1512. Questões ambientais. A poluição marinha é um termo genérico para a entrada nociva no mar de produtos químicos ou partículas. Os maiores culpados são as pessoas que usam os rios para a eliminação de seus resíduos. Os rios em seguida deságuam no oceano e com eles seguem muitos produtos químicos usados como fertilizantes na agricultura. O excesso de oxigênio que se esvai nos produtos químicos na água leva à hipóxia (baixa concentração de oxigênio) e à criação de uma zona morta. Detritos marinhos, também conhecidos como lixo marinho, é um termo usado para descrever dejetos produzidos pelo homem que se encontram flutuando em um lago, mar, oceano ou outro curso d'água. Detritos oceânicos tendem a se acumular no centro de correntes oceânicas e no litoral, frequentemente restos encalhados onde são conhecidos como lixo da praia.
1399
Oceano Ártico
Oceano Ártico O oceano Ártico (AO 1945: oceano Árctico), localizado no Hemisfério Norte e em sua maioria na região polar ártica, é a menor, e mais rasa das cinco grandes divisões oceânicas do mundo. A Organização Hidrográfica Internacional (OHI) reconhece o oceano Ártico como um oceano, embora alguns oceanógrafos o chamem de mar Ártico Mediterrâneo ou simplesmente mar Ártico, classificando-o como um dos mares mediterrâneos do oceano Atlântico. Por outro lado, o oceano Ártico pode ser visto como o lobo norte do oceano Mundial. Quase completamente envolvida pela Eurásia e a América do Norte, o oceano Ártico é parcialmente coberto por gelo durante todo o ano (e quase completamente no inverno). A temperatura e a salinidade do oceano Ártico variam sazonalmente quando a cobertura de gelo derrete e congela; sua média de salinidade é a mais baixa em comparação aos cinco grandes oceanos, devido à baixa evaporação, fluxo pesado de água doce de rios e córregos, e conexão limitada com águas oceânicas de salinidade mais elevada. No verão o nível do gelo diminui em 50%. O National Snow and Ice Data Center (NSIDC) usa dados de satélite para fornecer um registro diário da cobertura de gelo do mar Ártico e a taxa de fusão, em comparação a um período médio nos últimos anos. Características. O oceano Ártico ocupa uma bacia aproximadamente circular e cobre uma área de cerca de , quase do tamanho da Rússia. O litoral tem comprimento de 45 390 km. É cercado pelas massas terrestres da Eurásia, América do Norte, Gronelândia, e por várias ilhas. É geralmente considerado como incluindo a baía de Baffin, o mar de Barents, o mar de Beaufort, o mar de Chukchi, o mar Siberiano Oriental, o mar da Gronelândia, a baía de Hudson, o estreito de Hudson, o mar de Kara, o mar de Laptev, o mar Branco e outros corpos de água tributários. Está ligado ao oceano Pacífico pelo estreito de Bering e para o oceano Atlântico através do mar da Groenlândia e do mar do Labrador. A borda do oceano Glacial Ártico está repartida entre diversos mares secundários, separados por arquipélagos costeiros; da Escandinávia à Rússia e à América do Norte sucedem-se: o mar de Barents, o mar de Kara, o mar de Laptev, o mar da Sibéria Oriental, o mar de Chukchi, o mar de Beaufort e o mar de Lincoln, ao norte da América. Limitado por soleira de pequena profundidade, o oceano glacial Ártico realiza pouquíssimas trocas com as águas dos outros oceanos. Sob a banquisa, a massa de água fria (0 °C) é pouco salgada (menos de 30). A banquisa, cuja superfície caótica se deve aos movimentos que a animam, tem uma espessura de dois a quatro metros; é afetada por um abatimento, da ilha de Wrangel até o Polo Norte e o arquipélago de Svalbard. Os limites da banquisa, variáveis de acordo com as estações, permitem, no verão, uma certa circulação marítima do mar de Barents ao cabo Tcheliuskin, a outras costas estão cercadas de perto pelos gelos. Paralelo 85 N. O paralelo 85 N é um paralelo no 85° grau a norte do plano equatorial terrestre, o qual marca o centro do oceano Ártico. Dimensões. Conforme o sistema geodésico WGS 84, no nível de latitude 85° N, um grau de longitude equivale a 9,74 km; a extensão total do paralelo 85° é portanto 3 505 km, cerca de 8,5% da extensão do Equador, da qual esse paralelo dista , distando do Polo Norte Cruzamentos. Assim como todos os paralelos ao norte da latitude 83°40' N que passam por Kaffeklubben (extremo norte da Gronelândia), o "Paralelo 85 N" e passa totalmente sobre o oceano Ártico e suas plataformas de gelo, sem cruzar terra firme. Clima. O oceano está situado na zona de clima polar, em que as temperaturas mínimas podem descer abaixo de -50 °C, existindo frio permanente e pouca variabilidade sazonal. Os invernos são caracterizados por escuridão contínua e condições estáveis com céu limpo; os verões pelo Sol da meia-noite, céu nublado e ciclones com neve ou chuva, embora de fraca intensidade. A temperatura da superfície do oceano Ártico é praticamente constante, próxima do ponto de congelação da água do mar, pouco superior a 0 °C. No inverno o mar exerce uma influência moderadora, mesmo que coberto por gelo (na forma de banquisa), pelo que no Ártico nunca se verificam os extremos de temperatura que ocorrem na Antártida. Geografia. A Geografia desse oceano é de extrema solidão, com numerosos icebergs, que são água congelada à deriva e que não são como a Antártida ou a Groenlândia que são gelo de terra firme. Tal como na Antártida, a noite é bem escura e fria, e chega aos -75 °C. Ocorre o fenômeno de aurora polar (aurora boreal no norte e aurora austral no sul). Ambiente. Cheio de gelo e neve, só algumas algas, líquenes, briófitas e fungos sobrevivem. Entre os animais encontram-se o urso-polar, focas, leões-marinhos, raposas-do-ártico, lebre-ártica, krill e alguns peixes e baleias. Degelo. O degelo do Ártico é principalmente causado pelo efeito de estufa (ou efeito estufa) e o aquecimento global, que juntos provocam o descongelamento rápido de vastas reservas de água doce. Em setembro de 2007 é registado, pelo satélite ENVISAT, o maior degelo do oceano Ártico, abrindo à navegação a passagem do Noroeste. Fitoplâncton. Em 2012, cientistas do Laboratório de Pesquisa e Engenharia de Regiões Frias (CRREL) publicaram resultados que descrevem a descoberta da maior eflorescência algal de fitoplâncton conhecida no mundo. Os resultados foram inesperados, já que até então se acreditava que o plâncton crescia apenas após o derretimento sazonal do gelo, no entanto foram descobertas algumas algas sob vários metros de gelo marinho intacto. Embora o impacto ecológico da proliferação do fitoplâncton debaixo do gelo marinho e na fixação de carbono no oceano Árctico seja potencialmente acentuado, a prevalência destes acontecimentos no Ártico moderno e no passado recente era, até então, desconhecida. Os investigadores inicialmente calculavam que a causa para o gelo marinho do Árctico estar a tornar-se progressivamente mais verde, estava relacionada com as plantas marinhas microscópicas, o fitoplâncton, que cresciam sob o gelo. Mas isso não fazia sentido – o fitoplâncton precisa de luz para a fotossíntese, e o Ártico é supostamente escuro demais para que este sobreviva. Entretanto uma equipa internacional de investigadores solucionou o enigma. Este tom esverdeado tem a ver com o recorde de baixos níveis de gelo marinho na região. A fina camada que agora existe já não barra a luz solar e esta já não é reflectida, sendo absorvida pelos lagos de gelo derretido. Os resultados do modelo determinado pela equipa da investigação levada a cabo no mar de Chukchi indicam que o recente desbaste do gelo marinho do Árctico é a principal causa do acentuado aumento na prevalência de condições de luz propícias à floração de algas sob o gelo. Há apenas cerca de 20 anos poderia ser incomum a existência das condições necessárias para o florescimento algal sob o gelo, mas actualmente os índices de prevalência aumentaram a um nível tal que quase 30% do oceano Árctico coberto de gelo no mês de julho permite que florescimento das algas sob o gelo ocorra. As mais recentes alterações climáticas podem ter alterado significativamente a ecologia da Região Árctica.
1400
Oceano Índico
Oceano Índico O oceano Índico é a terceira maior divisão oceânica do mundo, cobrindo aproximadamente 20% da água da superfície da Terra. É limitada pela Ásia, incluindo a Índia, em que o oceano é chamado, no norte, a oeste pela África, a leste pela Austrália, e ao sul pelo oceano Antártico (ou, dependendo da definição, por parte da Antártida). Como um componente do oceano global, o oceano Índico é delineado a partir do oceano Atlântico pelo meridiano 20° leste correndo para o sul de cabo das Agulhas, e do oceano Pacífico pelo meridiano de 146° 55' leste. A extensão norte do oceano Índico é de aproximadamente 30° ao norte do golfo Pérsico. O oceano tem quase km de largura entre as pontas do sul da África e da Austrália e sua área é de km² ( mi²), incluindo o mar Vermelho e o golfo Pérsico. O volume do oceano é estimado em km³ ( mi³). As pequenas ilhas pontilham as bordas continentais. As nações insulares no oceano são Madagáscar (a quarta maior ilha do mundo), Comores, Seychelles, Maldivas, Maurícia e Sri Lanka. O arquipélago da Indonésia faz fronteira com o oceano, a leste. Geografia. O oceano Índico, que se distingue por suas dimensões relativamente reduzidas em comparação com as do oceano Pacífico ou do oceano Atlântico, estende-se em sua maior parte em hemisfério Austral e é fechado ao norte pela Ásia. Largamente aberto ao sul, sob influência da monção asiática, tem a forma de um triângulo, cujas linhas medianas são formadas por dorsais oceânicas, dispostas em Y invertido. A sua profundidade média é de metros e a máxima, de metros (fossa de Java). Clima. A dinâmica das águas do oceano Índico é mais complexa que nos outros oceanos. O sistema austral (ao S de 10º de latitude S) é caracterizado pela distribuição regularmente zonal dos ventos, das temperaturas (do ar e da água), da salinidade e das correntes superficiais. O sistema de monções ocupa a porção norte do Índico. Seu motor é a inversão sazonal dos ventos de monção. No inverno, os alísios sopram do NE em direção à zona de convergência intertropical, criando uma circulação superficial comparável à dos outros oceanos. No verão, os ventos quentes e úmidos e instáveis (ciclones), atraídos pelas baixas pressões asiáticas, provocam um reaquecimento e uma dessalinização parcial das águas, bem como uma aceleração das correntes que se dirigem predominantemente para leste (corrente da monção de sudoeste). O oceano Índico distingue-se pela fraca produtividade das águas de superfície, privadas de trocas verticais revitalizantes. A temperatura elevada das águas favorece o desenvolvimento de arrecifes e de plataformas coralíneas, semeadas de atóis (Maldivas, Chagos, Laquedivas, Andamão, Seychelles, Comores). Na desembocadura dos grandes deltas, as águas ricas em material em suspensão mantêm uma produtividade regional elevada. Limites. Para a ONU, o oceano Índico engloba o canal de Moçambique, o mar Vermelho, o golfo Pérsico, o mar da Arábia, o golfo de Bengala, o mar das Ilhas Andamão e a Grande Baía Australiana; ao sul, seu limite é o paralelo 60, entre os meridianos do cabo das Agulhas (África do Sul) e da Tasmânia (Austrália). Trinta e seis países litorâneos fornecem acesso marítimo a outros onze países sem saída para o mar. O "oceano Índico" e seus mares banham todos os países litorâneos do leste e do nordeste da África, as nações do litoral sul da Ásia desde a Península Arábica até o oeste do Sudeste Asiático, a Indonésia, mais o noroeste, oeste e sul da Austrália. Recursos. Os recursos desse oceano são o petróleo e minérios como a platina, o manganês, o vanádio e o crômio, só encontrados na África Austral e na antiga URSS. Em razão dessa enorme riqueza, o oceano Índico tornou-se alvo de grande interesse para os países ocidentais industrializados e o Japão, preocupados especialmente com a extração e o transporte da matéria-prima. A riqueza do oceano Índico era desconhecida na época da guerra fria, tanto é que o alvo a ser protegido, pelo lado norte-americano, era apenas o acesso ao golfo Pérsico. Nem os Estados Unidos nem a antiga URSS julgaram necessário criar uma frota no oceano Índico, satisfazendo-se em enviar destacamentos navais de importância questionável, apenas para assegurar bases e ancoragens. Mais tarde os EUA acabaram por criar uma forte intervenção no Oriente Médio: o "Central Command" (Comando Central). Política. O que os EUA e a antiga URSS não deixaram fazer foi tomar partido em todos os conflitos locais em torno desse oceano: África Austral, Oriente Próximo, golfo Pérsico, Afeganistão, Ásia Meridional, Indochina. Atribuindo esses conflitos às presenças navais estrangeiras, os países litorâneos por sua vez adotaram em uma Assembleia Geral das Nações Unidas a resolução "oceano Índico, zona de paz", de 16 de dezembro de 1971, que "sugeria às grandes potências a eliminação de bases, navios de guerra e aviões militares no oceano". A Índia, que se instituiu como porta-voz dos países litorâneos, teria consequentemente o controle efetivo do norte oceano Índico - das rotas marítimas, portanto - graças à sua Marinha que, com 110 mil toneladas, é a sexta do mundo e a mais poderosa da região. História. As primeiras civilizações do mundo, na Mesopotâmia, começando com a Suméria, o Antigo Egito e o subcontinente indiano (a partir da Civilização do Vale do Indo), que apareceram ao longo dos vales dos rios Tigre-Eufrates, Nilo e Indo respectivamente, se desenvolveram todas em torno do oceano Índico. Outras civilizações logo surgiram, na Pérsia (Elam), e posteriormente no sudeste da Ásia (Funan). Durante a I dinastia egípcia (cerca de 3000 a.C.), navegadores exploraram as suas águas, empreendendo jornadas até Punt, que se presume fosse localizado na atual Somália. Os navios retornavam com mercadorias valiosas, como ouro e mirra. A primeira ligação comercial marítima entre a Mesopotâmia e o vale do Indo, em aproximadamente 2500 a.C., ocorreu pelo oceano Índico. Os fenícios do final do terceiro milênio a.C. provavelmente estiveram nas terras banhadas pelo oceano, embora não tenham se assentado nelas. O oceano Índico é muito mais calmo, e, portanto, mais adequado para o comércio do que os oceanos Atlântico e Pacífico. As fortíssimas monções faziam com que os navios pudessem velejar facilmente para o oeste na estação favorável, e, após alguns meses, fazer o caminho de volta; o que permitiu, por exemplo, que os povos indonésios cruzassem o oceano Índico para se estabelecer em Madagascar. No segundo ou primeiro século a.C., Eudóxio de Cízico foi o primeiro grego a cruzar o oceano Índico. O navegador Hipalo também teria descoberto a rota direta da Arábia para a Índia nesta época. Durante o primeiro e segundo séculos d.C. intensas relações comerciais se desenvolveram entre o Egito romano e os reinos tâmeis de Chera, Chola e Pandya, no sul da Índia. Como os povos indonésios citados acima, os navegadores ocidentais utilizavam-se das monções para atravessar o oceano. O autor desconhecido do "Périplo do Mar Eritreu" descreveu esta rota, os portos e as mercadorias encontradas ao longo das costas da África e da Índia em cerca de 70 d.C.. De 1405 a 1433, o almirante chinês Zheng He liderou grandes frotas da dinastia Ming em inúmeras viagens ao "oceano Ocidental" (nome chinês para o oceano Índico), chegando até os países costeiros do leste da África. Em 1497, Vasco da Gama dobrou o cabo da Boa Esperança, tornando-se o primeiro europeu a navegar até a Índia nos tempos modernos. Os navios europeus, armados com canhões pesados, rapidamente dominaram o comércio da região. Em um primeiro momento Portugal atingiu a preeminência na região, ao construir fortes nos estreitos e portos mais importantes; porém a nação não conseguiu bancar um projeto tão vasto, e perdeu seu lugar na metade do século XVII para outras potências europeias. A Companhia Holandesa das Índias Orientais (1602-1798) procurou controlar o comércio com o Oriente através do oceano Índico, e a França e a Inglaterra estabeleceram companhias comerciais na região. Eventualmente a Grã-Bretanha tornou-se a principal potência e em 1815 já havia dominado completamente a área. A abertura do canal de Suez em 1869 reavivou os interesses europeus no Oriente, porém nenhuma nação conseguiu estabelecer com sucesso algum domínio no comércio da região. Depois da Segunda Guerra Mundial os ingleses se retiraram, e foram substituídos parcialmente pela Índia, União Soviética e Estados Unidos. Durante a Guerra Fria, os Estados Unidos e a União Soviética tentaram estabelecer uma hegemonia na região, através da obtenção de bases navais. Dentre elas, destaca-se sobretudo a da ilha de Diego Garcia, que até hoje ainda é uma estratégica posição militar britânico-estadunidense localizada no Território Britânico do Oceano Índico, na região central do oceano. Em 26 de dezembro de 2004 diversos países ao redor do oceano Índico foram atingidos por um tsunami causado por um terremoto. As ondas gigantes foram responsáveis pela morte de mais de 226 mil pessoas e cerca de um milhão de desabrigados. Países e territórios banhados pelo oceano. O oceano Índico banha os seguintes países e territórios (em itálico):
1401
Oceano Antártico
Oceano Antártico O oceano Antártico, também chamado oceano Austral, oceano glacial Antártico ou oceano Circumpolar Antártico, é o conjunto das águas que banham o Continente Antártico, mas que na realidade constituem o prolongamento meridional do oceano Atlântico, oceano Pacífico e oceano Índico. Muitos cientistas, oceanógrafos e geógrafos, não reconhecem a existência do oceano Antártico, considerando-o como uma junção de partes dos outros oceanos. Em 2021, porém, a National Geographic Society reconheceu-o como Oceano. O oceano Antártico se estende desde a costa antártica até à latitude de os 60° S; limite convencional com o Oceano Atlântico, o Oceano Pacífico e o Oceano Índico. É o penúltimo oceano em extensão (só o oceano Ártico é menor). Formalmente, a sua extensão foi definida pela Organização Hidrográfica Internacional no ano 2000 e coincide com os limites fixados pelo tratado Antártico. O Oceano Antártico é o único a rodear o globo de forma completa, e circunda completamente a Antártida. Tem uma superfície de 20 327 000 km², uma cifra que compreende os mares periféricos: o mar de Amundsen, o mar de Bellingshausen, parte da passagem de Drake, o mar de Ross e o mar de Weddell. A terra firme que borda o oceano tem 17 968 km de costa. Existência e definições. Juridicamente, pelo tratado da Antártica, assinado dia 1 de janeiro de 1956, o oceano Antártico e o continente Antártico seriam de responsabilidade dos seguintes países, para usos pacíficos e científicos; Chile, Argentina, Austrália, Bélgica, Estados Unidos, Brasil, França, Japão, Noruega, Nova Zelândia, Reino Unido, África do Sul e Rússia (como herdeira da União Soviética). Diferentes organizações e países têm pontos de vista diferentes a respeito da existência e extensão do oceano Antártico, ainda que sua existência é tradicionalmente aceita em círculos marinheiros. A 1.ª e a 2.ª edições (em 1937) de "Limits of Oceans and Seas", publicação da Organização Hidrográfica Internacional (OHI), incluíam uma definição de um oceano ao redor da Antártida. Entretanto, este oceano não apareceu na 3° edição (em 1953) devido à dificuldade para acordar sobre seu limite norte, sendo prolongados os oceanos Atlântico, índico e Pacífico até a Antártida. No projeto da 4.ª edição foram consultados em 1972 os países membros da OHI. Até 1976 haviam respondido 32 países expressando a maioria sua preferência pelo nome "Antarctic Ocean". Somente Austrália, Nova Zelândia e Reino Unido se pronunciaram a favor do nome "Southern Ocean" e o Chile preferiu "Antarctic Glacial Ocean". O Brasil e os Estados Unidos se opuseram à definição de um novo oceano. Sobre o limite norte existiram divergências com projetos apresentados pelo Reino Unido, Austrália, Nova Zelândia, Noruega e por vários países que propuseram a linha da convergência antártica. Em 1986 foi decidido não incluir o oceano Antártico no projeto da 4° edição, que foi reprovado em 1998. Um novo projeto foi posto em consideração aos 68 países membros da OHI, sendo que até 1999 28 responderam favoravelmente à definição de um novo oceano rodeando a Antártida e a Argentina respondeu negativamente. 18 países aceitaram que o nome em inglês do novo oceano fosse "Southern Ocean", enquanto que o restante preferiu "Antarctic Ocean". Com relação ao limite norte, 14 votos foram para que fosse o paralelo 60° Sul, 7 para que fosse o paralelo 50° Sul, 5 aceitaram a proposta australiana e 3 prefeririam o paralelo 35° Sul. O rascunho do projeto da 4° edição de "Limits of ocean and seas" foi relatado mediante a circular CL55 de 7 de novembro de 2001. O projeto final foi relatado mediante a circular C30 de 9 de agosto de 2002, mas foi logo retirado, o que foi definido pela circular C30 de 9 de agosto de 2002. Consequentemente, o definido em 1953 pela OHI continua em vigor até que o projeto da 4° edição seja ratificado pelos estados membros. Clima. A temperatura do mar varia de +10 °C a -2 °C. Tempestades ciclónicas se movem do leste girando ao redor do continente antártico e são frequentemente de forte intensidade, e são a causa da diferença de temperatura entre os gelos e o oceano aberto. A superfície oceânica está entre os 40° de latitude sul e a Corrente Circumpolar Antártica que tem os ventos mais fortes do planeta. No inverno o oceano se estende até os 65° S em direção ao Pacífico e até os 55° S em direção ao Atlântico, deixando a temperatura superficial abaixo de zero. Em algumas costas, os fortes e constantes ventos provenientes do interior mantém a costa livre de gelo também no inverno. A camada que se forma ao redor do continente antártico, é de aproximadamente 1 m de profundidade, possui pelo menos 2,6 milhões de km² em março e chega ao máximo de 18,8 milhões de km² em setembro, um aumento de mais de sete vezes. A Corrente Circumpolar Antártica, de  km de largura, se move eternamente para leste. É a maior corrente oceânica do mundo, e transporta 130 milhões de m³/s, 100 vezes mais que todos os rios da Terra juntos. As ondas podem ser muito altas. Os icebergs antárticos podem possuir dimensões imponentes, estendendo-se por quilômetros e constituem um perigo para a navegação. O ponto mais profundo do oceano se encontra no extremo meridional da Fossa Sandwich do Sul e alcança 7 235 m de profundidade. Plataforma de gelo. Os glaciares e mantos de gelo antárticos que se estenderam e flutuam sobre a superfície do oceano formam um amplo sistema de plataformas de gelo. Pedaços dessas plataformas que estão ligadas aos glaciares em terra firme se rompem e formam campos de gelo e icebergues (ou "iceberg"). Devido ao aquecimento global algumas dessas grandes plataformas estão derretendo, contribuindo para o aumento do nível do mar. Fundo oceânico. O Oceano Antártico, com uma profundidade geralmente compreendida entre os 4 000 e 5 000 metros, é um oceano profundo com poucas zonas estreitas de águas pouco profundas. A plataforma continental antártica é estreita e relativamente profunda em relação às outras: dos 400 aos 800 metros, contra uma média mundial de 133 metros. Recursos naturais. Os recursos naturais do Oceano Antártico ainda não têm sido explorados, mas existem grandes jazidas de petróleo e gás natural nas proximidades do continente antártico. Biodiversidade. O Oceano Antártico tem uma biodiversidade imensa e ainda muito pouco explorada. Sua fauna varia de pinguins, pinípedes e cetáceos, até cianobactérias, fitoplâncton e krill, que apesar de pequenos servem de alimento para os animais maiores. A Antártida não tem flora terrestre, sendo a sua única composição vegetal feita por algas marinhas e outros organismos autótrofos. Portos. Dentre os principais portos operacionais estão a Base Rothera, a Base Palmer, a Villa Las Estrellas, a Base Esperanza, a Base Mawson, a Estação McMurdo, e os ancoradouros no mar na Antártida. Poucos portos existem na costa sul (Antártida) do Oceano Antártico, uma vez que as condições do gelo restringem o uso da maioria das praias para curtos períodos, em pleno verão. E mesmo no verão alguns requerem escolta de navios quebra-gelo para o acesso. A maioria dos portos da Antártida são operados por estações de pesquisa governamentais e, exceto em caso de emergência, permanecem fechados aos navios comerciais ou particulares; navios em qualquer porto ao sul de 60 graus de latitude sul estão sujeitas a inspeção por observadores do Tratado da Antártida. O porto mais ao sul do Oceano Glacial Antártico opera na Estação McMurdo na coordenada . A angra (pequena baía) Winter Quarters Bay forma um pequeno porto, na ponta sul da Ilha de Ross, onde um píer sobre o gelo flutuante faz operações portuárias possíveis no verão. Os integrantes da Operação Deep Freeze construíram o primeiro píer sobre o gelo em McMurdo em 1973.
1402
Ostrogodos
Ostrogodos Os ostrogodos eram um ramo dos godos, povo germânico que, segundo Jordanes, surgiu na região meridional da Escandinávia. Esse povo originalmente era um povo unificado mas acabou por dividir-se em dois ramos: visigodos (que significa "godos do oeste") e ostrogodos (que significa "godos do leste"). Nenhuma outra fonte primária menciona esta longa migração, que poderia ter-se iniciado no Báltico ou no mar Negro e é possível que os godos tenham se desenvolvido como um povo distinto dos demais bárbaros nas fronteiras do Império Romano. Os godos, segundo Jordanes, se distinguiam por usarem escudos redondos e espadas curtas e obedecerem fielmente a seus reis. A única fonte da história inicial dos godos é a "Gética" de Jordanes (publicada em 551), um resumo de "Libri XII De Rebus Gestis Gothorum", história escrita por Cassiodoro, em doze volumes, por volta de 530. A obra de Cassiodoro perdeu-se e Jordanes nem mesmo deve tê-la em mãos para consulta, portanto esta fonte primária deveria ser considerada com cuidado. Cassiodoro estava no lugar certo para escrever sobre os godos, por ser ele um dos principais ministros de , que certamente havia ouvido algumas das canções góticas que falavam de suas origens tradicionais. História. Origens. Os ostrogodos surgiram nas fronteiras do Império Romano a partir das invasões hunas na região do mar Negro. Até então visigodos e ostrogodos não haviam se dividido e estavam sob o poder do rei Hermenerico. Com as primeiras invasões hunas o rei se suicidou e outros dois reis surgiram para sucedê-lo: Vitimiro (governou os ostrogodos) e Fritigerno (governou os visigodos). Vitimiro foi eleito em um momento em que o povo ostrogodo vivia em situação muito precária, tendo de suportar diversas derrotas frente aos hunos. Em 376, os ostrogodos sofreram uma derrota terrível, na qual morreu o próprio Vitimiro. Como o filho de Vitimiro, Viderico, era uma criança, os generais Alateu e Safrax assumiram a regência até que ele completasse 21 anos. Após a derrota em mãos hunas, os ostrogodos dirigidos por Safrax e Alateu se dirigiram junto com os visigodos até o Dniestre, e mais adiante em direção ao Danúbio e ao Império Romano, porém outro grupo importante foi submetido pelos hunos. Alateu e Safrax aderiram à revolta de Fritigerno e com ele participaram da Batalha de Adrianópolis em 378. Após esse período a única coisa que sabe sobre os três é que foram instalados junto com seu povo pelo imperador Graciano na Panônia. Até o ano de 453, as únicas referências aos ostrogodos são as informações das ajudas militares destes ao Império Huno, principalmente na Batalha dos Campos Cataláunicos (451). Em 453, com a morte de Átila, os godos Valamiro, Videmiro e Teodomiro começaram uma revolta contra os hunos que acabaria causando em 454, com a Batalha de Nedau, a libertação do povo ostrogodo das mãos hunas. Em 454 os ostrogodos libertos foram junto dos três revoltosos para a Panônia onde formaram um reino ostrogodo. Esta região como já mencionado já estava sendo habitada pelos godos que fugiram dos hunos anos antes. Valamiro, Videmiro e Teodomiro tornaram-se reis dos godos compartilhando o poder e o título. Uma disputa relativa a certos impostos anuais levou Valamiro a dirigir um exército de ostrogodos contra Constantinopla (459 – 462), onde o imperador bizantino prometeu um pagamento anual de ouro para satisfazê-lo. Durante um ataque contra os citas, Valamiro caiu de um cavalo e morreu (465). Após a guerra contra hérulos, gépidas e citas pelo controle da Panônia, Videmiro se dirigiu com uma porção de ostrogodos até a Itália, em 473. Ali, o imperador Glicério os aconselhou a dirigir-se a Gália junto com seus parentes visigodos. Desde então, Teodomiro, que era o maior dos irmãos, ficou como único rei dos ostrogodos da Panônia. Casou-se com Erelieva, com que teve dois filhos: e Amalafrida. Quando Teodomiro morreu em 474, seu filho Teodorico o sucedeu como rei. Reino dos ostrogodos na Itália. Não muito depois de Teodorico se tornar rei, ele e Zenão concluíram um acordo que beneficiava os dois lados. Os ostrogodos precisavam de um lugar para viver, e Zenão estava tendo sérios problemas com Odoacro, rei dos hérulos, que tinha causado a queda do Império Romano do Ocidente em 476. Ainda que formalmente fosse um vice-rei do imperador Zenão, Odoacro estava ameaçando territórios bizantinos e não respeitava os direitos dos cidadãos romanos na Itália. Com o encorajamento de Zenão, Teodorico invadiu o reino de Odoacro. Teodorico chegou com seu exército à península Itálica em 488, onde venceu a Batalha de Isonzo (489), a Batalha de Milão (489) e a de Adda, em 490. Neste mesmo ano Ravena foi assediada. O cerco durou três anos e foi marcado por dezenas de ataques de ambos os lados. No final, nenhum dos lados pode prevalecer de forma conclusiva, e assim em 2 de fevereiro de 493, Teodorico e Odoacro assinaram um acordo que garantiu a supremacia de ambos. Um banquete foi organizado para celebrar o tratado. Foi nesse banquete que Teodorico matou Odoacro com as próprias mãos. Como Odoacro, Teodorico era formalmente apenas um vice-rei para o imperador romano em Constantinopla. Na realidade, ele agia com independência, e o relacionamento entre o imperador e Teodorico era de iguais. Contudo, diferentemente de Odoacro, Teodorico respeitava o acordo que tinha feito e permitia que os cidadãos romanos dentro do seu reino fossem submetidos à lei romana e ao sistema judicial romano. Os ostrogodos, por enquanto, viviam sob suas leis e costumes. Teodorico foi um governante hábil, que soube conservar o equilíbrio entre as instituições imperiais e as tradições bárbaras. Homem culto, educado na corte de Constantinopla, capital do Império Romano do Oriente, conseguiu ganhar a simpatia da aristocracia romana, cujos privilégios anteriores respeitou, e do povo, que assistia satisfeito à realização de obras públicas para a reconstrução e modernização de Roma. Ao que parece, Teodorico alimentava o projeto de fundar um império godo que impusesse seu domínio sobre o resto do mundo bárbaro. Para isso, manteve contato com outras tribos godas e estabeleceu vínculos familiares com os francos, os vândalos e os burgúndios. Após sua morte em Ravena, em 526, Teodorico foi sucedido pelo seu neto Atalarico. Atalarico foi inicialmente representado por sua mãe, Amalasunta, que atuou como rainha regente de 526 a 534. Não suportando a regência de uma mulher, a educação romana ministrada ao rapaz, o tratamento obsequioso de Amalasunta em relação a Bizâncio, nem tampouco seu espírito conciliador com os romanos, a nobreza gótica decide tirar-lhe o filho e educá-lo segundo os costumes de seu povo. O jovem, no entanto, não resistiu a isso e morreu em 534. Amalasunta, que queria manter o poder, desposou Teodato, um dos chefes do partido nacional. Teodato exilou a esposa no lago de Bolsena e ordenou sua morte em 535. O assassinato de Amalasunta foi usado pelo imperador bizantino Justiniano I para não reconhecer a legitimidade do reinado de Teodato e invadir a Itália. A "reconquista" da Itália pelo Império Bizantino levaria quase duas décadas e seria mais destruidora que as invasões bárbaras dos dois séculos anteriores. Esse período foi denominado de Guerra Gótica. A ação bélica iniciou-se com a invasão do sul da Itália. Depois que Belisário, general do Império Romano do Oriente, conquistou Nápoles em 536, Teodato foi entregue ao seu povo godo, que elegeu Vitige como seu sucessor. O novo rei ordenou a morte de seu antecessor. Em 535, o exército bizantino de Justiniano I tinha conquistado a Sicília sob o comando do general bizantino Belisário que naquele momento estava no sul da península Itálica. Vitige reorganizou o exército e em 537 assediou Roma fazendo cortar todos os aquedutos que levavam água à cidade. Em março de 538, foi obrigado a interromper o assédio para retomar as operações militares no norte da Itália onde o general João estava rapidamente aproximando-se de Ravena. Em 540, Belisário atacou Ravena, a capital dos ostrogodos. Vitige foi feito prisioneiro e levado a Constantinopla onde morreu sem herdeiros. Seu sucessor foi Ildibaldo, elegido pelo povo. Ildibaldo reinou somente um ano antes de ser morto por um gépida num banquete no palácio. Ildibaldo era um visigodo, sobrinho de um dos reis visigodos da Espanha. Seu sucessor foi Erarico. Erarico, um rúgio, foi eleito rei dos ostrogodos em junho de 541, depois do assassinato de Ildibaldo. Os godos, porém, cansados e irritados com sua inaptidão e acreditando que ele tivesse feito acordos secretos com os bizantinos, ofereceram a coroa ao sobrinho de Ildibaldo, Tótila. Depois de cinco meses de reinado, Erarico foi eliminado por uma conspiração. O seu objetivo foi a de contrapor-se à política do imperador bizantino Justiniano I, que visava à posse da Itália. Tótila teve inicialmente muito sucesso, aproveitando-se do fato que as tropas de Justiniano I no Império Romano do Oriente estavam empenhadas desde 540 em uma guerra contra os sassânidas da Pérsia. Conseguiu notáveis sucessos no campo de batalha assediando e saqueando Alatri em 543, recrutou camponeses para reforçar o exército, e conseguiu conquistar a cidade de Roma por duas vezes (ao fim de 546 e ao início de 550), embora não conseguisse mantê-la por muito tempo. A primeira vez Tótila assediou Roma em 544. Em 17 de dezembro de 546 os guardiões se depararam com o exército ostrogodo e abriram as portas da cidade, consentindo com a invasão. Roma foi depredada e os seus muros destruídos, enquanto os seus habitantes foram perseguidos. Na primavera de 547, Belisário conseguiu libertá-la, e um segundo assédio de Tótila em maio do mesmo ano não teve sucesso. No outono de 549, Tótila assediou Roma pela terceira vez, e conseguiu conquistá-la graças a uma nova traição dos guardiões que abriram as portas ao seu exército. A cidade teve poucos sobreviventes e o senado romano se transferiu quase completamente a Bizâncio. Depois da segunda conquista de Roma, Tótila fez uma campanha de propaganda, na qual pôs em confronto o estilo de vida dos ostrogodos no tempo de , com os anos de sofrimento, da guerra e da política fiscal de Justiniano I. Teve menos sucesso com a política exterior, uma vez que não conseguiu fazer aliança com os francos. Em 551, Justiniano I entregou o comando do exército bizantino ao general Narses, e o mandou a libertar a Itália: as suas tropas entraram na Itália do norte através dos Bálcãs, evitando as linhas defensivas góticas. Tótila então abandonou Roma, levando consigo 300 jovens reféns escolhidos entre as famílias mais importantes da cidade. Em 30 de junho ou 1 de julho de 552, o exército ostrogodo foi derrotado na Úmbria sob as flechas dos arqueiros do exército de Narses, na Batalha de Tagina. Tótila morreu em batalha ou durante a fuga, e os ostrogodos se reuniram sob o seu último rei na Itália, Teia. No seu caminho ao sul da Itália, conseguiu apoio de proeminentes figuras no exército de Tótila para fazer seu último ataque contra o general bizantino Narses na Batalha de Monte Lactário, ao sul de Nápoles, em outubro de 552 ou início de 553. O exército ostrogodo foi derrotado novamente. Teia foi morto. Os sobreviventes se dispersaram ou foram reduzidos à escravidão. Com esta derrota, a resistência organizada dos ostrogodos terminou. Embora o último nobre ostrogodo, Widin, tenha se revoltado ao norte da Itália, sendo capturado em 561 ou 562, os ostrogodos caíram na obscuridade.
1403
Antiga e Mística Ordem Rosae Crucis
Antiga e Mística Ordem Rosae Crucis A Antiga e Mística Ordem Rosacruz (A.M.O.R.C.) é uma organização internacional de caráter místico-filosófico que tem por missão despertar o potencial interior do ser humano, auxiliando-o em seu desenvolvimento, em espírito de fraternidade, respeitando a liberdade individual, dentro da Tradição e da Cultura Rosacruz. Fundada nos EUA, em 1915, por Harvey Spencer Lewis, ela também é conhecida por seu nome em Latim, Antiquus Mysticusque Ordo Rosæ Crucis. A AMORC é possivelmente a maior fraternidade rosacruz existente, em função de sua rede de Grandes Lojas ter representações em todos os continentes do planeta. O rosacrucianismo, escola do Esoterismo Ocidental, praticado pela AMORC foi restabelecido no começo do século vinte (1915) nos EUA, por Harvey Spencer Lewis, que assumiu a responsabilidade de reativar a Ordem Rosacruz na América do Norte. Sob sua orientação foi construído o Parque Rosacruz em San José, Califórnia. Seu filho e sucessor, Ralph M. Lewis, foi o responsável pelo florescimento da AMORC no mundo inteiro. Origem Tradicional. A AMORC reconhece que suas origens tradicionais remontariam às antigas escolas de mistérios, ou "casas de vida", egípcias, cujo fundador teria sido o faraó Tutmés III, da XVIII dinastia. Este faraó teria fundado uma fraternidade secreta, com o objetivo de estudar os mistérios da vida, aspectos mais profundos (esotéricos) não revelados pela religião de sua época, centrada mais em crendices (aspectos exotéricos). Seu primeiro líder - "imperato"r - entretanto teria sido Amenófis IV, conhecido também como Aquenáton. e se deu por volta de 1353 a.C. (ano que inicia o cômputo do calendário Rosacruz), momento em que o Cósmico determinou que o conhecimento viesse à tona para aqueles que buscavam a luz. A origem dos conhecimentos preconizados pela Ordem, todavia, a tradição esotérica dessa sociedade diz que são ainda anteriores e remontam à Tradição Primordial herdada dos Atlantes. Os Essênios foram uma das três principais escolas Israelitas do primeiro século e, na perspectiva da AMORC, Jesus teria sido membro do grupo do norte, que se concentrava ao redor do Monte Carmelo. Os essênios eram também conhecidos como nazarenos, e Nazaré era um de seus redutos, ainda que deve-se notar que o termo era anterior ao nome do lugar. Os membros da escola vestiam-se de branco e seguiam uma dieta vegetariana, como a ordem monástica cristã dos Carmelitas, conhecidos também como Monges Brancos, devido a sua túnica branca, e é interessante notar que membros atuais dessa ordem afirmam abertamente que Jesus era essênio e foi criado no Monte Carmelo, ainda que as escrituras essênicas sejam excluídas da Bíblia promulgada geralmente pela Igreja. Desta forma, os conhecimentos essênios também foram incorporados pela tradição rosacruz da AMORC. Origem Histórica. Segundo Rebisse (2004) , o rosacrucianismo histórico remonta ao século XVII, com o mito de Christian Rosenkreutz, fomentado por um círculo de intelectuais alemães (Círculo de Tübingen) para confrontar o fundamentalismo religioso da época. A estratégia utilizada para fomentar o debate foi a publicação anônima de três "Manifestos" que tornam pública a existência da fraternidade questionando o reducionismo próprio da época. Origem Contemporânea. AMORC foi fundada por Harvey Spencer Lewis em 1915 após sua iniciação, em 1909, em Toulouse, na Ordre Rose-Croix, por Raynaud E. de Bellcastle-Ligne. Assim, a partir dessa iniciação, foi-lhe outorgado o direito para fundar uma Ordem Rosacruz nas Américas. As atividades tiveram início na cidade de Nova Iorque, tendo lojas em São Francisco e Tampa, no estado da Flórida. A sede da Suprema Grande loja foi deslocada em 1927 para San José, na Califórnia. A grande inovação no rosacrucianismo da AMORC foi o envio dos ensinamentos tradicionais por correspondência. Harvey Spencer Lewis morreu em 1939, ocupando o cargo de imperator por 25 anos. Foi sucedido por seu filho, Ralph Maxwell Lewis, que ocupou a posição de 1939 a 1987, portanto por 48 anos, sendo responsável pela expansão mundial da Ordem. Seu sucessor foi Gary L. Stewart, ocupando a posição apenas por três anos. Quem o sucedeu foi o Frater Christian Bernard. O atual Imperator é Cláudio Mazzucco, que foi eleito para o cargo de Imperator em 2019. Atualmente a AMORC mantém uma rede mundial de Grandes Lojas distribuídas em regiões geográficas/idiomáticas e dirigidas por diretores denominados tradicionalmente como Grandes Mestres. Estas, por sua vez, mantém uma rede regional de Organismos Afiliados (Lojas, Capítulos e Pronaoi) classificados de acordo com o número de membros afiliados. Muitas Grandes Lojas mantém, também, universidades livres - Universidades Rose-Croix Internacional (URCI) para fins de colocar seus ensinamentos tradicionais em diálogo com a ciência, de forma a manter sempre atualizados seus conhecimentos. Grande Loja da Jurisdição de Língua Portuguesa. A sede para os países de Língua Portuguesa é a Grande Loja da Jurisdição de Língua Portuguesa (também chamada de GLP), localizada no bairro de Bacacheri, em Curitiba - Paraná - Brasil. Ensinamentos. Os ensinamento da AMORC são veiculados por meio de monografias, que são remetidas regularmente a seus membros via correio e/ou internet. Os assuntos abordados são: Matéria e Energia; A Natureza Ilusória de Tempo e Espaço; Consciência Humana e Consciência Cósmica; Técnica Rosacruz de Meditação; Desenvolvimento da Intuição; Aura Humana; Cura Metafísica; Sons Místicos; Telepatia; Telecinesia; Vibroturgia; Radiestesia; Alquimia Espiritual; O Poder Criativo da Visualização; Projeção Psíquica; Despertando a Consciência Psíquica; Reencarnação e Carma; Intuição, Inspiração e Iluminação; Influência Física, Psíquica e Espiritual do Subconsciente; Encarnação da Alma; Transição da Alma; Cura Pessoal e Cura à Distância; O Corpo Psíquico e os Centros Psíquicos; Percepção Psíquica e Consciência Psíquica; Projeção Psíquica; Natureza e Simbolismo dos Sonhos; Auras Físicas, Psíquicas e Espirituais; Poder Místico dos Sons Vocálicos e Mantras; Alma Universal e Alma Humana; Reencarnação da Alma; Regeneração Mística; Harmonização com a Consciência Cósmica entre outros. As monografias são cedidas por empréstimo aos membros e deverão ser devolvidas à AMORC quando se encerrar o período de afiliação, seja pela transição (falecimento do membro) ou pela desistência. Qualquer outro uso ou tentativa de uso, "ipso facto", viola o acordo de afiliação do Membro com a Ordem, e constitui violação aos Estatutos da Ordem. Portanto, os ensinamentos (monografias) não podem ser vendidos ou comprados por quem quer que seja. A venda ou a compra pode tornar o comprador ou o vendedor sujeito a penalidade civil. Literatura. A Ordem Rosacruz, AMORC edita e vende dezenas de obras relacionadas ao conteúdo de seus ensinamentos, além de editar trimestralmente a Revista "O Rosacruz". Movimentos Artísticos ou Cultos Artísticos? O ressurgimento do catolicismo na França entre pintores e escritores fez com que alguns artistas formassem cultos religiosos. Um desses grupos cultuais foi a Ordem Rosacruz do Templo e do Graal. Fundado por Josephin Peladan (1859-1918), o aspecto de Salão do Rosacrucianismo promove as artes, tem um sabor esotérico e combina crenças . Peladan "ordenou" que apenas temas inspirados na religião, misticismo, lenda e mito, sonho, alegoria e poesia fossem dignos de estar em seus Salões. Cenas de paisagens, da vida moderna, foram proibidas em suas galerias de arte. Seus seguidores incluíam: Edmon Aman-Jean, Jean Delville, Charles Filiger, Armand Point, Carlos Schwabe e Alexandre Seon. Das imagens satânicas de Delville ao catolicismo de Schwabe, o grupo cobriu um amplo gênero religioso / gótico e pode ser considerado um predecessor do Movimento de Arte Neo-Gótica. O grupo recebeu seis salões de 1892 a 1897. O primeiro show continha uma apresentação de uma das peças de Peladan e música de Erik Satie, Giovanni Pierluigi da Palestrina e Wagner. Os shows foram considerados espetáculos e, portanto, atraíram um grande público. O Rosacrucianismo original foi fundado por Christian Rosenkrutz (uma pessoa que alguns historiadores afirmam nunca ter existido, mas ele mesmo é uma criação fictícia). Tradicional e historicamente, o movimento Rosacruz sempre lutou pelo estabelecimento e perpetuação da liberdade - a liberdade da mente, do espírito e da alma. Relação Mundial de Grandes Lojas. As Grandes Lojas da Ordem Rosacruz, AMORC, estão divididas em jurisdições para os idiomas do mundo:
1404
Objetivo
Objetivo O termo diz respeito a um fim que se quer atingir. Nesse sentido, é sinônimo de "alvo definido em metas". A definição clara de objetivos é de extrema importância em várias áreas de atuação humana, orientando a ação eficaz dos indivíduos. Em educação, por exemplo, a definição de atividades curriculares deve ser feita tendo em vista os objetivos definidos no programa curricular dos alunos. Na administração. Dentro da visão estruturalista e administrativa atual, o objetivo é um dos componentes que diferenciam um sistema artificial de um sistema natural. Outros componentes de um sistema artificial administrativo: Objetivos organizacionais. Os objetivos de uma organização podem ser considerados como finalidades e valores fundamentais dessa organização e devem ser expressos em termos de expectativas futuras. Neste sentido, fazem parte normalmente da declaração de missão, subdividida nos seus diversos componentes. Existem três tipos de objetivos: rotineiros, de aperfeiçoamento e inovadores. A importância dos objetivos. Em termos globais, a missão e os objetivos da organização determinam o tipo de estratégia e de estrutura que ela adotará e os tipos de processos, de produtos e de pessoas requeridas. Objetivos de marketing. As áreas sugeridas por Drucker são: Na educação. Os objetivos de aprendizagem, segundo Benjamin Bloom, devem ser descritos em termos de desempenhos observáveis, utilizando-se uma taxonomia própria.
1405
Organização
Organização Organização é uma palavra originada do grego "organon", que significa instrumento, utensílio. Em Administração, o termo "organização" pode ter três sentidos: Definições. Segundo Maximiano (1992) uma organização é uma combinação de esforços individuais que tem por finalidade realizar propósitos coletivos. Por meio de uma organização torna-se possível perseguir e alcançar objectivos que seriam inatingíveis para uma única pessoa. Uma grande empresa ou uma pequena oficina, um laboratório ou o corpo de bombeiros, um hospital ou uma escola são todos exemplos de organizações. Segundo Robbins (1990), a organização é "uma entidade social conscientemente coordenada (liderada, vide liderança), com uma fronteira relativamente identificável, que funciona numa base relativamente contínua para alcançar um objectivo e/ou objectivos comuns". Para Sítima, Oliveira e Fernandes (2005), uma organização é constituída por pessoas – para que ela mude, também as pessoas têm que mudar. No entanto, o ser humano é único e, como tal, cria o seu próprio pensamento individual, quer por antecipação, quer por reacção. A forma como estes pensamentos e correspondentes acções se reflectem no contexto organizacional poderá ganhar uma dimensão tal, que torna a reacção do sistema imprevisível. Uma organização é formada pela soma de pessoas, amparadas pelas máquinas e outros equipamentos que facilitam o trabalho (capitalizando-o, e/ou tornando-o produtivo, no ganho de escala - de - produção (vide Economia, Econometria), recursos financeiros e outros. A organização então é o resultado da combinação de todos estes elementos orientados a um objectivo comum. De acordo Bilhim (2006) "a organização é uma entidade social, conscientemente coordenada, gozando de fronteiras delimitadas que funcionam numa base relativamente contínua, tendo em vista a realização de objectivos comuns". Sobrevivência e crescimento (metas e objectivos) é o que a maioria ambiciona. Objectivos que exigem grupos de duas ou mais pessoas, que estabelecem entre eles relações de cooperação(coordenação), em acções formalmente/fortemente coordenadas e funções diferenciadas. Organização por Função Esta é a forma mais comum de organização e tem como elemento básico a distribuição das responsabilidades pelas atividades de marketing da empresa a profissionais que são especialistas em determinadas funções de marketing e que na maioria dos casos se reportam a um vice-presidente de marketing, diretor de marketing ou gerente geral de marketing. Teoria das Organizações. A Teoria das Organizações — também conhecida como "Teorias Organizacionais" — constitui uma disciplina próxima que tem por domínio específico a construção e testagem de teorias sobre as organizações, os seus membros e a sua gestão, as relações organização-envolvente e os processos organizativos. Os temas da teoria das organizações incluem a escolha estratégica, a dependência de recursos, a ecologia organizacional e a Teoria institucional. Os seus desenvolvimentos mais recentes abarcam as perspectivas crítica, feminista, cognitiva e pós-moderna. Os desafios a que procura responder incluem a melhoria da qualidade, as alianças estratégicas, a implementação de novas tecnologias, os processos de governação e controlo, as reestruturações organizacionais e a diversidade estratégica global.
1406
Ouricuri
Ouricuri Ouricuri é um município brasileiro do estado de Pernambuco. Localizado no sertão pernambucano, ocupa uma área de 2.381,570 km² e representa 2,25% do Estado de Pernambuco. A sede do município tem uma altitude aproximada de 451 metros e coordenadas geográficas de 07°52'57" de latitude sul e 40°04'54" de longitude oeste, distando 617 quilômetros da capital, Recife. O município possui uma malha rodoviária privilegiada, sendo cortado pelas rodovias BR-316 e BR-122, ocupando posição central e de destaque na Região de Desenvolvimento do Araripe. Atualmente, Ouricuri abastece pelo menos outras oito cidades da região (composta de 10 municípios) em bens e serviços, sendo sede de importantes instituições governamentais, bancárias e fiscais, e atraindo centenas de pessoas todos os dias. Devido sua localização estratégica na região do Araripe (Ficando aproximadamente 60 km de todos os municípios da Região), Ouricuri é um Polo de desenvolvimento Regional, onde várias empresas se instalam devido a logística da cidade. O município é formado pelos distritos Sede (Ouricuri) e Barra de São Pedro e pelos povoados de Santa Rita, Extrema, Cara Branca, Jacaré, Jatobá, Vidéu, Lopes, Agrovila Nova Esperança, Juá e Passagem de Pedras. História. Toda a região do atual sertão nordestino era ocupada, até a chegada dos europeus no século XVI, por povos indígenas não tupis, os chamados tapuias. Ao longo de todo o período colonial, esses povos foram sendo exterminados através de doenças novas trazidas pelos europeus, guerras, escravização e aldeamentos missionários. Os primeiros registros sobre a região datam do século XIX, mencionando uma extensa fazenda de gado de propriedade de dona Brígida Alencar. Partes desta fazenda foram vendidas ao casal João Goulart. Este casal fixou residência em uma região onde o pasto era mais abundante para o gado e denominaram esta região de Aricuri. Em 1839, o juiz da Comarca de Boa Vista, Alexandre Bernardino Pires, fixou residência na região, fugindo de um surto de malária (doença esta chamada popularmente de "carneirada"). Em 5 de abril de 1841, o padre Francisco Pedro da Silva, oriundo da cidade de Sousa, no estado da Paraíba, comprou terras de dona Brígida a fim de erguer uma capela em homenagem a São Sebastião. Ao transferir a propriedade, o padre mudou o nome para Ouricuri, nome de uma palmeira. Assim, o desenvolvimento do povoado ocorreu pelas atividades agropecuárias e em torno da capela. Em 30 de abril de 1844, foi criado o distrito, que foi elevado à categoria de vila em 1849. Em 1893, tornou-se município autônomo. Em 14 de maio de 1903, foi elevado à categoria de cidade. Geografia. Hidrografia. O município está inserido na bacia hidrográfica do Rio Brígida. Seus principais tributários são os riachos: do Poti, São Pedro, Jatobá, Conceição, do Mel, da Lagoa, do Pau d'Arco, Novo, de Campos, da Maniçoba, do Frade, das Pedras, do Angico, do Manuíno, de São João, Caracuí, do Piau, da Quixaba, do Pradicó, Gravatá, do Capim Grosso, do Papagaio, Comprido, do Vavá, Mão Direita, da Lajinha, do Tapuio, do Junco, das Lajes, Cova do Anjo, da Urtiga, Serrote e Poço do Curral. Os principais corpos de acumulação são os açudes: Tanque, São Bento e Tamboril, além das lagoas dos Cavalos, do Desterro, do Rocha, Comprida, do Meio, do Pau em Pé, do Tatu e do Serrote. Todos os cursos d'água do município têm regime de escoamento intermitente e o padrão de drenagem é o dendrítico. Clima. O clima é semiárido, do tipo "Bsh". As chuvas, que costumam ocorrer entre dezembro e abril, são mal distribuídas ao longo do ano. O verão, é relativamente quente e é a estação mais chuvosa, com máximas de 31 °C e mínimas de 21 °C. O outono é uma estação de transição com chuvas abundantes em março e abril e seco em maio e junho, esta estação possui temperaturas amenas com máximas de 30 °C e mínimas entre 20 °C e 21 °C, o inverno, é a estação mais seca e fria com máximas de 29 °C e mínimas entre 18 °C e 19 °C, alcançando a 15 °C ou menos nas manhãs mais frias, a primavera é a estação mais quente e relativamente seca com máximas de 34 °C e mínimas de 22 °C, podendo chegar a 37 °C ou mais nos dias mais quentes, nesta estação são registradas dias consecutivos com baixa umidade do ar especialmente em setembro e outubro. Segundo dados do Instituto Nacional de Meteorologia (INMET), desde outubro de 1975 a menor temperatura registrada em Ouricuri (estação convencional) foi de em 26 de julho de 1979, em 24 de julho de 2020 foi registrado 12,8 °C. Na (estação automática) em operação desde agosto de 2010 a menor temperatura registrada foi de 13,9 °C registrada em 17 de julho de 2019, e a maior temperatura registrada na (estação automática) foi de 39,4 °C em 13 de novembro de 2015. Na (estação convencional) a maior temperatura já registrada foi de 39,3 °C na tarde de 22 de setembro de 2021, superando os recordes anteriores de 38,8 °C dos dias 10 de setembro de 1997, 2 de outubro de 1997 e 13 de novembro de 2015. O maior acumulado de precipitação registrado em 24 horas foi de em 28 de novembro de 2005. Outros grandes acumulados foram em 31 de dezembro de 2001. Outros grandes acumulados foram em 5 de dezembro de 2005, em 17 de janeiro de 2005, em 6 de janeiro de 2002 e em 23 de março de 2008. Julho é considerado o mês mais frio e Novembro o mais quente não só em Ouricuri como em toda região do Araripe Pernambucano. Relevo. Ouricuri situa-se na unidade dos Maciços e Serras Baixas, com altitudes entre 300 a 800 metros. Os maciços constituem-se em relevo pouco acidentado e em solos de alta fertilidade. Essa unidade ocupa área expressiva nos Estados do Ceará, Pernambuco, Paraíba e Rio Grande do Norte. É formada por maciços imponentes, que se caracterizam por relevo pouco acidentado, com solos de alta fertilidade, os quais são bastante aproveitados nas partes mais acessíveis do relevo. Vegetação e solo. A vegetação é composta por floresta caducifólia e caatinga hipoxerófila. Nos Topos e Vertentes de Relevos Ondulados, ocorrem os solos Brunizens, pouco profundos, bem drenados, textura argilosa e fertilidade natural alta. Nos Topos e Vertentes de Relevos Fortes Ondulados e Montanhosos, ocorrem os solos Litólicos, rasos, pedregosos, ácidos e de fertilidade natural média. Nos Fundos de Vales Estreitos, ocorrem os solos aluviais, profundos, moderadamente drenados e com fertilidade natural alta. Topônimo. O topônimo "Ouricuri" provém da denominação popular da palmeira "Syagrus coronata", nativa da região Nordeste do Brasil.
1407
Otacílio Costa
Otacílio Costa Otacílio Costa é um município brasileiro no estado de Santa Catarina, que tem na indústria madeireira e de celulose a sua principal atividade econômica. Principais atividades econômicas: Extração de madeira e indústria de papel e celulose. Localização: Planalto Serrano, na microrregião dos Campos de Lages, a 280 km de Florianópolis. História. Otacílio Costa originou-se do município de Lages. Sua história começa com o nome Casa Branca, motivado pela existência de um botequim de madeira, pintado de branco, de propriedade de Lauro Araújo e localizado nas terras de Luiz Daboite. Mais tarde, passou a ser conhecido por Encruzilhada em razão da estrada que ligava Otacílio Costa a Curitibanos, onde foi erguido um galpão para o pernoite e descanso dos tropeiros que prosseguiam viagem no dia seguinte. Com a vinda de fazendeiros e a aquisição de grandes áreas de terras, a região evoluiu rapidamente. No entanto, a maioria das terras ainda pertencia a Otacílio Vieira da Costa, político que atuou na vida pública lageana desde os 16 anos, quando se revelou uma promessa de grande jornalista e escritor, o que veio a confirmar-se ao longo do meio século em que colaborou com os jornais de sua terra. Entrou para a política catarinense aos 26 anos de idade, quando foi eleito deputado à Constituinte Estadual. Após receber as denominações de Casa Branca e Encruzilhada, a vila passou a sediar o então distrito de Otacílio Costa, criado por iniciativa do vereador Dorvalino Furtado, da Câmara de Vereadores de Lages, através das leis municipais 180 e 186, respectivamente de 13 de agosto e 27 de setembro de 1958. A criação do distrito foi posteriormente aprovada e promulgada pelo então presidente da Assembleia Legislativa de Santa Catarina, deputado Brás Alves, na Lei 419, de 28 de julho de 1959. Em 10 de maio de 1982, a Lei Estadual 6.059 criou o município de Otacílio Costa com terras desmembradas do município de Lages. Geografia. É constituído por um planalto de superfícies planas e onduladas. O solo possui baixa fertilidade devido à pedregosidade e rochosidade e, em alguns casos, o relevo e as condições climáticas adversas são fatores que limitam o uso da terra. Segundo Koppen, classifica-se como mesotérmico úmido, com verões frescos, apresentando temperatura média anual de 15,9 °C e uma precipitação total anual entre 1.300 a 1.400 milímetros. O município é banhado pela bacia do rio Canoas e apresenta, como seus afluentes os rios dos Índios, Invernadinha, Palheiro, da Areia e Desquite. Aspectos Econômicos. Em seu aspecto econômico destacam-se os setores de indústria e comércio. Os principais são: Futebol. No futebol, o município é representado pelo Esporte Clube Poço Rico, e a Ponte Preta que é filiado à F.C.F., além do Pinheiros Esporte Clube e dos Conders que representa a cidade em competições regionais.
1408
O Livro dos Espíritos
O Livro dos Espíritos O Livro dos Espíritos (na língua francesa, "Le Livre des Esprits") é o primeiro livro da Codificação Espírita publicado por Hippolyte Léon Denizard Rivail sob o pseudônimo de Allan Kardec. Esta obra contém os princípios do Espiritismo sobre a imortalidade da alma, a natureza dos Espíritos e suas relações com os homens, as Leis Morais, a vida presente, a vida futura e o porvir da humanidade (segundo os ensinamentos dos Espíritos Superiores, através de diversos médiuns, recebidos e ordenados por Allan Kardec). É uma das oito obras fundamentais para o estudo da Doutrina Espírita juntamente com: "O Que É o Espiritismo?" (1859); "O Livro dos Médiuns" (1861); "O Evangelho segundo o Espiritismo" (1863); "O Céu e o Inferno" ou a "Justiça Divina Segundo o Espiritismo" (1865); "A Gênese - os Milagres e as Predições Segundo o Espiritismo" (1868), "Obras Póstumas" (1890) e "Revista Espírita" (1858–1869). História. A obra veio a público em 18 de abril de 1857, lançada no Palais Royal, em Paris, na forma de perguntas e respostas, originalmente compreendendo 501 itens. Foi fruto dos estudos de Kardec sobre fenômenos como mesas girantes, psicografia e psicofonia, difundidos por toda a Europa e Estados Unidos em meados do século XIX, e que, segundo muitos pesquisadores da época, possuíam origem mediúnica. Foi o primeiro de uma série de cinco livros editados pelo pedagogo sobre o mesmo tema. As médiuns que serviram a esse trabalho foram inicialmente as jovens Caroline e Julie Boudin (respectivamente, com 16 e 14 anos à época), às quais mais tarde se juntou Celine Japhet (com 18 anos à época) e a senhorita Ermmance Defaux (14 anos na época), que teria como guia espiritual São Luiz, no processo de revisão do livro. Após o primeiro esboço, o método das perguntas e respostas foi submetido à comparação com as comunicações obtidas por outros médiuns franceses, num total de "mais de dez", nas palavras de Kardec, cujos textos psicografados contribuíram para a estruturação do texto. Segundo Canuto de Abreu, na página 7 de "O Primeiro Livro dos Espíritos", a segunda edição francesa foi lançada em 18 de março de 1860, tendo "O Livro dos Espíritos", naquela reimpressão, sido revisto quase "como trabalho novo, embora os princípios não hajam sofrido nenhuma alteração, salvo pequeníssimo número de exceções, que são antes complementos e esclarecimentos que verdadeiras modificações". Para esta revisão, Kardec manteve contato com grupos espíritas de cerca de 15 países da Europa e das Américas. Nesta segunda edição é que aparecem 1018 perguntas e respostas, sendo que algumas edições atuais trazem 1019 perguntas, acréscimo que, segundo a Federação Espírita Brasileira (FEB), foi devido ao Codificador não ter numerado a pergunta imediatamente após a 1010, aquela que seria a 1011. Assim sendo, o livro teria, na prática, 1019 e não, 1018 perguntas. Características. O Livro dos Espíritos é a obra fundadora do Espiritismo. Ele trata dos aspectos científico, filosófico e religioso da doutrina, lançando as bases que seriam posteriormente aprofundadas, por Allan Kardec, nas demais obras da Codificação Espírita. A sua edição definitiva é composta de quatro partes: Livro Primeiro - Causas primeiras; Livro Segundo - Mundo espiritual ou dos Espíritos; Livro Terceiro - Leis morais; Livro Quarto - Esperanças e consolações. A obra encontra-se divida da seguinte forma: Censura. Em setembro de 1861 o Sr. Lachâtre encomendou, de Barcelona, 300 volumes de obras espíritas, dentre as quais "O Livro dos Espíritos". Ao chegarem, os livros foram apreendidos pelo bispo local, num episódio que ficou conhecido como "Auto de fé de Barcelona". A sentença foi executada a 9 de outubro, data que marca a intolerância religiosa, reagindo contra a divulgação da Doutrina Espírita. A 1 de maio de 1864, a Igreja Católica incluiu a obra no "Index Librorum Prohibitorum" - o catálogo das obras cuja leitura é vedada aos seus fiéis.
1409
Perl
Perl Perl é uma família de duas linguagens de programação multiplataforma, Perl 5 e Perl 6. Originalmente, Perl foi desenvolvida por Larry Wall em 1987; desde então, a linguagem passou por muitas atualizações e revisões até chegar à versão Perl 5 em 1994. Perl 6, desenvolvido a partir do Perl 5 em 2000, eventualmente evoluiu para uma linguagem distinta. Ambas as linguagens continuam a ser desenvolvidas independentemente por equipes diferentes. Perl é usada em aplicações de CGI para a web, para administração de sistemas linux e por várias aplicações que necessitam de facilidade de manipulação de strings. Permite a criação de programas em ambientes UNIX, MSDOS, Windows, Macintosh, OS/2 e outros sistemas operacionais. Além de ser muito utilizada para programação de formulários www e em tarefas administrativas de sistemas UNIX - onde a linguagem nasceu e se desenvolveu -, possui funções muito eficientes para manipulação de textos. Seu "slogan" "There's more than one way to do it" (Existe mais de uma maneira de fazer isso) demonstra exatamente o propósito da linguagem: sua flexibilidade e capacidade de fazer códigos funcionais. Origem. A linguagem Perl foi desenvolvida por Larry Wall. Inicialmente, o nome seria "PEARL", porém já existia uma linguagem com esse nome, então Wall alterou para "Perl". Seu lançamento deu-se em 1987 (4 anos antes do Linux) quando Larry postou o Perl no grupo de notícias da Usenet "comp.sources". Antes disso, praticamente todo processamento de texto em sistemas baseados em Unix era feito com uma porção de ferramentas, tais como o AWK, 'sed', C e diversas linguagens shell script. A ideia de Wall foi juntar as principais vantagens de todas essas linguagens: expressões regulares do 'sed'; a identificação de padrões de AWK; a profundidade de C; além da sintaxe baseada tanto em C quanto em Shell Script. Pouco tempo depois de sua primeira versão, Perl se popularizou. Originalmente, a única documentação existente era uma única página de manual, até que, em 1991, foi publicada a referência definitiva da linguagem, "Programming Perl", que ficou conhecida pelos programadores como o "livro do camelo”, por conta da imagem em sua capa. Em 1992, Perl já estava na versão 4 e tornou-se uma linguagem padrão para Unix. Porém, foi também nessa época que a linguagem de Larry começou a mostrar suas limitações. Apesar de ser excelente para administradores de sistemas escreverem pequenos e poderosos códigos, era inviável desenvolver programas maiores com o Perl. Foi quando a equipe, ainda liderada por Larry Wall, começou a desenvolver a versão 5, lançada em 1994. A partir de então, a linguagem subiu de patamar; tornou-se, como muitos acreditam, uma linguagem completa, e não apenas auxiliar. Características da linguagem. No geral, a sintaxe de um programa em Perl se parece muito com a de um programa em C: existem variáveis, expressões, atribuições, blocos de código delimitados, estruturas de controle e sub-rotinas. Além disso, Perl foi bastante influenciado pelas linguagens de "shell script": todas as variáveis escalares são precedidas por um cifrão (codice_1). Essa marcação permite identificar perfeitamente as variáveis num programa, onde quer que elas estejam. Um dos melhores exemplos da utilidade desse recurso é a interpolação de variáveis diretamente no conteúdo de "strings". Perl também possui muitas funções integradas para tarefas comuns como ordenação e acesso de arquivos em disco. Perl pega emprestado as listas de Lisp, as "arrays" associativas (tabelas hash) de awk e as expressões regulares de sed. Isso tudo simplifica e facilita qualquer forma de interpretação e tratamentos de textos e dados em geral. A linguagem suporta estruturas de dados arbitrariamente complexas. Ela também possui recursos vindos da programação funcional (as funções são vistas como um outro valor qualquer para uma sub-rotina, por exemplo) e um modelo de programação orientada a objetos. Perl também possui variáveis com escopo léxico, que tornam mais fácil a escrita de código mais robusto e modularizado. Todas as versões de Perl possuem gerenciamento de memória automático e tipagem dinâmica. Os tipos e necessidades de cada objeto de dados no programa são determinados automaticamente; memória é alocada ou liberada de acordo com o necessário. A conversão entre tipos de variáveis é feita automaticamente em tempo de execução e conversões ilegais são erros fatais. Tipos de dados. O Perl tem uma série de tipos de dados fundamentais, porém é considerada uma linguagem não tipada, ou seja, as variáveis não são restringidas a usar um único tipo. Os mais utilizados são: escalar, vetor (array), hash (vetor associativo), handle de um arquivo e sub-rotinas. $num = 34; $nome = "joe"; $pi = 3.14; @numeros = (1,2,3); %hash = (1,"a",2,"b",3,"c"); Exemplos de código. A primeira linha de um código em Perl deve sempre começar com o shebang: Esta linha informa onde está localizado o compilador do Perl e pode variar de sistema para sistema. Programa Olá Mundo! print "Olá, Mundo!\n"; Comentário. =begin Este é um comentário de múltiplas linhas em Perl =cut Note o ponto e vírgula no final de cada expressão. Assim como em C e C++, Perl exige que o usemos para indicar o final de uma expressão. A última linha é a que apaga o arquivo. unlink equivale a 'rm' e $0 é uma referência simples ao arquivo que está sendo executado. Expressão regular - Filtro. Um dos pontos fortes de Perl é o eficiente uso de expressões regulares no tratamento de textos e arquivos. Identificamos essas expressões pelos delimitadores "/.../", ou seja, tudo o que estiver entre essas barras será tratado como um "pattern" (padrão) para ser encontrado em determinado texto. O programa a seguir lê um texto e busca exatamente a expressão "foo": while(<>) { /foo/; print; Assim como as expressões regulares de Linguagens Regulares, Perl admite alguns símbolos especiais que facilitam a descrição de um padrão. São eles: Se quisermos utilizar o real significado de um desses símbolos, basta colocarmos uma barra invertida exatamente antes do mesmo. O código abaixo busca o padrão assim descrito: nenhum ou muitos '+' seguido de um ou nenhum 'b' while (<>) { /\+*b?/ print; É possível obter o mesmo resultado com uma única linha (um "one-liner"): perl -pi -e '/\+*b?/' arquivo.txt De fato, é comum a ocorrência de problemas que exigem dezenas de linhas em outras linguagens de programação mas que podem ser resolvidos com uma única linha de código em Perl, especialmente na área de ETL. Strings. Em Perl, strings podem ser descritas com aspas duplas ou simples, porém estas descrevem a string literalmente, enquanto aquelas interpretam símbolos de código. Exemplificando, as duas linhas de código a seguir resultam em saídas diferentes: print "Hello World!\n"; print 'Hello World!\n'; Saída: Hello World! Hello World!\n Na primeira linha, com aspas duplas, o símbolo \n é interpretado como uma quebra de linha, enquanto, na segunda linha, o símbolo é impresso literalmente. Estruturas de controle. Perl tem as estruturas básicas esperadas em qualquer linguagem de programação: Perl tira boas ideias de linguagens naturais, como a possibilidade de inverter a ordem dos elementos em uma frase. Por exemplo: if ($DEBUG) { print "ouch!"; Pode ser reescrita como: print "ouch!" if $DEBUG; Laço For. O laço for em Perl segue o mesmo estilo da linguagem C, inicializando uma variável, determinando seu limite e o passo do incremento. O código abaixo é um exemplo de for em Perl, imprimindo, a cada iteração, o valor da variável i, indo de 0 a 5. for ($i=0; $i<5; $i++){ print "$i\n"; Módulos e frameworks. Perl conseguiu reunir módulos, classes, scripts e frameworks desenvolvidos pela comunidade em um só lugar, este lugar chama-se CPAN, repositório onde encontra-se quase tudo já desenvolvido para a linguagem: Interpretador Perl. Se você está num sistema Linux (ou a maioria dos sistemas UNIX, incluindo Mac Os X), provavelmente já há uma instalação do compilador Perl incluída no seu sistema. Digite o seguinte comando no terminal para descobrir qual versão você tem instalada: Comunidade. Um dos pontos mais fortes da linguagem Perl é a comunidade de usuários em todo o mundo. Segundo a tradição internacional, esses grupos são denominados Perl Mongers. Um grande ponto de encontro da comunidade é o YAPC. YAPCs são encontros promovidos pela comunidade para discutir coisas sobre Perl, os encontros podem ter caráter regional ou nacional. No Brasil ocorre uma vez por ano o YAPC::Brasil "Encontro Brasileiro de Programadores Perl". Em 2009 o YAPC::Brasil aconteceu de 29 de outubro a 1 de novembro em Niterói, Rio de Janeiro. Em 2010 o evento ocorreu de 25 a 31 de outubro em Fortaleza, Ceará. Em 2013, o evento ocorreu nos dias 15 e 16 de Novembro, em Curitiba, Paraná. Em 2014, o evento foi realizado em Itapema, Santa Catarina, nos dias 19 e 20 de Setembro. Bibliografia. Livro: PERL Guia de Consulta Rápida, Autor: Décio Jr., Editora Novatec, ISBN 85-85184-80-9
1410
Planeta
Planeta Um planeta (do grego πλανήτης [planεːtεːs] "viajante") é um corpo celeste que orbita uma estrela ou um remanescente de estrela, com massa suficiente para se tornar esférico pela sua própria gravidade, mas não ao ponto de causar fusão termonuclear, e que tenha limpado de planetesimais a sua região vizinha (dominância orbital). O termo "planeta" é antigo, com ligações com a história, astrologia, ciência, mitologia e religião. Os planetas eram vistos por muitas culturas antigas como divinos ou emissários de deuses. À medida que o conhecimento científico evoluiu, a percepção humana sobre os planetas mudou, incorporando diversos tipos de objetos. Em 2006, a União Astronômica Internacional (UAI) adotou oficialmente uma resolução definindo planetas dentro do Sistema Solar, a qual tem sido elogiada e criticada, permanecendo em discussão entre alguns cientistas. Ptolomeu imaginava que os planetas orbitavam a Terra, em movimentos do epiciclo e círculo deferente. Embora a ideia de que os planetas orbitavam o Sol tivesse sido sugerida muitas vezes, somente no século XVII esta visão foi suportada por evidências pelas primeiras observações telescópicas, realizadas por Galileu Galilei. Através da cuidadosa análise dos dados das observações, Johannes Kepler descobriu que as órbitas dos planetas não são circulares, mas elípticas. À medida que as ferramentas de observação foram desenvolvidas, os astrônomos perceberam que os planetas, como a Terra, giravam em torno de eixos inclinados e que alguns compartilhavam características como calotas polares e estações do ano. Desde o início da era espacial, observações mais próximas por meio de sondas demonstraram que a Terra e os outros planetas também compartilham características como vulcanismo, furacões, tectônica e até mesmo hidrologia. Os planetas do Sistema Solar são divididos em dois tipos principais: os grandes "planetas gigantes gasosos" (ou "jovianos"), de baixa densidade, e os menores e rochosos "planetas telúricos" ou "terrestres". Pelas definições da UAI, há oito planetas no Sistema Solar: em ordem crescente de distância do Sol, são os quatro planetas telúricos Mercúrio, Vênus, Terra e Marte, e depois os quatro gigantes gasosos Júpiter, Saturno, Urano e Netuno. Seis dos planetas são orbitados por um ou mais satélites naturais. Além disso, o Sistema Solar possui pelo menos cinco planetas anões e centenas de milhares de corpos menores. Vários milhares de planetas orbitando outras estrelas ("planetas extrassolares" ou "exoplanetas") foram descobertos na Via Láctea. Até 1º de março de 2021, foram descobertos 4 687 planetas extrassolares, em 3 463 sistemas planetários (incluindo 770 sistemas multiplanetários), variando em tamanho desde mais ou menos o tamanho da Lua até gigantes gasosos com aproximadamente duas vezes o tamanho de Júpiter, dos quais mais de cem com o mesmo tamanho da Terra, nove dos quais estão à mesma distância relativa de suas estrelas que a Terra do Sol, isto é, estão na zona habitável circunstelar. Em 20 de dezembro de 2011, a equipe do telescópio espacial Kepler registrou a descoberta dos primeiros planetas extrassolares do tamanho da Terra, Kepler-20e e Kepler-20f, orbitando uma estrela similar ao Sol, Kepler-20. Um estudo de 2012, analisando dados de microlente gravitacional, estima uma média de 1,6 planeta ligado a cada estrela da Via Láctea. Acredita-se que uma em cada cinco estrelas similares ao Sol possui um planeta do tamanho da Terra em sua zona habitável. Os planetas são mais numerosos que as estrelas. História. A ideia de planeta evoluiu ao longo da história, das luzes divinas da antiguidade aos objetos concretos da era científica. O conceito se expandiu para incluir mundos não apenas no Sistema Solar, mas em centenas de sistemas extrassolares. As ambiguidades inerentes à definição de planeta levaram a muita controvérsia científica. Os cinco planetas clássicos do Sistema Solar, sendo visíveis a olho nu, são conhecidos desde a antiguidade e tiveram um impacto significativo na mitologia, cosmologia religiosa e astronomia antiga. Na antiguidade, os astrônomos notaram como certas luzes se moviam no céu em relação às outras estrelas. Os antigos gregos chamaram essas luzes "πλάνητες ἀστέρες" ("planetes asteres": "estrelas errantes") ou simplesmente "πλανήτοι" ("planētoi": "errantes"), a partir do que derivou a palavra atual "planeta". Nas antigas Grécia, China e Babilônia e em quase todas as civilizações pré-modernas, acreditava-se quase universalmente que a Terra era o centro do universo e que todos os planetas a circundavam. A razão para esta percepção era que todos os dias as estrelas e planetas pareciam girar em torno da Terra, e o aparente senso comum da percepção de que a Terra era sólida e estável e que estava em repouso e não se movendo. Babilônia. A primeira civilização que se sabe ter possuído uma teoria funcional para os planetas foi a babilônica, que viveu na Mesopotâmia no primeiro e segundo milênios a.C.. O mais antigo texto astronômico planetário remanescente é a tábua de Vênus de Ammisaduqa, uma cópia do século VII a.C. de uma lista de observações dos movimentos do planeta Vênus que provavelmente data do segundo milênio a.C.. O MUL.APIN é um par de tábuas cuneiformes datado do século VII a.C. que registra os movimentos do Sol, Lua e planetas ao longo de um ano. Os astrólogos babilônicos também lançaram as fundações do que se tornou depois a astrologia ocidental. O "Enuma anu enlil", escrito durante o período neoassírio no século VII a.C., compreende uma lista de profecias e suas relações com vários fenômenos celestiais, inclusive os movimentos dos planetas. Vênus, Mercúrio e os planetas externos Marte, Júpiter e Saturno foram todos identificados pelos astrônomos babilônicos. Eles permaneceriam como os únicos planetas conhecidos até a invenção do telescópio, no início da era moderna. Astronomia greco-romana. Os gregos antigos inicialmente não deram muita importância aos planetas como os babilônicos. Os pitagóricos, nos séculos VI e V a.C., parecem ter desenvolvido sua própria teoria planetária independente, que consistia na Terra, o Sol, a Lua e os planetas girando em torno de um "fogo central", no centro do universo. Atribui-se a Pitágoras ou Parmênides de Eleia ter primeiro identificado a estrela vespertina e a estrela matutina (Vênus) como sendo o mesmo objeto, embora isso já fosse sabido há muito tempo pelos babilônicos. No século III a.C., Aristarco de Samos propôs um sistema heliocêntrico, segundo o qual a Terra e os planetas giravam em torno do Sol. Entretanto, o sistema geocêntrico permaneceria dominante até a revolução científica. A máquina de Anticítera era um computador analógico projetado para calcular a posição relativa do Sol, Lua e planetas. Até o século I a.C., durante o período helenístico, os gregos tinham começado a desenvolver esquemas matemáticos para predizer as posições dos planetas. Esses esquemas, que se baseavam mais em geometria do que na aritmética dos babilônicos, acabaram por eclipsar as teorias babilônicas por serem mais complexos e abrangentes, contemplando a maioria dos movimentos astronômicos observados da Terra a olho nu. Essas teorias atingiriam sua expressão máxima no Almagesto escrito por Ptolomeu no século II d.C.. A dominação do modelo de Ptolomeu foi tão completa que ele superou todos os trabalhos anteriores em astronomia e permaneceu como o texto astronômico definitivo por 13 séculos. Para os gregos e romanos, eram sete os planetas conhecidos, cada um circundando a Terra de acordo com as complexas leis colocadas por Ptolomeu. Eles eram, em ordem crescente a partir da Terra (a ordem de Ptolomeu), a Lua, Mercúrio, Vênus, o Sol, Marte, Júpiter e Saturno. Cícero, no seu "De Natura Deorum", enumerou os planetas conhecidos durante o século I a.C., usando os nomes utilizados na época. Índia antiga. Em 499, o astrônomo indiano Aryabhata propôs um modelo planetário que explicitamente incorporava a rotação da Terra sobre seu eixo, a qual ele indicava como a causa do que parece ser um movimento das estrelas para o oeste. Ele também acreditava que a órbita dos planetas era elíptica. Este modelo foi amplamente aceito por muitos astrônomos indianos posteriores a ele. Os seguidores de Aryabhata foram particularmente fortes no sul da Índia, onde seus princípios da rotação da Terra em ciclos diários, entre outros, foram seguidos e serviram de base a diversos trabalhos secundários. Em 1500, Nilakantha Somayaji, da escola Kerala de astronomia e matemática, no seu Tantrasangraha, revisou o modelo de Aryabhata. No seu Aryabhatiyabhasya, um comentário sobre a obra Aryabhatiya de Aryabhata, ele desenvolveu um modelo planetário em que Mercúrio, Vênus, Marte, Júpiter e Saturno orbitavam o Sol, que por sua vez orbitava a Terra, de forma similar ao sistema Tychonico proposto mais tarde por Tycho Brahe no final do século XVI. A maioria dos astrônomos da escola Kerala que o seguiram aceitou seu modelo planetário. Mundo islâmico. No século XI, o trânsito de Vênus foi observado pelo sábio persa Avicena, que sustentou que Vênus estava, pelo menos algumas vezes, abaixo do Sol. No século XII, o astrônomo andaluz Ibn Bajjah reportou ter visto "dois planetas como manchas negras na face do Sol", o que foi mais tarde atribuído pelo astrônomo Qotb al-Din Shirazi, do observatório de Maragha (no atual Irã), no século XIII, ao trânsito de Mercúrio e Vênus. Entretanto, Ibn Bajjah não pode ter observado um trânsito de Vênus, já que nenhum ocorreu ao longo da sua vida. Renascimento europeu. Com o advento da Revolução Científica, o uso do termo "planeta" mudou de alguma coisa que se movia no céu (em relação ao campo estelar) para um corpo que orbitava a Terra (ou que se acreditava fazê-lo, naquela época) e, no século XVIII, para alguma coisa que orbitava diretamente o Sol, quando o modelo heliocêntrico de Copérnico, Galileu e Kepler foi aceito. Com isso a Terra foi incluída na lista de planetas, enquanto o Sol e a Lua foram excluídos. No início, quando os primeiros satélites de Júpiter e Saturno foram descobertos no século XVII, os termos "planeta" e "satélite" foram usados indistintamente, e o segundo gradualmente ganhou prevalência no século seguinte. Até a metade do século XIX, o número de "planetas" cresceu rapidamente, porque qualquer nova descoberta de objeto orbitando o Sol era relacionada como um planeta pela comunidade científica. Século XIX. No século XIX, os astrônomos começaram a perceber que corpos recentemente descobertos, que haviam sido classificados como planetas por quase meio século (como Ceres, Palas, Juno e Vesta), eram muito diferentes dos tradicionais. Esses corpos compartilhavam a mesma região do espaço entre Marte e Júpiter (o cinturão de asteroides) e tinham massa muito menor; como resultado, eles foram classificados como "asteroides". Na ausência de uma definição formal, um "planeta" passou a ser entendido como qualquer objeto "grande" que orbitasse o Sol. Como havia uma enorme diferença de tamanho entre asteroides e planetas e a enxurrada de novos descobrimentos parecia concluída depois da descoberta de Netuno em 1846, não havia uma necessidade aparente de uma definição formal. Século XX. No século XX, Plutão foi descoberto. Como as observações iniciais indicaram que ele era maior do que a Terra, o objeto foi imediatamente aceito como o nono planeta. O acompanhamento posterior mostrou que ele era na verdade muito menor: em 1936, Raymond Lyttleton sugeriu que Plutão poderia ser um satélite escapado de Netuno e Fred Whipple sugeriu em 1964 que ele poderia ser um cometa. Porém, como ainda era muito maior do que todos os asteroides conhecidos e a população de planetas anões e outros objetos transnetunianos não estava bem desenvolvida, ele manteve seu status até 2006. Em 1992, os astrônomos Aleksander Wolszczan e Dale Frail anunciaram a descoberta de planetas em torno de um pulsar, PSR B1257+12, a qual costuma ser considerada a primeira detecção definitiva de um sistema planetário em torno de outra estrela. Em 6 de outubro de 1995, Michel Mayor e Didier Queloz, da Universidade de Genebra, anunciaram a primeira detecção definitiva de um exoplaneta orbitando uma estrela normal da sequência principal (51 Pegasi). A descoberta de planetas extrassolares levou a outra ambiguidade em se definir um planeta: o ponto em que um planeta se torna uma estrela. Muitos planetas extrassolares conhecidos possuem massa várias vezes maior do que a de Júpiter, aproximando-se dos objetos estelares conhecidos como "anãs marrons”. As anãs marrons são geralmente consideradas estrelas devido a sua capacidade de fundir o deutério, um isótopo pesado do hidrogênio. Enquanto estrelas com massa de mais de 75 vezes a de Júpiter fundem o hidrogênio, estrelas com massa de apenas 13 vezes a de Júpiter fundem o deutério. Entretanto, o deutério é muito raro e a maioria das anãs marrons teria parado de fundir o deutério muito antes do seu descobrimento, tornando-as efetivamente indistintas de planetas superpesados. Século XXI. Com a descoberta, durante a segunda metade do século XX, de mais objetos no Sistema Solar e de grandes objetos em torno de outras estrelas, surgiram discussões sobre o que deveria constituir um planeta. Havia uma particular discordância quanto a se considerar como um planeta um objeto que fizesse parte de uma população distinta, como um cinturão, ou que fosse grande o suficiente para gerar energia por fusão nuclear do deutério. Um número crescente de astrônomos afirmava que Plutão deveria ser desclassificado como um planeta, uma vez que muitos objetos similares, com tamanho aproximado ao seu, haviam sido descobertos na mesma região do Sistema Solar (o cinturão de Kuiper) nas décadas de 1990 e 2000. Considerava-se que Plutão fosse apenas um pequeno corpo, numa população de milhares. Alguns deles, como Quaoar, Sedna e Éris, foram anunciados na imprensa popular como o décimo planeta, mas não obtiveram reconhecimento científico generalizado. Em 2005, o anúncio de Éris, um objeto com massa 27% maior do que Plutão, criou a necessidade e o desejo público para uma definição oficial de planeta. Reconhecendo o problema, a UAI iniciou o processo de criação de uma definição de planeta e produziu uma em agosto de 2006. O número de planetas caiu para os oito corpos significativamente grandes que tinham dominância em sua órbita (Mercúrio, Vênus, Terra, Marte, Júpiter, Saturno, Urano e Netuno) e foi criada uma nova classe de planetas anões, contendo inicialmente três objetos (Ceres, Plutão e Éris). Planeta extrassolar. Não há uma definição oficial de planeta extrassolar. Em 2003, o Grupo de Trabalho da UAI para Planetas Extrassolares fez uma declaração sobre a definição de um planeta, mas esta declaração nunca foi proposta como uma resolução oficial da IAU e nunca foi votada pelos membros da IAU. A declaração incorpora as seguintes linhas mestras, mais relacionadas ao limite entre planetas e anãs marrons: Esta definição tem sido largamente utilizada por astrônomos quando da divulgação de descobertas de exoplanetas em publicações acadêmicas. Embora provisória, ela permanece uma efetiva definição de trabalho, até que uma de caráter mais permanente seja formalmente adotada. Ela não trata da disputa sobre o limite inferior de massa, portanto está fora da controvérsia sobre objetos internos ao Sistema Solar. Esta definição também não trata do status planetário de objetos orbitando anãs marrons, como o 2M1207b. Uma definição de uma subanã marrom é: um objeto com massa de planeta, formado por colapso de nebulosa e não por acreção. Não há uma concordância universal com esta distinção do processo de formação de uma subanã marrom e de um planeta, pois os astrônomos se dividem quanto a se considerar o processo de formação como parte da sua divisão na classificação. Uma razão para o dissenso é que nem sempre é possível determinar o processo de formação. Por exemplo, um planeta formado por acreção em torno de uma estrela pode ser ejetado pelo sistema e se tornar vagante, assim como uma subanã marrom que se formou sozinha em um aglomerado estelar por colapso de nebulosa pode ser capturado para a órbita de uma estrela. Um estudo sugere que objetos acima de 10 massas de Júpiter (MJ) se formaram devido a instabilidade gravitacional e não deveriam ser considerados planetas. O corte em 13 massas de Júpiter é mais uma massa média do que um valor limite preciso. Objetos grandes queimarão a maior parte do seu deutério e os menores queimarão apenas uma parte, e o valor de 13 MJ está neste intervalo. Na verdade, os cálculos mostram que um objeto funde 50% do seu conteúdo inicial de deutério quando sua massa total está entre 12 e 14 MJ. A quantidade de deutério fundido depende não apenas da massa, mas também da composição do objeto, da quantidade de hélio e deutério presente. Desde 2011, a Enciclopédia de Planetas Extrassolares inclui objetos de até 25 massas de Júpiter, dizendo "O fato de que não existe nenhuma característica especial em 13 MJ no espectro de massa observado reforça a escolha de esquecer este limite de massa". A partir de 2016, este limite foi aumentado para 60 massas de Júpiter, com base em um estudo de relações massa-densidade. O "Exoplanet Data Explorer" inclui objetos de até 24 MJ, com o aviso: "A distinção de 13 massas de Júpiter pelo Grupo de Trabalho da UAI é fisicamente imotivado para planetas com núcleos rochosos, e observacionalmente problemático devido à ambiguidade de sen i". O "NASA Exoplanet Archive" inclui objetos com massa (ou massa mínima) igual ou menor do que 30 massas de Júpiter. Outro critério para distinguir planetas e anãs marrons, em lugar da fusão do deutério, processo de formação ou localização é se a pressão do núcleo é dominada pela pressão de Coulomb ou pela pressão de degenerescência eletrônica. Definição da UAI de 2006. A questão do limite inferior foi tratada durante o encontro de 2006 da Assembleia Geral da UAI. Depois de muito debate, a assembleia votou e aprovou resolução com a seguinte definição de planeta dentro do Sistema Solar: Por esta definição, o Sistema Solar é composto de oito planetas. Corpos que preenchem as duas primeiras condições, mas não a terceira, como Ceres, Plutão e Éris, são classificados como planetas anões, desde que não sejam satélites naturais de outros planetas. Originalmente, um comitê da UAI havia proposto uma definição que teria incluído um número muito maior de planetas, já que não considerava (c) como um critério. Depois de muita discussão, foi decidido pelo voto que esses corpos seriam classificados como planetas anões. Esta definição se baseia em teorias de formação planetária, segundo as quais embriões planetários primeiramente limpam a sua vizinhança orbital de outros objetos menores. Como descreve o astrônomo Steven Soter: A definição de 2006 da UAI apresenta alguns desafios para exoplanetas, porque a linguagem é específica para o Sistema Solar e porque os critérios de esfericidade e dominância de órbita não são observáveis atualmente. O astrônomo Jean-Luc Margot propôs um critério matemático que determina se um objeto pode limpar a sua órbita durante o tempo de vida da sua estrela, com base na massa do planeta, seu semieixo maior e a massa da sua estrela. A fórmula produz um valor π que é maior que 1 para planetas. Os oito planetas do Sistema Solar e todos os exoplanetas conhecidos têm valores acima de 100, enquanto Ceres, Plutão e Eris têm valores de 0,1 ou menores. Espera-se que objetos com π de 1 ou mais sejam aproximadamente esféricos, de modo que objetos que atendam ao critério de dominância de órbita automaticamente atendem ao requisito de esfericidade. Objetos inicialmente considerados planetas. A tabela abaixo relaciona os corpos do Sistema Solar inicialmente considerados como planetas, mas que não o são mais com base na definição da UAI, bem como se eles seriam considerados planetas sob as definições de Stern de 2002 e 2018. Mitologia e nomes. Os nomes dos planetas no mundo ocidental são derivados das práticas de nomeação dos romanos, as quais provêm daquelas dos gregos e babilônicos. Na Grécia antiga, os dois grandes astros Sol e Lua eram chamados "Helios" e "Selene"; o planeta mais distante (Saturno) era chamado "Phainon", "o reluzente", seguido por "Phaethon", (Júpiter), "o brilhante"; o planeta vermelho (Marte) era conhecido como "Pyroeis", "o de cor de fogo"; o mais brilhante (Vênus) era conhecido como "Phosphoros", "o que traz a luz"; e o fugaz planeta final (Mercúrio) era chamado "Stilbon", "o de brilho passageiro". Os gregos também consagraram cada planeta a um dos deuses do seu panteão, os Olímpicos: "Helios" e "Selene" eram nomes tanto de deuses quanto de planetas; "Phainon" era consagrado a Cronos, o Titã que gerou os Olímpicos; "Phaeton" era consagrado a Zeus, filho de Cronos que o depôs como rei; "Pyroeis" foi dado a Ares, filho de Zeus e deus da guerra; "Phosphoros" era controlado por Afrodite, a deusa do amor; e Hermes, mensageiro dos deuses e deus do saber e da sagacidade, controlava "Stilbon". A prática grega de transplantar os nomes dos deuses para os planetas foi quase com certeza emprestada dos babilônicos. Esses nomearam "Phosphoros" a partir de sua deusa do amor, Ishtar, "Pyroeis" do deus da guerra, Nergal, "Stilbon" do deus do conhecimento, Nabu, e "Phaeton" do chefe dos deuses, Marduque. Há muitas concordâncias entre as convenções de nomes grega e babilônica para que elas tenham surgido separadamente, mas a tradução não era perfeita. Por exemplo, o babilônico Nergal era o deus da guerra, portanto os gregos o identificaram com Ares. Entretanto, diferentemente de Ares, Nergal também era o deus da peste e do submundo. Hoje em dia, a maioria das pessoas no mundo ocidental conhece os planetas pelos nomes derivados do panteão de deuses olímpicos. Enquanto os gregos modernos ainda utilizam os seus nomes antigos para os planetas, outras línguas europeias, em função da influência do Império Romano e mais tarde da Igreja Católica, usam os nomes romanos (ou do latim) em vez dos gregos. Os romanos, que, como os gregos, eram indo-europeus, compartilhavam com eles um panteão comum com nomes diferentes, mas careciam da rica tradição narrativa que a poética cultura grega havia atribuído a seus deuses. Durante o período final da República Romana, os escritores romanos pegaram emprestada muito da narrativa grega e a aplicaram ao seu próprio panteão, a ponto de eles ficarem virtualmente indistinguíveis. Quando os romanos estudaram a astronomia grega, deram aos planetas os nomes dos seus próprios deuses: Mercúrio (para Hermes), Vênus (Afrodite), Marte (Ares), Júpiter (Zeus) e Saturno (Cronos). Quando os planetas subsequentes foram descobertos nos séculos XVIII e XIX, a prática de nomeação foi mantida com Netuno. Urano é uma exceção, uma vez que é nomeado por uma divindade grega e não pelo seu correspondente romano ("Caelus"). Alguns romanos, seguindo uma crença possivelmente originária da Mesopotâmia, mas desenvolvida no Egito ptolemaico, acreditavam que os sete deuses a partir dos quais os planetas foram nomeados passavam turnos de uma hora cuidando de assuntos na Terra. A ordem dos turnos era Saturno, Júpiter, Marte, Sol, Vênus, Mercúrio e Lua (do planeta mais distante para o mais próximo). Portanto, o primeiro dia era iniciado por Saturno (1ª hora), o segundo pelo Sol (25ª hora), seguido pela Lua (49ª hora), Marte, Mercúrio, Júpiter e Vênus. Como cada dia era nomeado pelo deus que o iniciava, esta também era a ordem dos dias da semana no calendário romano, depois que o ciclo nundinal foi rejeitado — o que ainda é preservado em muitas línguas modernas. A Terra é o único planeta cujo nome não é derivado da mitologia greco-romana. Como a Terra só foi geralmente aceita como um planeta no século XVII, não há uma tradição em nomeá-la a partir de um deus (o mesmo vale, em inglês, para o Sol e a Lua, embora eles não sejam mais considerados planetas). Muitas das línguas românicas retêm a antiga palavra romana "terra" (ou alguma variação dela), que era usada com o significado de "terra seca" (por oposição a "mar"). Entretanto, as línguas não românicas usam suas respectivas palavras nativas. Os gregos usam seu nome original "Ge" (ou "Yi"); as línguas germânicas, inclusive o inglês, usam uma variação da palavra do alemão antigo "ertho", "chão". Culturas não europeias usam outros sistemas para a nomeação planetária. A Índia usa um sistema de nomes baseado no Navagraha, que incorpora os sete planetas tradicionais ("Surya" para o Sol, "Chandra" para a Lua e "Budha", "Shukra", "Mangala", "Brihaspati" e "Shani" para os planetas tradicionais Mercúrio, Vênus, Marte, Júpiter e Saturno) e os nós lunares ascendente e descendente (pontos em que a órbita da Lua cruza a eclíptica) "Rahu" e "Ketu". A China e os países da Ásia oriental historicamente sujeitos à influência cultural chinesa (como o Japão, Coreia e Vietnam) usam um sistema de nomeação baseado nos cinco elementos da China: água (Mercúrio), metal (Vênus), fogo (Marte), madeira (Júpiter) e terra (Saturno). Na astronomia hebraica tradicional, os sete planetas tradicionais possuem (em sua maior parte) nomes descritivos — o Sol é חמה "Ḥammah", ou "o quente", a Lua é לבנה "Levanah", ou "a branca", Vênus é כוכב נוגה "Kokhav Nogah", ou "o planeta brilhante", Mercúrio é כוכב "Kokhav", ou "o planeta" (devido à falta de características que o distinguissem), Marte é מאדים "Ma'adim", ou "o vermelho", e Saturno é שבתאי "Shabbatai", "o que descansa" (em referência ao seu movimento lento comparado aos outros planetas visíveis). O diferente é Júpiter, chamado צדק "Tzedeq", "justiça". Steiglitz sugere que isto possa ser um eufemismo para o nome original כוכב בעל Kokhav Ba'al, ou "planeta de Baal", visto como idolatria e eufemizado de maneira similar para Isbosete em II Samuel. Em árabe, Mercúrio é عُطَارِد ("ʿUṭārid", cognato com Ishtar / Astarte), Vênus é الزهرة ("az-Zuhara", "o brilhante", um epíteto da deusa Uza), Terra é الأرض ("al-ʾArḍ", da mesma raiz de "eretz"), Marte é اَلْمِرِّيخ ("al-Mirrīkh", significando "flecha sem pena", devido ao seu movimento retrógrado), Júpiter é المشتري ("al-Muštarī", "o confiável", em acadiano) e Saturno é زُحَل ("Zuḥal", "o que se retira"). Formação. Não se sabe com certeza como os planetas se formam. A teoria predominante é que eles são formados quando do colapso de uma nebulosa em um disco fino de gás e pó. Uma protoestrela se forma no núcleo, cercada por um disco protoplanetário giratório. Por meio de acreção (um processo de aglutinação por colisão), partículas de poeira do disco acumulam massa continuamente, formando corpos cada vez maiores. Formam-se concentrações de massa, conhecidas como planetesimais, as quais aceleram o processo de acreção ao atrair material adicional com a sua força gravitacional. Essas concentrações se tornam cada vez mais densas, até que colapsam para seu interior devido à gravidade, formando protoplanetas. Quando um planeta atinge uma massa um tanto maior do que a de Marte, ele começa a acumular uma atmosfera, aumentando muito a frequência de captura de planetesimais, por meio do arrasto atmosférico. Dependendo da história de acreção de sólidos e gases, podem resultar um planeta gigante, um gigante gelado ou um planeta terrestre. Quando a protoestrela cresceu a ponto de se inflamar para formar uma estrela, o disco remanescente é expulso por fotoevaporação, vento solar, arrasto de Poynting-Robertson e outros efeitos. Daí em diante, pode haver muitos protoplanetas orbitando a estrela ou um ao outro, mas com o tempo muitos vão colidir, formando um único planeta maior ou liberando material que será absorvido por outros protoplanetas ou planetas. Os objetos que tiverem massa suficiente vão capturar a maior parte do material na sua vizinhança orbital, tornando-se planetas. Enquanto isso, os protoplanetas que evitarem as colisões podem se tornar satélites naturais de planetas por um processo de captura gravitacional ou permanecer em cinturões com outros objetos, tornando-se planetas anões ou corpos menores. O impacto energético dos pequenos planetesimais, bem como a desintegração radioativa, aquece o crescente planeta, fazendo com que ele se funda, pelo menos parcialmente. O interior do planeta começa a se diferenciar pela massa, desenvolvendo um núcleo mais denso. Os planetas terrestres menores perdem a maior parte da sua atmosfera por causa desta acreção, mas os gases perdidos podem ser repostos pela perda de gás do manto e pelos impactos subsequentes de cometas. Os planetas menores perdem qualquer atmosfera que ganhem, por meio de vários mecanismos de escape. Com a descoberta e observação de sistemas planetários em torno de outras estrelas, torna-se possível elaborar, revisar ou mesmo substituir este processo. Acredita-se atualmente que o nível de metalicidade — um termo astronômico que descreve a abundância de elementos químicos com número atômico maior que 2 (hélio) — determine a probabilidade de uma estrela possuir planetas. Logo, acredita-se que uma estrela da População I rica em metal terá provavelmente um sistema planetário mais substancial do que uma estrela da População II pobre em metal. Sistema Solar. De acordo com as atuais definições da UAI, existem oito planetas no Sistema Solar. Em ordem crescente da distância do Sol, os planetas são: Júpiter é o maior, com 318 vezes a massa da Terra, enquanto Mercúrio é o menor, com 0,055 massa da Terra. Os planetas do Sistema Solar podem ser divididos em categorias com base em sua composição: Planetas extrassolares. Um planeta extrassolar é um planeta fora do Sistema Solar. Até 1º de março de 2021, há 4 687 planetas extrassolares confirmados em 3 463 sistemas, com 770 sistemas tendo mais de um planeta. No início de 1992, os radioastrônomos Aleksander Wolszczan e Dale Fran anunciaram a descoberta de dois planetas orbitando o pulsar PSR 1257+12. Esta descoberta foi confirmada e é geralmente considerada a primeira detecção definitiva de exoplanetas. Acredita-se que esses planetas de pulsar se tenham formado de remanescentes pouco usuais da supernova que produziu o pulsar, numa segunda rodada de formação planetária, ou então são os núcleos rochosos remanescentes de planetas gigantes que sobreviveram à supernova e depois decaíram para a órbita atual. A primeira descoberta confirmada de um planeta extrassolar orbitando uma estrela comum da sequência principal ocorreu em 6 de outubro de 1995, quando Michel Mayor e Didier Queloz, da Universidade de Genebra, anunciaram a detecção de um exoplaneta em torno de 51 Pegasi. A partir daí e até a missão Kepler, a maior parte dos planetas extrassolares eram gigantes gasosos com massa comparável ou maior do que a de Júpiter, uma vez que eles eram detectados mais facilmente. O catálogo de candidatos a planetas Kepler consiste principalmente de planetas do tamanho de Netuno e menores, a até menores que Mercúrio. Há tipos de planetas que não existem no Sistema Solar: superterras e mininetunos, que podem ser rochosos como a Terra ou uma mistura de voláteis e gás como Netuno — um raio de 1,75 vez o da Terra pode ser uma linha divisória entre os dois tipos de planeta. Existem os Jupiteres quentes, que orbitam muito próximo a suas estrelas e podem evaporar para se tornarem planetas ctônicos, que são os remanescentes de núcleos. Outro tipo possível são os planetas de carbono, que se formam em sistemas com proporção de carbono maior do que a do Sistema Solar. Um estudo de 2012, analisando dados de microlente gravitacional, estima uma média de 1,6 planeta ligado a cada estrela da Via Láctea. Em 20 de dezembro de 2011, a equipe do telescópio espacial Kepler registrou a descoberta dos primeiros planetas extrassolares do tamanho da Terra, Kepler-20e e Kepler-20f, orbitando uma estrela similar ao Sol, Kepler-20. Aproximadamente uma em cada cinco estrelas similares ao Sol possuem planeta do tamanho da Terra na zona habitável, portanto a mais próxima seria esperada estar a até 12 anos-luz de distância da Terra. A frequência de ocorrência de tais planetas terrestres é uma das variáveis da equação de Drake, que estima o número de civilizações inteligentes e comunicativas que existem na Via Láctea. Há exoplanetas que estão muito mais próximos da sua estrela do que qualquer planeta do Sistema Solar está do Sol, e também há exoplanetas que estão muito mais distantes da sua estrela. Mercúrio, o planeta mais próximo do Sol, a 0,4 UA, leva 88 dias em uma órbita, mas as órbitas mais curtas conhecidas para exoplanetas levam apenas algumas horas. O sistema Kepler-1 possui cinco dos seus planetas em órbitas mais curtas do que a de Mercúrio, todos eles mais massivos do que Mercúrio. Netuno está a 30 UA do Sol e leva 165 anos para orbitá-lo, mas há exoplanetas que estão a centenas de UA de sua estrela e levam mais de mil anos para orbitá-la, como por exemplo 1RXS1609 b. Objetos de massa planetária. Um objeto de massa planetária ou planemo é um objeto celeste com uma massa dentro da faixa da definição de planeta: suficientemente massivo para alcançar o equilíbrio hidrostático (tornar-se esférico por força de sua própria gravidade), porém não para sustentar a fusão do núcleo como uma estrela. Por definição, todos os planetas são ‘’objetos de massa planetária’’, mas o objetivo deste termo é descrever objetos que não se encaixem nas expectativas típicas de um planeta. Esses incluem planetas anões, que são arredondados por sua própria gravidade (mas não massivos o suficiente para limpar a sua órbita), satélites de massa planetária e planemos livres, que podem ter sido ejetados de um sistema (planeta interestelar) ou formados por colapso de nebulosa e não por acreção (às vezes chamadas subanãs marrons). Planetas anões. Um planeta anão é um objeto de massa planetária que não é nem um planeta verdadeiro nem um satélite natural; ele está em órbita direta de uma estrela, é suficientemente massivo para que sua gravidade o comprima em uma forma hidrostaticamente equilibrada (geralmente um esferoide), mas não limpou sua vizinhança de outros materiais em torno de sua órbita. Alan Stern, cientista planetário e investigador da New Horizons, que propôs o termo "planeta anão", argumentou que a localização não deveria importar e que apenas atributos geofísicos deveriam ser levados em consideração, e que os planetas anões são, portanto, um subtipo de planetas. A UAI aceitou o termo (em vez do mais neutro "planetoide"), mas decidiu classificar os planetas anões como uma categoria separada de objeto. Planetas órfãos. Várias simulações por computador da formação de sistemas estelares e planetários sugeriram que alguns objetos de massa planetária seriam ejetados para o espaço interestelar. Esses objetos são chamados "planetas órfãos" ou "planetas interestelares". Subanãs marrons. As estrelas se formam por meio do colapso gravitacional de nuvens de gás, mas objetos menores também podem se formar a partir do colapso de nuvem. Objetos de massa planetária formados dessa forma são às vezes chamados subanãs marrons. As subanãs marrons podem ser objetos livres, como o Cha 110913-773444 ou o OTS 44, ou orbitar um objeto maior, como o 2MASS J04414489+2301513. Sistemas binários de subanãs marrons são teoricamente possíveis; acreditou-se inicialmente que Oph 162225-240515 seria um sistema binário com uma anã marrom de 14 massas de Júpiter e uma subanã marrom de 7 massas de Júpiter, mas observações posteriores revisaram as estimativas de massa para acima de 13 massas de Júpiter, o que classifica o par como anãs marrons. Planetas satélites. Alguns satélites grandes são de tamanho similar ou maiores do que Mercúrio, como, por exemplo, as luas de Galileu e Titã, de Júpiter. Alan Stern argumentou que a localização não deveria importar e somente atributos geofísicos deveriam ser levados em conta na definição de um planeta, tendo proposto o termo ‘’planeta satélite’’ para um objeto do tamanho de um planeta orbitando outro planeta. Da mesma forma, objetos com tamanho de planetas no cinturão de asteroides ou no cinturão de Kuiper deveriam também ser planetas, de acordo com Stern. Planetas capturados. Planetas interestelares em aglomerados estelares possuem velocidades similares às das estrelas e, portanto, podem ser recapturados. Eles tipicamente são capturados em órbitas largas entre 100 e 105 UA. A eficiência da captura decresce com o aumento do volume do aglomerado, e para um dado aglomerado ela aumenta com a massa da estrela primária. Ela praticamente independe da massa do planeta. Planetas isolados ou múltiplos podem ser capturados em órbitas arbitrariamente desalinhadas, não coplanares entre si ou com a rotação da estrela ou de um sistema planetário pré-existente. Atributos. Embora cada planeta possua características físicas únicas, existem alguns pontos em comum entre eles. Algumas dessas características, como anéis ou satélites naturais, até hoje foram observados somente no Sistema Solar, enquanto outras são também comumente observadas em planetas extrassolares. Características dinâmicas. Órbita. De acordo com as definições atuais, todos os planetas devem girar em torno de estrelas; logo, quaisquer planetas órfãos são excluídos. No Sistema Solar, todos os planetas orbitam o Sol no mesmo sentido da rotação do Sol (anti-horário, para um observador sobre o polo norte do Sol). Pelo menos um planeta extrassolar, WASP-17b, foi descoberto numa órbita em sentido oposto ao da rotação da sua estrela. O período de uma revolução de um planeta em sua órbita é conhecido como o seu período sideral ou ano. Um ano de um planeta depende da sua distância para a sua estrela; quanto mais longe um planeta está da sua estrela, não apenas ele terá maior distância para percorrer, como também menor será sua velocidade, pois ele será menos afetado pela gravidade da estrela. Como nenhuma órbita de planeta é perfeitamente circular, a distância varia ao longo do ano. A maior aproximação para a sua estrela é chamada o seu periastro (periélio no Sistema Solar), enquanto a maior separação é chamada apoastro (afélio). À medida que um planeta se aproxima do periastro, sua velocidade aumenta pela transformação da energia potencial gravitacional em energia cinética, da mesma forma como um objeto em queda livre na Terra ganha velocidade à medida que cai; quando o planeta atinge o apoastro, sua velocidade diminui, da mesma forma como um objeto atirado para cima na Terra perde velocidade quando se aproxima do ápice da sua trajetória. A órbita de cada planeta é definida por um conjunto de elementos: • A excentricidade de uma órbita descreve quão alongada ela é. Planetas com baixa excentricidade têm órbitas mais circulares, enquanto planetas com alta excentricidade têm órbitas mais elípticas. Os planetas do Sistema Solar têm excentricidades muito baixas e, portanto, órbitas quase circulares. Cometas e objetos do Cinturão de Kuiper, assim como vários planetas extrassolares, têm excentricidades muito altas, logo órbitas fortemente elípticas. Inclinação axial. Os planetas também têm graus variados de inclinação axial: eles estão a um determinado ângulo do plano do equador das suas estrelas. Isto faz variar a quantidade de luz recebida em cada hemisfério ao longo do ano; quando o hemisfério norte não está voltado para a sua estrela, o hemisfério sul aponta para ela, e vice-versa. Cada planeta possui, portanto, estações do ano: mudanças no clima ao longo do ano. O momento em que cada hemisfério está mais distante ou mais próximo da sua estrela é chamado solstício. Cada planeta tem dois no curso de um ano; quando um hemisfério tem o seu solstício de verão (o dia é mais longo), o outro tem o seu solstício de inverno (o dia é mais curto). A quantidade variável de luz e calor recebida em cada hemisfério cria mudanças anuais nos padrões de clima em cada metade do planeta. A inclinação axial de Júpiter é muito pequena, portanto sua variação sazonal é mínima. Urano, por outro lado, tem uma inclinação axial tão extrema que ele está virtualmente de lado, o que significa que os seus hemisférios estão sempre iluminados ou sempre na escuridão na época dos seus solstícios. Entre os planetas extrassolares, as inclinações axiais não são conhecidas com certeza, embora se acredite que a maior parte dos Jupiteres quentes tenha inclinação axial desprezível ou nula, como resultado da proximidade com as suas estrelas. Rotação. Os planetas giram em torno de eixos invisíveis que passam pelos seus centros. O período de rotação de um planeta é chamado o seu dia. A maioria dos planetas no Sistema Solar gira no mesmo sentido em que orbita o Sol, que é anti-horário, para um observador acima do polo norte do Sol. Exceções são Vênus e Urano, que giram no sentido horário, embora a extrema inclinação axial de Urano leve a diferentes convenções sobre qual dos seus polos é o "norte" e, portanto, se o planeta está girando no sentido horário ou anti-horário. Entretanto, qualquer que seja a convenção usada, Urano tem rotação retrógrada em relação a sua órbita. A rotação de um planeta pode ser induzida por vários fatores durante a sua formação. Um momento angular resultante pode ser induzido pelas contribuições individuais de momentos angulares de objetos acretados. A acreção de gás pelos gigantes gasosos também pode contribuir para o momento angular. Finalmente, nos últimos estágios da formação do planeta, um processo estocástico de acreção protoplanetária pode alterar randomicamente o eixo de rotação de um planeta. Há uma grande variação na duração de um dia entre os planetas, com Vênus levando 243 dias terrestres para dar uma volta e os gigantes gasosos apenas algumas horas. Os períodos rotacionais de planetas extrassolares não são conhecidos, entretanto, para os Jupiteres quentes, sua proximidade para as suas estrelas significa que estão em acoplamento de maré (suas órbitas estão sincronizadas com suas rotações). Isto significa que eles somente mostram uma face para as suas estrelas, ficando um lado em dia perpétuo e o outro em noite perpétua. Dominância orbital. A característica dinâmica definidora de um planeta é que ele tenha limpado a sua vizinhança. Um planeta que limpou a sua vizinhança acumulou massa suficiente para agrupar ou afastar todos os planetesimais na sua órbita. Com efeito, ele orbita a sua estrela isoladamente, em oposição a compartilhar a órbita com uma multidão de objetos de tamanho similar. Esta característica foi estabelecida como parte da definição oficial de planeta da UAI em agosto de 2006. O critério exclui corpos planetários como Plutão, Éris e Ceres da lista de planetas habilitados, fazendo deles planetas anões. Embora até o momento este critério somente se aplique ao Sistema Solar, alguns sistemas extrassolares jovens foram encontrados nos quais as evidências sugerem que a dominância orbital está acontecendo dentro dos discos estelares. Características físicas. Massa. Uma característica física definidora de um planeta é que ele tenha massa suficiente para que a força de sua própria gravidade domine as forças eletromagnéticas que unem a sua estrutura física, levando a um estado de equilíbrio hidrostático. Isto efetivamente significa que todos os planetas são esféricos ou esferoidais. Até uma determinada massa, um objeto pode ter uma forma irregular, mas a partir deste ponto, que varia em função da sua composição química, a gravidade começa a puxar o objeto em direção ao seu centro de massa, até que ele colapsa, tornando-se uma esfera. A massa é também o primeiro atributo pelo qual os planetas se distinguem das estrelas. O limite superior de massa para planetas é aproximadamente 13 vezes a massa de Júpiter (MJ) para objetos com abundância natural semelhante ao Sol, a partir do que ele ganha condição favorável para a fusão nuclear. Além do Sol, nenhum objeto com tal massa existe no Sistema Solar, mas há planetas extrassolares neste limite. Não há uma concordância universal para o limite de 13 MJ, e a Enciclopédia de Planetas Extrassolares inclui objetos de até 60 MJ, enquanto o Exoplanet Data Explorer considera até 24 massas de Júpiter. O menor planeta conhecido, excluindo planetas anões e satélites, é PSR B1257+12A, um dos primeiros planetas extrassolares descobertos, que foi encontrado em 1992 em órbita de um pulsar. Sua massa é aproximadamente a metade da de Mercúrio. O menor planeta conhecido orbitando uma estrela da sequência principal que não o Sol é Kepler-37b, com massa (e raio) ligeiramente maior do que a da Lua. Diferenciação interna. Todo planeta iniciou sua existência em um estado inteiramente fluido; no início da formação, os materiais mais densos e pesados migraram para o centro, deixando os mais leves perto da superfície. Cada um, portanto, tem o interior diferenciado, consistindo de um núcleo planetário denso, cercado de um manto que é ou era fluido. Os planetas terrestres são selados com crostas duras, mas nos gigantes gasosos o manto simplesmente se dissolve nas camadas superiores de nuvens. Os planetas terrestres possuem núcleos de elementos como ferro e níquel e mantos de silicatos. Acredita-se que Júpiter e Saturno possuam núcleos de rocha e metal, cercados de mantos de hidrogênio metálico. Urano e Netuno, que são menores, possuem núcleos rochosos, cercado de mantos de água, amônia, metano e outros "gelos" (substâncias voláteis com pontos de fusão acima de 100 K). A ação dos fluidos internos aos núcleos dos planetas cria um geodínamo, que gera um campo magnético. Atmosfera. Todos os planetas do Sistema Solar têm atmosferas, uma vez que suas grandes massas tornam a gravidade suficientemente forte para manter partículas gasosas próximas à superfície. Os gigantes gasosos maiores têm massa suficiente para manter grandes quantidades dos gases leves hidrogênio e hélio, enquanto os planetas menores perdem esses gases para o espaço. A composição da atmosfera da Terra é diferente da dos outros planetas porque os diversos processos da vida que ocorreram no planeta introduziram oxigênio molecular livre. As atmosferas planetárias são afetadas pelos variados graus de energia recebida tanto do Sol quanto dos seus interiores, levando à formação de sistemas climáticos dinâmicos, como os furacões (na Terra), tempestades de areia em escala planetária (em Marte), um anticiclone do tamanho da Terra em Júpiter (chamado a Grande Mancha Vermelha) e buracos na atmosfera (em Netuno). Pelo menos em um planeta extrassolar, o HD 189733 b, foi identificado um sistema climático similar à Grande Mancha Vermelha, mas duas vezes maior. Foi observado que os Jupiteres quentes perdem suas atmosferas para o espaço devido à radiação estelar, tal qual as caudas dos cometas. Esses planetas podem ter grandes diferenças na temperatura entre os seus lados de dia e de noite, o que produz ventos supersônicos; no entanto, os lados de dia e de noite do HD 1889733 b parecem ter temperaturas muito similares, indicando que a atmosfera efetivamente redistribui a energia da estrela em torno do planeta. Magnetosfera. Uma característica importante dos planetas são seus momentos magnéticos intrínsecos, que dão origem a magnetosferas. A presença de um campo magnético indica que o planeta ainda é geologicamente ativo. Em outras palavras, planetas magnetizados possuem fluxos de materiais condutores elétricos em seu interior, gerando os campos magnéticos. Esses campos modificam significativamente a interação entre o planeta e o vento solar. Um planeta magnetizado cria uma cavidade no vento solar no seu entorno, chamada magnetosfera, que o vento solar não consegue penetrar. A magnetosfera pode ser muito maior do que o próprio planeta. Em contraste, planetas não magnetizados têm somente pequenas magnetosferas induzidas pela interação da ionosfera com o vento solar, que não é capaz de proteger efetivamente o planeta. Dos oito planetas do Sistema Solar, apenas Vênus e Marte carecem de um campo magnético, enquanto a lua Ganimedes, de Júpiter, possui um. Dos planetas magnetizados, o campo de Mercúrio é o mais fraco, mal conseguindo defletir o vento solar. O campo magnético de Ganimedes é várias vezes maior, enquanto o de Júpiter é o maior do Sistema Solar, tão forte que representa um sério risco para a segurança de futuras missões tripuladas para as suas luas. A força dos campos magnéticos dos outros planetas gigantes é aproximadamente similar à da Terra, mas os seus momentos magnéticos são significativamente maiores. Os campos magnéticos de Urano e Netuno são fortemente inclinados em relação ao eixo rotacional e deslocados do centro do planeta. Em 2004, uma equipe de astrônomos no Havaí observou um planeta extrassolar em torno da estrela HD 179949 que parecia estar criando uma mancha na superfície da sua estrela. A equipe lançou a hipótese de que a magnetosfera do planeta estava transferindo energia para a superfície da estrela, aumentando sua já alta temperatura de °C em mais 400 °C. Características secundárias. Vários planetas ou planetas anões no Sistema Solar, como Netuno e Plutão, têm períodos orbitais que estão em ressonância orbital entre si ou com corpos menores (isto também é comum em sistemas de satélites). Todos, com exceção de Mercúrio e Vênus, têm satélites naturais, frequentemente chamados de "luas". A Terra tem um, Marte dois e os gigantes gasosos têm numerosas luas, em sistemas planetários complexos. Muitas luas de gigantes gasosos têm características similares aos planetas terrestres e planetas anões e algumas têm sido estudadas como possíveis locações para a vida (especialmente Europa). Os quatro gigantes gasosos são também orbitados por anéis planetários de tamanhos e complexidades variados. Os anéis são compostos principalmente de poeira e material particulado, mas podem abrigar pequenas luas cuja gravidade formata e mantém a sua estrutura. Embora a origem dos anéis planetários não seja conhecida com precisão, acredita-se que eles sejam resultado de satélites naturais que tenham caído abaixo do limite de Roche dos seus planetas e foram desintegrados pela força de maré. Não foram observadas características secundárias em planetas extrassolares. Entretanto, acredita-se que a subanã marrom Cha 110913-773444, que foi descrita como um planeta órfão, seja orbitada por um pequeno disco protoplanetário e foi mostrado que a subanã marrom OTS 44 está cercada por um disco protoplanetário substancial de pelo menos dez massas terrestres.
1413
Praxis (engenharia de software)
Praxis (engenharia de software) Praxis é um processo de desenvolvimento de software. Ele tem enfoque educacional, com o objetivo de dar suporte ao treinamento em Engenharia de Software e à implantação de processos em organizações que desenvolvem, mantêm ou contratam software. O processo Praxis é baseado na experiência de consultoria industrial do autor, assim como de alguns dos mais importantes paradigmas da área: Praxis é um modelo oriundo do DCC/UFMG que, segundo seus autores, foi baseado nos modelos RUP (sendo esta sua principal referência), TSP e PSP. Na realidade, trata-se de uma instância (implementação) do RUP, que ganhou expressão no mercado em função de seu "berço" (DCC UFMG - Referência em computação) e por ter sido utilizado em cursos de graduação e pós graduação por longos períodos. Entretanto, existem limitações para sua difusão, falta de divulgação de longo alcance, fora de MG, e a questão do "perfil acadêmico" excessivo do modelo, caracterizado, por exemplo pelo excessivo número de artefatos gerado ao longo do projeto (relatórios, modelos, especificações, etc) Fundamentos. O modelo baseia-se numa visão sobreposta, por duas fontes do mesmo fato: O Desenvolvimento de Software. > A primeira visão é a do "fluxo técnico": - Atividade do engenheiro de software - Gestão de requisitos - Análise (Projeto lógico) - Desenho (Diagramação, UML) - Implementação - Engenharia de Sistemas > A segunda visão é a gerencial, cuja responsabilidade é do gestor de projetos. Cada passo/fase, é vista segundo um "script" estruturado da seguinte forma: - Descrição - Pré Requisito - Insumos - Atividades - Resultados Esperados - Critérios de aprovacao
1415
Plutão
Plutão Plutão, formalmente designado 134340 Plutão (símbolos: e ♇) é um planeta anão do Sistema Solar e o nono maior e décimo mais massivo objeto observado diretamente orbitando o Sol. Originalmente classificado como um planeta, Plutão é atualmente o maior membro conhecido do cinturão de Kuiper, uma região de corpos além da órbita de Netuno. Como outros membros do cinturão de Kuiper, Plutão é composto primariamente de rocha e gelo e é relativamente pequeno, com aproximadamente um quinto da massa da Lua e um terço de seu volume. Ele tem uma órbita altamente inclinada e excêntrica que o leva de 30 a 49 UA do Sol. Isso faz Plutão ficar periodicamente mais perto do Sol do que Netuno (Neptuno). Atualmente Plutão está a 32,9 UA do Sol. Plutão foi descoberto em 1930 por Clyde Tombaugh e até 2006 foi considerado o nono planeta do Sistema Solar. A partir de 1992, com a descoberta de vários outros objetos similares a ele no Sistema Solar externo, sua classificação como um planeta começou a ser questionada, especialmente após a descoberta em 2005 de Éris, 27% mais massivo que Plutão. Em 2006 a União Astronômica Internacional (UAI) criou uma definição formal do termo "planeta", a qual fez Plutão deixar de ser planeta e ganhar a nova classificação de planeta anão, juntamente com Éris e Ceres. Há cientistas que afirmam que Plutão, assim como outros planetas anões e candidatos, deveriam ser classificados como planetas. Plutão tem cinco luas conhecidas: Caronte (a maior, com metade do diâmetro de Plutão), Estige, Nix, Cérbero e Hidra. Plutão e Caronte são às vezes considerados um planeta binário porque o baricentro de suas órbitas não se encontra em nenhum dos corpos, e sim no espaço livre entre eles. A UAI ainda não criou uma definição formal para planetas anões binários, e Caronte é oficialmente classificado como satélite de Plutão. Em 14 de julho de 2015, a sonda espacial "New Horizons" se tornou a primeira a sobrevoar Plutão. Durante seu sobrevoo, a "New Horizons" fez medições e observações detalhadas de Plutão e suas luas. Descoberta. Em 1840, usando mecânica newtoniana, Urbain Le Verrier previu a posição de Netuno, que na época não tinha sido descoberto ainda, com base em perturbações na órbita de Urano. Observações subsequentes de Netuno no final do século XIX fizeram astrônomos especularem que a órbita de Urano estava sendo perturbada por outro planeta. Em 1906, Percival Lowell, fundador do Observatório Lowell, iniciou um grande projeto de procurar um possível nono planeta, que ele chamou de Planeta X. Em 1909, Lowell e William H. Pickering sugeriram várias possíveis coordenadas celestiais para esse planeta. Lowell continuou observando o céu à procura do Planeta X até sua morte em 1916, mas não achou nada. Apesar disso, ele fotografou Plutão duas vezes, mas não o reconheceu. Depois da morte de Lowell, a busca pelo Planeta X ficou parada até 1929, quando Vesto Melvin Slipher deu a tarefa de achar o Planeta X a Clyde Tombaugh, que tinha acabado de chegar ao Observatório Lowell. A tarefa de Tombaugh foi fotografar o céu noturno e depois de duas semanas tirar outra foto, e então examinar os pares de fotos para ver se houve movimento de algum objeto. Em 18 de fevereiro de 1930, depois de cerca de um ano de observações, Tombaugh descobriu um possível objeto em movimento em fotografias tiradas em 23 de janeiro e em 29 de janeiro daquele ano. Uma imagem de menor qualidade tirada em 21 de janeiro ajudou a confirmar o movimento. Depois de observações feitas para confirmar o movimento, notícias da descoberta foram telegrafadas para o Harvard College Observatory em 13 de março de 1930. Nomeação. O Observatório Lowell, que tinha o direito de nomear o novo planeta, recebeu mais de 1 000 sugestões do mundo inteiro, variando de Atlas a Zynal. Tombaugh pediu a Slipher que sugerisse um nome para o objeto antes que alguém fizesse isso. Constance Lowell também sugeriu alguns nomes, incluindo Zeus, Lowell e o seu próprio primeiro nome, porém essas sugestões foram ignoradas. O nome Plutão foi sugerido por Venetia Burney (mais tarde Venetia Phair), uma menina de onze anos de Oxford. Venetia era interessada em mitologia clássica assim como em astronomia, e escolheu o nome do deus romano do submundo, Plutão, adequado para um objeto presumivelmente escuro e gelado. Ela sugeriu o nome durante uma conversa com seu avô, Falconer Madan, um ex-bibliotecário da Biblioteca Bodleiana. Madan passou o nome ao professor Herbert Hall Turner, que telegrafou para seus colegas nos Estados Unidos. O objeto foi nomeado oficialmente em 24 de março de 1930. Cada membro do Observatório Lowell podia votar em um nome de uma pequena lista de três opções: Minerva (que já era o nome de um asteroide), Cronos (que perdeu reputação por ter sido proposto pelo astrônomo impopular Thomas Jefferson Jackson See) e Plutão. Plutão recebeu todos os votos. O nome foi anunciado em 1 de maio de 1930. Depois de anúncio do nome, Venetia recebeu cinco libras como recompensa. Logo em seguida, o nome foi usado pela cultura popular: o personagem da Disney Pluto foi nomeado em homenagem ao "novo" planeta. Em 1941, Glenn Theodore Seaborg nomeou o elemento recém-descoberto plutônio a partir de Plutão, mantendo a tradição de nomear elementos a partir de planetas recém-descobertos, como urânio, que foi nomeado a partir de Urano, e netúnio, que foi nomeado a partir de Netuno. Objetos no sistema de Plutão são tradicionalmente nomeados em homenagem a figuras em mitologias do submundo, de modo que algumas características se mantêm nesse tema. A fossa de Sleipnir é uma longa e estreita depressão, nomeada para o cavalo de oito patas que levou o deus nórdico Odin ao mundo dos mortos. Adlivun Cavus é um poço chamado por conta do submundo inuit. Tartarus Dorsa é uma crista elevada, ironicamente chamada para o poço mais profundo e mais sombrio do submundo grego. Morte do Planeta X. Quando achado, o pequeno brilho de Plutão e a falta de um disco resolúvel causaram dúvidas se ele era o Planeta X. A sua massa estimada foi diminuindo conforme o século XX foi passando, e foi apenas em 1978, com a descoberta da lua Caronte, que se tornou possível a medição de sua massa pela primeira vez. A massa de Plutão, que é de apenas 0,2% da massa da Terra, era muito pequena para explicar as perturbações na órbita de Urano. Buscas subsequentes para achar o Planeta X, feitas principalmente por Robert Sutton Harrington, falharam. Em 1992, Myles Standish usou dados obtidos pela visita da Voyager 2 a Netuno, que revisou sua massa total, para recalcular seus efeitos gravitacionais em Urano. Com as novas informações, as perturbações foram explicadas, e a necessidade do Planeta X sumiu. Atualmente, a maioria dos cientistas concorda que o Planeta X, como Lowell o descreveu, não existe. Em 1915, Lowell fez previsões da posição do Planeta X, que foi próxima da posição real de Plutão naquela época; no entanto, Ernest W. Brown concluiu que isso foi apenas uma coincidência. Nomenclatura. O nome de Plutão foi escolhido em parte para invocar as letras iniciais do nome do astrônomo Percival Lowell. Um de seu símbolos astronômicos é um monograma P-L (). O outro é semelhante ao de Netuno (), mas em vez do tridente há um círculo (). Estes são raros na astronomia hoje, mas comuns na astrologia. Em japonês, chinês e coreano, o nome Plutão foi traduzido como "estrela rei do submundo" (冥王星), como sugerido por Hōei Nojiri em 1930. Muitas outras línguas não-europeias usam uma transliteração de "Plutão" como seus nomes para o objeto; no entanto, algumas línguas indianas usam uma forma de Yama, o guardião do inferno da mitologia hindu, como "Yamdev" em guzerate. Órbita e rotação. Plutão leva 248 anos para completar uma órbita. Desde que foi descoberto, Plutão ainda não completou uma volta ao redor do sol. Isso ocorrerá somente em 2178. Suas características orbitais são bastante diferentes das dos planetas, que seguem uma órbita quase circular ao redor do Sol próximo a um plano horizontal chamado eclíptica. Em contraste, a órbita de Plutão é altamente inclinada em relação à eclíptica (mais de 17°) e excêntrica. Devido a essa excentricidade, uma pequena parte da órbita de Plutão está mais próxima do Sol do que a de Netuno. A última vez que Plutão ficou mais próximo do Sol do que Netuno foi entre 7 de fevereiro de 1979 e 11 de fevereiro de 1999. Cálculos precisos indicam que a vez anterior que isso aconteceu durou apenas 14 anos, entre 11 de julho de 1735 e 15 de setembro de 1749, enquanto que de 30 de abril de 1483 a 23 de julho de 1503 também durou 20 anos. Apesar de esse padrão repetitivo sugerir uma órbita regular, a órbita de Plutão é, a longo prazo, caótica. Atualmente Plutão está a 32,32 UA do Sol. Relação com Netuno. Apesar de a órbita de Plutão parecer cruzar a órbita de Netuno numa perspectiva de cima, as órbitas dos dois objetos estão alinhadas, e então eles não podem colidir, ou nem mesmo se aproximar um do outro. Ao analisar as órbitas de Plutão e Netuno, pode-se observar que elas não se cruzam. Quando Plutão está mais perto do Sol do que Netuno, a sua órbita cruza a de Netuno, vista de cima; porém ela está 8 UA acima do caminho de Netuno, evitando uma colisão. Os nodos orbitais de Plutão (os pontos onde sua órbita atravessa a eclíptica) são separados dos de Netuno por mais de 21°. No entanto, apenas isso não é suficiente para proteger Plutão. Perturbações dos planetas (especialmente Netuno) poderiam alterar aspectos da órbita de Plutão ao longo de milhões de anos, e uma colisão seria possível. O mecanismo mais significativo que evita Plutão e Netuno de colidirem é a ressonância orbital de 3:2 que há entre eles, ou seja, a cada três órbitas que Netuno faz ao redor do Sol, Plutão faz duas. Então, os dois objetos voltam a suas posições iniciais e o ciclo de 500 anos continua. Esse padrão se repete e a cada ciclo de 500 anos, durante o primeiro periélio de Plutão, ele está a 50° "na frente" de Netuno, enquanto no segundo está a 50° "atrás" de Netuno. A ressonância 3:2 entre Plutão e Netuno é estável, e é preservada por milhões de anos. Isso evita que uma órbita mude em relação à outra; o ciclo sempre repete-se do mesmo jeito, e os dois corpos nunca passam perto um do outro. Portanto, mesmo se a órbita de Plutão não fosse inclinada, ele e Netuno nunca se colidiriam. Outros fatores. Estudos numéricos mostraram que, ao longo de milhares de anos, a natureza geral do alinhamento entre Plutão e Netuno não muda. No entanto, há várias outras ressonâncias e interações que governam os detalhes de seu movimento relativo, e melhoram a estabilidade de Plutão. Isso vem principalmente de outros dois mecanismos (além da ressonância 3:2). Primeiro, o argumento do periélio de Plutão, o ângulo entre os pontos onda ele cruza e eclíptica e o ponto onde ele está mais próximo do Sol, libra cerca de 90°. Isso significa que quando Plutão está mais perto do Sol, ele também está no seu ponto mais longe do plano do Sistema Solar, evitando encontros com Netuno. Isso é uma consequência direta do mecanismo Kozai. Em relação a Netuno, a amplitude de libração é de 38°, então a separação angular do periélio de Plutão com a órbita de Netuno é sempre maior que 52° (90°–38°). Uma separação angular como essa mais perto ocorre a cada 10 000 anos. Segundo, as longitudes dos nós ascendentes dos dois corpos (o ponto onde eles cruzam a eclíptica) estão em uma ressonância próxima com a libração. Quando as duas longitudes estão iguais o periélio de Plutão se localiza exatamente a 90°, e ele chega mais perto do Sol em seu pico acima da órbita de Netuno. Em outras palavras, quando Plutão intercepta o plano da órbita de Netuno mais perto, ele precisa estar em seu ponto mais longe além dele. Isso é conhecido como "super-ressonância 1:1", e é controlada por todos os planetas jovianos. Descoberta em 2015, embora a equipe da missão New Horizons ainda não está pronto para declarar que as manchas observadas são gêiseres atirando plumas de vapores sobre Plutão, os cientistas dizem que as manchas e estrias se assemelham a gêiseres ativos na lua de Netuno, Tritão que foram descobertos em 1989. Rotação. O período de rotação de Plutão é igual a 6,39 dias. Como Urano, Plutão gira de "lado" em relação ao seu plano orbital, como uma inclinação axial de 120°, então a variação entre suas estações do ano é extrema; durante o solstício, um hemisfério está permanentemente de dia, enquanto o outro está permanentemente de noite. Características físicas. Plutão está muito longe da Terra, o que dificulta observações detalhadas e envio de sondas. Alguns detalhes de Plutão foram revelados pela sonda New Horizons em 2015, ainda muito detalhes vão continuar desconhecidos. O coração de Plutão. De todas as características físicas, a "Sputnik Planitia" originalmente chamada "Sputnik Planum", popularmente conhecida como o coração de Plutão, é hoje a característica geográfica mais reconhecível do planeta. Essas planícies em forma de coração, segundo um estudo, são recortadas com dunas de areia, onde a areia é feita de gelo sólido de metano. Geografia. A geografia plutoniana está voltada principalmente para o que é chamado geografia física na Terra; isto é, a distribuição de características físicas em todo Plutão e suas representações cartográficas. Em 14 de julho de 2015, a espaçonave New Horizons se tornou a primeira espaçonave a voar por Plutão e durante seu breve sobrevoo, a sonda fez medições geográficas e observações detalhadas de Plutão e suas luas. Aparência e superfície. A magnitude aparente média de Plutão é 15,1, aumentando para 13,65 durante o perélio. Para vê-lo, é necessário um telescópio com uma abertura de pelo menos 30 cm. Visto ao telescópio, ele tem aparência similar à de uma estrela e não possui disco visível devido ao seu diâmetro angular, que é de apenas 0,11"; até mesmo visto em telescópios grandes, Plutão é visto como um ponto iluminado, refletindo a luz do Sol. A distância e os atuais limites de telescópios fazem com que seja que impossível fotografar detalhes da superfície de Plutão. Os mapas mais antigos de Plutão, feitos na década de 1980, eram mapas do brilho de Plutão feitos a partir de observações de eclipses causados por sua maior lua, Caronte. Observações foram feitas com as mudanças do brilho total médio do sistema Plutão-Caronte durante os eclipses. Por exemplo, eclipsando um ponto brilhante de Plutão muda o brilho total mais do que eclipsando um ponto escuro. Processamentos por computador de muitas observações assim podem ser usados para gerar um mapa de brilho. Esse método também pode ser usado para observar mudanças no brilho ao longo do tempo. Os mapas até então disponíveis de Plutão foram produzidos a partir de observações feitas pelo Telescópio Espacial Hubble, que ofereciam a melhor resolução possível com a tecnologia atual, e mostram vários detalhes, incluindo regiões polares e grandes pontos brilhantes. Os mapas são produzidos por um complexo processamento por computador, que encontra a melhor posição para as pequenas imagens do Hubble. Como as duas câmeras do Hubble usadas para gerar esses mapas não estão mais funcionando, esses mapas ficaram sendo os melhores mapas de Plutão até a visita da sonda New Horizons em 2015. Esses mapas, juntos com a curva de luz de Plutão e as variações periódicos em seu espectro infravermelho, revelaram que a superfície de Plutão é notavelmente variável, com grandes mudanças no brilho e na cor. Plutão é um dos objetos com mais contraste do Sistema Solar, com tanto contraste quanto a lua de Saturno Jápeto. As cores variam entre preto, laranja escuro e branco. Buei "et al". descreveu a superfície de Plutão como "bem menos vermelha que Marte, e bastante semelhante a Io, porém um pouco mais laranja". A superfície de Plutão mudou entre 1994 e 2003: a região polar do norte ficou mais brilhante o hemisfério sul escureceu. A vermelhidão geral de Plutão também aumentou consideravelmente, entre 2000 e 2002. Essas mudanças rápidas provavelmente estão relacionadas a variações de estações do ano, que são grandes em Plutão devido à inclinação axial e à excentricidade orbital. Análises espectroscópicas da superfície de Plutão revelaram que ela é composta mais de 98% de gelo de nitrogênio, com traços de metano e monóxido de carbono. Um hemisfério de Plutão contém mais gelo de metano, enquanto o outro contém mais gelo de nitrogênio e monóxido de carbono. Geologia. Estrutura. Observações de Plutão feitas pelo telescópio Hubble estimam uma densidade entre 1,8 e 2,1 g/cm3, sugerindo uma composição interna de aproximadamente 60% de rocha e 40% de gelo. Como a decadência de minerais radioativos eventualmente iria aquecer os gelos o suficiente para as rochas se separarem deles, cientistas esperam que a estrutura interna de Plutão seja diferenciada, com o material rochoso estabilizado em um denso núcleo cercado por um manto de gelo. O diâmetro do núcleo deve ser de cerca de 1 700 km, 70% do diâmetro de Plutão. É possível que o aquecimento continue atualmente, criando uma camada de oceano líquido de 100 a 180 km de profundidade no núcleo. O "Institute of Planetary Research" do DLR calculou que a relação densidade-raio de Plutão está em uma zona de transição, junto com Tritão, e entre satélites gelados como as luas de tamanho médio de Saturno e Urano e os satélites rochosos como Europa. Massa e tamanho. A massa de Plutão é de 1,32×1022 kg, menos de 0,24% da massa da Terra, enquanto que as melhores estimativas para seu diâmetro são de 2 306 (± 20) km, aproximadamente 66% do diâmetro da Lua. Determinações do tamanho de Plutão são complicadas por sua atmosfera e névoa de hidrocarboneto. Astrônomos, inicialmente pensando que Plutão era o Planeta X, inicialmente calcularam sua massa a partir dos efeitos em Urano e Netuno. Em 1955 foi calculado que Plutão tinha aproximadamente a mesma massa da Terra, e em 1971, outros cálculos abaixaram sua massa para aproximadamente a massa de Marte. No entanto, em 1976, Dale Cruikshank, Carl Pilcher e David Morrison, da Universidade do Havaí, calcularam seu albedo pela primeira vez, e foi descoberto que Plutão era muito luminoso para ter aquele tamanho e portanto não podia ter mais de 1% da massa da Terra. O albedo de Plutão é de 1,3 a 2,0 vezes maior que o da Terra. Em 1978, com a descoberta de Caronte, foi possível determinar a massa do sistema Plutão-Caronte pela primeira vez. Quando os efeitos gravitacionais de Caronte foram medidos, a verdadeira massa de Plutão pôde ser determinada. Observações de Plutão em ocultações por Caronte permitiu os cientistas medirem seu diâmetro, enquanto a invenção da óptica adaptativa permitiu determinar sua forma precisamente. Entre os objetos do Sistema Solar, Plutão é menor que os planetas telúricos, e com menos 0,2 vezes a massa lunar é menos massivo que sete satélites naturais: Ganimedes, Titã, Calisto, Io, a Lua, Europa e Tritão. Plutão tem mais do dobro do diâmetro do planeta anão Ceres, o maior asteroide do cinturão de asteroides, e doze vezes sua massa. No entanto, ele é menos massivo que o planeta anão Éris, um objeto transneptuniano descoberto em 2006. Como há uma grande incerteza nas estimativas de diâmetro dos dois corpos, não se sabe qual é maior. Atmosfera. A atmosfera de Plutão consiste em uma fina camada de nitrogênio, metano e gases de monóxido de carbono, que são derivados dos gelos dessas substância na superfície. Sua pressão superficial varia de 6,5 a 24 μbar. A órbita alongada de Plutão tem um grande efeito em sua atmosfera: conforme Plutão se distancia do Sol, a sua atmosfera congela gradualmente e cai na superfície, e quando ele se aproxima do Sol, a temperatura na sua sólida superfície aumenta, causando os gelos sublimarem para gás. Isso cria um efeito antiestufa: a sublimação esfria a superfície de Plutão. Recentemente foi descoberto que a temperatura de Plutão é de cerca de 43 K (−230 °C), 10 K mais fria do esperado. A presença de metano, que é um poderoso gás do efeito estufa, na atmosfera de Plutão cria uma inversão térmica, com temperaturas 36 K mais quente 10 km acima da superfície. A atmosfera inferior contém uma concentração maior de metano que a atmosfera superior. A primeira evidência da atmosfera de Plutão foi descoberta pelo Kuiper Airborne Observatory em 1985, a partir de observações de uma ocultação de uma estrela atrás de Plutão. Quando um objeto sem atmosfera passa na frente de uma estrela, ela desaparece bruscamente. No caso de Plutão, a estrela apenas escureceu gradualmente. A partir da taxa de escurecimento, foi determinado que a pressão atmosférica era de 0,15 pascal, aproximadamente 1/700 000 a da Terra. A conclusão foi confirmada e foi reforçada por outras observações de uma outra ocultação em 1988. Em 2002, uma outra ocultação estelar por Plutão foi observada e analisada por equipes lideradas por Bruno Sicardy do Observatório de Paris, James L. Elliot do Instituto de Tecnologia de Massachusetts e Jay Pasachoff do Williams College. Surpreendentemente, a pressão atmosférica foi estimada em 0,3 pascal, mesmo que Plutão estivesse mais longe do Sol que em 1988 e portanto a sua atmosfera deveria estar mais fria e rarefeita. Uma explicação para isso é que em 1987 o polo sul de Plutão saiu da sombra pela primeira vez em 120 anos, causando o nitrogênio extra sublimar da calota polar. Vai levar décadas para que o excesso de nitrogênio condense para fora da atmosfera enquanto ele congela em direção à escura calota de gelo do polo norte. Dados do mesmo estudo revelaram o que pode ser a primeira evidência de vento na atmosfera de Plutão. Em outubro de 2006, Dale Cruikshank do NASA/Ames Research Center e seus colegas anunciaram a descoberta espectroscópica de etano na atmosfera de Plutão. O etano é produzido pela fotólise ou radiólise (a conversão química orientada pela luz solar ou partículas carregadas) do metano congelado na superfície que então vai para a atmosfera. Satélites naturais. Plutão possui cinco satélites naturais conhecidos: Caronte, descoberto em 1978 pelo astrônomo James Walter Christy, e outras quatro luas menores, Nix e Hidra, ambas descobertas em 2005, Cérbero, descoberta em 2011, e Estige, descoberta em julho de 2012. As luas de Plutão estão estranhamente perto de Plutão em comparação com outros sistemas. Luas poderiam potencialmente orbitar Plutão a mais de 53% (69%, se retrógradas) do raio da esfera de Hill, a zona gravitacional estável da influência de Plutão. Psámata, por exemplo, orbita Netuno a 40% do raio de Hill. No caso de Plutão, somente os 3% internos da zona são ocupados por satélites. De acordo com os descobridores, o sistema de Plutão aparenta ser "altamente compacto e amplamente vazio", embora outros apontem a possibilidade de um sistema de anéis. Caronte. O sistema Plutão-Caronte é notável por ser o maior dos poucos planetas binários do Sistema Solar, definidos assim quando o baricentro se localiza acima da superfície do corpo primário (617 Patroclus é um exemplo menor). Isso e o grande tamanho de Caronte em relação a Plutão levou alguns astrônomos a chamá-lo de um planeta anão duplo. O sistema também é incomum pelo fato de haver acoplamento de marés nele, ou seja, o lado de Plutão virado para Caronte é sempre o mesmo e vice-versa. Por causa disso, o período de rotação dos dois corpos é igual ao período orbital em volta do centro de massa comum. Como Plutão gira de lado em relação ao plano orbital, o sistema Caronte também faz isso. Em 2007, observações de hidrato de amônia e cristais de água na superfície de Caronte feitas pelo Observatório Gemini sugerem a presença de crio-gêiseres ativos. Nix e Hidra. Duas luas de Plutão adicionais foram fotografadas pelo Telescópio Espacial Hubble em 15 de maio de 2005, que receberam as designações provisórias S/2005 P 1 e S/2005 P 2. A União Astronômica Internacional nomeou oficialmente essas luas de Nix e Hidra em 21 de julho de 2006. Essas pequenas luas orbitam Plutão a aproximadamente duas e três vezes, respectivamente, a distância de Plutão a Caronte: Nix a 48 700 km e Hidra a 64 800 km do baricentro do sistema. Elas têm órbitas prógradas quase circulares que estão no mesmo plano orbital de Caronte e estão bem perto de uma ressonância orbital 4:1 e 6:1 com Caronte. Observações de Nix e Hidra para revelar características individuais estão em andamento. Às vezes Hidra é mais brilhante que Nix, sugerindo que é maior ou possui partes da sua superfície que variam o brilho. Os tamanhos são estimados a partir dos albedos. A similaridade espectral de Nix, Hidra e Caronte sugerem um albedo de 35%, similar ao de Caronte. Esse valor resulta em um diâmetro estimado de 46 km para Nix e 61 km para Hidra. O limite do diâmetro pode ser estimado assumindo o albedo de 4% dos objetos mais escuros do cinturão de Kuiper. Esses limites são de (137 ± 11) km e (167 ± 10) km, respectivamente. A descoberta de duas pequenas luas sugerem que Plutão pode ter um sistema de anéis variável. Impactos de pequenos corpos podem criar detritos que podem virar anéis planetários. Dados de uma pesquisa óptica pela Advanced Camera for Surveys do Hubble sugerem que não há nenhum sistema de anéis em Plutão. Se um anel existir, ele é tênue como os anéis de Júpiter ou está fortemente confinado a menos de 1 000 km de largura. Conclusões similares foram feitas a partir de estudos de ocultações. Ao fotografar o sistema de Plutão, observações do Hubble colocaram limite em qualquer lua adicional. Com 90% de certeza, nenhuma lua adicional com mais de 12 km (ou no máximo 37 km com um albedo de 0,041) existe além do brilho de Plutão cinco segundos de arco do planeta anão. Isso assume um albedo de 0,38 como o de Caronte; com 50% de certeza o limite é 8 km. Hipotetiza-se que as luas de Plutão tenham se originado a partir da colisão entre este e um outro corpo de tamanho similar, nos primórdios da formação do sistema solar. A colisão teria liberado material que se consolidou nas luas que atualmente orbitam Plutão. No entanto, a lua Cérberos possui um albedo muito menor que as outras luas, o que é difícil de explicar tendo por base a hipótese de colisão gigante. Origens. A origem e identidade de Plutão vem intrigando astrônomos. Uma hipótese inicial era que Plutão era uma lua que escapou de Netuno, e foi jogado para longe pela sua maior lua, Tritão. Essa teoria foi bastante criticada porque Plutão nunca chega perto de Netuno em sua órbita. A verdadeira localização de Plutão no Sistema Solar começou a ser revelada apenas em 1992, quando astrônomos descobriram uma população de pequenos objetos gelados além de Netuno que eram similares a Plutão não apenas em órbita mas em tamanho e composição também. Acredita-se que essa população transneptuniana é a fonte de muitos cometas de curto período. Atualmente acredita-se que Plutão seja o maior membro do cinturão de Kuiper, um anel estável de objetos localizados entre 30 e 50 UA do Sol. Assim como outros objetos do cinturão de Kuiper, Plutão compartilha características com cometas. Por exemplo, o vento solar está gradualmente assoprando a superfície de Plutão para o espaço, assim como os cometas. Se Plutão fosse colocado tão perto do Sol quanto a Terra, ele iria desenvolver uma cauda, como os cometas fazem. Embora Plutão seja o maior dos objetos conhecidos do cinturão de Kuiper, a lua de Netuno Tritão, que é um pouco maior que Plutão, é similar a ele tanto geológica quanto atmosfericamente; por isso, acredita-se que seja um objeto do cinturão de Kuiper que foi capturado. Éris também é maior que Plutão, mas não é considerado um objeto do cinturão de Kuiper estritamente; em vez disso, é considerado membro de uma população próxima, chamada disco disperso. Um grande número de objetos do cinturão de Kuiper, como Plutão, está em uma ressonância orbital 3:2 com Netuno. Objetos transnetunianos assim são chamados de plutinos, nome dado a partir de Plutão. Assim como outros membros do cinturão de Kuiper, pensa-se que Plutão seja um planetesimal residual, um componente do disco protoplanetário original ao redor do Sol que falhou em virar um planeta completamente desenvolvido. Muitos astrônomos concordam que foi a migração planetária sofrida por Netuno na formação do Sistema Solar que trouxe Plutão para a sua posição atual. Durante a migração, Netuno se aproximou dos objetos do cinturão de Kuiper, quando capturou Tritão e deixou outros objetos em ressonância ou com órbita caótica. Os objetos do disco disperso provavelmente foram colocados em suas posições atuais devido a interações com Netuno durante a migração. Um modelo de computador de 2004 feito por Alessandro Morbidelli, do Observatoire de la Côte d'Azur em Nice, sugere que a migração de Netuno para o cinturão de Kuiper pode ter sido causada pela formação de uma ressonância 1:2 entre Júpiter e Saturno, que criou um empurrão gravitacional que moveu tanto Urano quanto Netuno para órbitas maiores e os fez trocarem de lugar, dobrando a distância de Netuno ao Sol. A expulsão resultante de objetos do proto-cinturão de Kuiper pode explicar também o intenso bombardeio tardio, ocorrido 600 milhões de anos após a formação do Sistema Solar, e a origens dos asteroides troianos de Júpiter. É possível que Plutão tenha tido uma órbita quase circular a cerca de 33 UA do Sol antes das perturbações causadas pela migração de Netuno. O modelo de Nice requer que tenha havido cerca de mil objetos do tamanho de Plutão no disco planetesimal original, que podem incluir os corpos que formaram Tritão e Éris. Exploração. Plutão apresenta grandes desafios para naves espaciais devido à sua pequena massa e grande distância da Terra. A Voyager 1 poderia ter visitado Plutão, mas os controladores optaram por um sobrevoo pela lua de Saturno Titã, resultando em uma trajetória incompatível com um sobrevoo por Plutão. A Voyager 2 nunca teve uma trajetória plausível para sobrevoar Plutão. Nenhuma tentativa séria de explorar Plutão ocorreu até a década de 1990, quando foi proposto o Pluto Kuiper Express, cujo lançamento estava previsto para 2004. Porém, em 2000, a NASA teve que cancelar essa missão, citando aumento nos custos e atraso do veículo de lançamento. Depois de uma intensa batalha política, foi concedido financiamento para uma outra missão para explorar Plutão, chamada de New Horizons. A sonda New Horizons foi lançada com sucesso em 19 de janeiro de 2006. O líder da missão, Alan Stern, confirmou que algumas das cinzas de Clyde Tombaugh, que morreu em 1997, foram colocadas a bordo dela. No início de 2007, a sonda usou a gravidade assistida de Júpiter. A sua maior aproximação de Plutão ocorreu em 14 de julho de 2015. Observações científicas começaram cinco meses da aproximação máxima e continuaram por um mês depois dela. A New Horizons tirou as suas primeiras fotos de Plutão no final de setembro de 2006, durante um teste do Long Range Reconnaissance Imager (LORRI). As imagens, tiradas de uma distância de aproximadamente 4,2 bilhões de quilômetros, confirmaram a habilidade da sonda em seguir objetos distantes, algo importante para ir em direção a Plutão e outros objetos do cinturão de Kuiper. A sonda New Horizons conta com diversos instrumentos científicos, como instrumentos para criar mapas da superfície, para fazer análises atmosféricas e espectrômetros. A energia elétrica usada por esses instrumentos é fornecida por um único gerador termoelétrico de radioisótopos, que geralmente é usado em missões que não podem utilizar a energia solar. As luas Nix e Hidra podem gerar desafios imprevistos para a New Horizons. Detritos de colisões entre os objetos do cinturão de Kuiper e elas, com as suas velocidades de escape relativamente baixas, pode produzir um pequeno anel de poeira. Se a sonda voar em um sistema de anéis assim, há uma possibilidade de ela ser atingida por micrometeoritos que poderiam desabilitá-la. Classificação. Após a determinação do lugar de Plutão no cinturão de Kuiper, a sua classificação oficial como um planeta começou a ser controversa. Diretores de museus e planetários ocasionalmente criaram controvérsia por omitir Plutão de modelos planetários do Sistema Solar. O Planetário Hayden reabriu em 2000 com um modelo de apenas oito planetas. A controvérsia foi muito discutida na época. Em 2000 foi descoberto o objeto transneptuniano 50000 Quaoar, com um diâmetro na época pensado ser de aproximadamente 1 260 km, cerca de metade do de Plutão. Em 2004, os descobridores de 90377 Sedna colocaram um limite de 1 800 km no seu diâmetro, próximo ao de Plutão (2 320 km), embora esse valor tenha caído para 1 600 em 2007. Foi argumentado que assim como Ceres, Palas, Juno e Vesta perderam a classificação de planeta após a descoberta de outros asteroides parecidos, Plutão também deveria deixar de ser planeta após a descoberta de corpos celestes de aspecto semelhante. Em 29 de julho de 2005, foi anunciada a descoberta de Éris, pela equipe liderada pelo astrônomo Michael E. Brown, do Instituto de Tecnologia da Califórnia. Éris, que tem aproximadamente o mesmo tamanho de Plutão, foi o maior objeto do Sistema Solar descoberto desde a descoberta de Tritão em 1846. Os descobridores de Éris e a imprensa chamavam-no inicialmente de "o décimo planeta", embora não tenha havido nenhum consenso na época de forma a considerá-lo um planeta oficial. Outros astrônomos consideraram a descoberta de Éris um dos argumentos mais fortes para reclassificar o planeta como um asteroide. Classificação de 2006 da UAI. Em 2006, a UAI criou uma definição formal para o termo planeta. De acordo com essa definição, há três condições principais para um objeto ser considerado um planeta: Plutão não cumpriu a terceira condição, já que a sua massa é de apenas 0,07 vezes a massa dos outros objetos de sua órbita (a massa da Terra, por contraste, é 1,7 milhões de vezes a massa dos outros objetos de sua órbita). Então a UAI decidiu que Plutão seria incluído em uma nova categoria chamada planeta anão, e que ele seria o protótipo da categoria de objetos transneptunianos plutoides. Em 13 de setembro de 2006, A UAI incluiu Plutão, Éris e Disnomia no catálogo de asteroides mantido pelo Minor Planet Center, dando a eles as designações oficiais () Plutão, () Éris e () Éris I Disnomia. Se Plutão recebesse essa designação logo após a sua descoberta, o número seria perto de mil, ao invés de mais de cem mil. Houve resistência na comunidade astronômica em relação à reclassificação de Plutão. Alan Stern, principal investigador da missão New Horizons, ridicularizou publicamente a decisão da UAI, declarando que "a definição cheira mal, por razões técnicas". A argumentação de Stern é que pelos termos da nova definição, a Terra, Marte, Júpiter e Netuno, que compartilham suas órbitas com asteroides, deixariam de ser planetas. Ele também disse que menos de 5% dos astrônomos mundiais votaram na nova definição, e que ela não representou toda a comunidade astronômica. Marc W. Buie, do Observatório Lowell, manifestou sua opinião sobre a nova definição em seu site e é um dos peticionários contra a definição. Outros astrônomos apoiaram a UAI, como Mike Brown, o descobridor de Éris, que disse: "a ciência está se autocorrigindo eventualmente, mesmo quando fortes emoções estão envolvidas". Em decorrência da descoberta de Éris, o estopim para a reclassificação de Plutão, em 2010, Michael Brown publicou o livro How I Killed Pluto and Why It Had It Coming, em que ele humoristicamente refere-se a si mesmo como o homem que matou Plutão. Em 14 de agosto de 2008, astrônomos se reuniram no Applied Physics Laboratory para uma conferência sobre a atual definição de planeta chamada de "O Grande Debate de Planeta". Nela foi publicada um comunicado dizendo que os cientistas não poderiam chegar em um consenso sobre a definição de planeta. Um pouco antes da conferência, em 11 de junho de 2008, a UAI anunciou que o termo plutoide iria ser usado para descrever Plutão e outros objetos similares a ele que têm um semieixo maior maior que o de Netuno e massa suficiente para serem praticamente esféricos. Reação pública à mudança. A recepção à decisão da UAI foi misto. Enquanto alguns aceitaram a reclassificação de Plutão, outros procuraram reclassificar Plutão a planeta com petições online pedindo para a UAI fazer isso. Uma resolução introduzida por alguns membros da assembleia do estado da Califórnia denunciaram a UAI por "heresia científica", e outros crimes. A Câmara dos Representantes do Novo México passou uma resolução em homenagem a Tombaugh, que foi um residente daquele estado, e declarou que Plutão sempre será considerado um planeta lá e que 13 de março de 2007 é o dia de Plutão. O Senado de Illinois passou uma resolução similar em 2009, com base no fato de Clyde Tombaugh ter nascido em Illinois. A resolução afirmou que Plutão foi injustamente rebaixado a planeta anão pela UAI. Alguns também rejeitaram a reclassificação, citando desacordo na comunidade científica, ou por razões sentimentais, dizendo que sempre vão conhecer Plutão como um planeta independentemente da decisão da UAI. "Plutoed". O verbo "to pluto" ("plutoed", no particípio; "plutar" em tradução livre) é um neologismo criado a partir do rebaixamento de Plutão a planeta anão. Em janeiro de 2007, a American Dialect Society escolheu ""plutoed" como sua Palavra do Ano de 2006, definindo "to pluto"" como "rebaixar ou desvalorizar alguém ou alguma coisa", como aconteceu com o ex-planeta Plutão após a decisão da UAI em 2006. Cleveland Evans, o presidente da sociedade, disse a razão para a Palavra do Ano ser "plutoed": "Nossos membros acreditam que a emocional reação pública ao rebaixamento de Plutão mostra a importância de Plutão como um nome. Nós podemos não acreditar mais no deus romano Plutão, mas nós ainda temos um senso de conexão com o ex-planeta".
1417
Programação de computadores
Programação de computadores Programação é o processo de escrita, teste e manutenção de um programa de computador. O programa é escrito em uma linguagem de programação, embora seja possível, com alguma dificuldade, o escrever diretamente em linguagem de máquina. Diferentes partes de um programa podem ser escritas em diferentes linguagens. Diferentes linguagens de programação funcionam de diferentes modos. Por esse motivo, os programadores podem criar programas muito diferentes para diferentes linguagens; muito embora, teoricamente, a maioria das linguagens possa ser usada para criar qualquer programa. Há várias décadas se debate se a programação é mais semelhante a uma arte (Donald Knuth), a uma ciência, à matemática (Edsger Dijkstra), à engenharia (David Parnas), ou se é um campo completamente novo. Algoritmos. Um algoritmo é uma sequência lógica finita de passos para realizar uma tarefa ou resolver um problema. Em nosso dia a dia utilizamos algoritmos para realizar nossas atividades, definindo a sequência de atividades que devemos fazer para atingir um objetivo. Um exemplo simples é uma receita. Um algoritmo é, num certo sentido, um programa abstrato — dizendo de outra forma, um programa é um algoritmo concretizado. Os programas são visualizados mais facilmente como uma coleção de algoritmos menores combinados de um modo único — da mesma forma que uma casa é construída a partir de componentes. Dessa forma, um algoritmo é uma descrição passo a passo de como o computador irá executar uma operação específica, como, por exemplo, uma ordenação. Um programa, por outro lado, é uma entidade que na verdade implementa uma ou mais operações de forma que seja útil para as pessoas que o utilizam. Engenharia de software. A criação de um programa de computador consiste de cinco passos principais: Estes cinco passos são colectivamente conhecidos como engenharia de software. A "programação" põe ênfase nos passos 2, 3 e 4. A "codificação" põe ênfase no passo 3. O termo "coder", por vezes usado como sinônimo para programador, pode tornar-se aviltante porque ignora as capacidades necessárias para lidar com os outros quatro passos. História. Heron de Alexandria no século primeiro inventou teatros automatizados que usavam programação análoga para controlar os fantoches, portas, luzes e efeitos de som. A mais antiga programadora de computadores que se conhece é Ada Lovelace, filha de Anabella e de Lord Byron (o poeta). Ao serviço do matemático Charles Babbage, traduziu e expandiu uma descrição da sua máquina analítica. Muito embora Babbage nunca tenha completado a construção de nenhuma das suas máquinas, o trabalho que ele e Ada desenvolveram sobre elas, garantiu a Ada o título de primeira programadora de computadores do mundo (veja as notas de Ada Byron sobre a máquina analítica). A linguagem de programação Ada recebeu o seu nome em homenagem à Ada. Um dos primeiros programadores que se tem notícia de ter completado todos os passos para a computação sem auxílio, incluindo a compilação e o teste, é Wallace J. Eckert. O trabalho deste homem antecede a ascensão das linguagens de computador, porque ele usou a linguagem da matemática para solucionar problemas astronômicos. No entanto, todos os ingredientes estavam lá: ele trabalhou um laboratório de computação para a Universidade de Colúmbia com equipamentos fornecidos pela IBM, completos com uma divisão de serviço de atendimento ao cliente, e consultores de engenharia para propósitos especiais, na cidade de Nova York, na década de 1930, usando cartões perfurados para armazenar os resultados intermediários de seus cálculos, e então formatando os cartões perfurados para controlar a impressão das respostas, igual ao trabalho para os censos décadas antes. Tinha técnicas de "debug" tais como códigos de cores, bases cruzadas, verificação e duplicação. Uma diferença entre Eckert e os programadores dos dias de hoje é que o exemplo do seu trabalho influenciou o projeto Manhattan. Seu trabalho foi reconhecido por astrônomos do Observatório da Universidade de Yale, Observatório da Universidade de Princeton, Observatório da Marinha dos EUA, Observatório da Faculdade Harvard, Observatório dos estudantes da Universidade da Califórnia, Observatório Ladd da Universidade de Brown e Observatório Sproul da Faculdade de Swarthmore. Alan Turing é frequentemente encarado como o pai da ciência de computadores e, por afinidade, da programação. Ele foi responsável por ajudar na elaboração e programação de um computador destinado a quebrar o código alemão ENIGMA durante a Segunda Guerra Mundial — ver Máquina Enigma. Aprendizagem da Programação. A aprendizagem da programação tem enfrentado vários desafios. Por ser de difícil aprendizagem, vários estudos propõe soluções para ajudar no processo de aprendizagem da programação, quer a nível do ensino secundário, quer universitário por diversas razões. De entre as soluções, destacam-se sistemas de apoio, uns que permitem que os estudantes visualizem de imediato o resultado do código que vão escrevendo, outros estudos também sugerem o uso de artefatos como a robótica para que os alunos interajam com algo tangível como o robot, melhorando a interação e motivando ao mesmo tempo. Foram realizados estudos que provam que o uso da gamificação em contextos de aprendizagem da programação, produziu resultados com sucesso, aumentando o nível de interação dos alunos, bem como a motivação para continuar a aprender.
1419
Propulsão de naves espaciais
Propulsão de naves espaciais A propulsão de naves espaciais se refere a qualquer um dos vários métodos utilizados para modificar a velocidade de uma nave espacial ou de um satélite artificial. Qualquer método tem vantagens e desvantagens, pelo que esta é uma área de pesquisa de grande atividade. Contudo, a maioria das naves espaciais atuais são propulsionadas pela liberação de gás pela parte posterior do veículo submetido a velocidades elevadas através de uma "tubeira De Laval", formando o que é designado como motor de "foguetão" ("foguete", no Brasil). Todas as atuais naves espaciais usam foguetes químicos (foguetes de combustível líquido ["bipropulsores"] ou foguetes de combustível sólido) no arranque, ainda que alguns (como o Foguetão Pegasus e a SpaceShipOne) tenham usado motores consumidores de oxigénio atmosférico no seu primeiro estágio. A maior parte dos satélites têm simples, mas confiáveis, propulsores químicos (geralmente foguetes monopropulsores) ou propulsores resistojet na manutenção de órbita e alguns usam rodas de reação (também conhecidos como volantes de inércia) para controle de atitude. Os satélites soviéticos fizeram uso, por décadas, da propulsão eléctrica. Naves recentes, de órbita geoestacionária, têm também utilizado este tipo de propulsão para manutenção de estações de órbita polar. Os veículos interplanetários também usam principalmente foguetes químicos, ainda que em alguns tenham utilizado experimentalmente propulsores iónicos (uma forma de propulsão eléctrica) com sucesso. A necessidade de sistemas de propulsão. Os satélites artificiais precisam ser lançados já em órbita e, estando aí, é necessário que sejam colocados na sua órbita nominal. Assim que estejam na órbita desejada, geralmente necessitam de alguma forma de controle de atitude de modo a ficarem corretamente alinhados em relação à Terra, Sol e outros objetos de interesse astronômico. Os satélites estão, ainda sujeitos ao arrasto na atmosfera rarefeita. De modo a manterem-se em órbita por um longo período de tempo é ocasionalmente necessário fazer algumas pequenas correções (manutenção orbital). Muitos satélites necessitam ser transferidos periodicamente de órbita, o que também requer o uso da propulsão. Quando um satélite perde a sua capacidade de ajustar-se à órbita desejada, termina a sua vida útil. As naves espaciais concebidas para viagens interplanetárias também necessitam da aplicação de métodos de propulsão. Necessitam de ser impelidas da órbita terrestre, tal como os satélites. Chegando aí, necessitam de sair de órbita e moverem-se para o local desejado. As atuais naves interplanetárias fazem-no com uma série de ajustamentos de trajetória de curto prazo. Entre estes ajustamentos, a nave entra simplesmente em queda livre na sua órbita. A forma mais simples e eficiente no que ao uso de combustível diz respeito para fazer a moção de uma órbita circular para outra faz uso da órbita de transferência de Hohmann: a nave entra numa órbita rudemente circular em torno do Sol. Um curto período de empuxo na direcção do movimento acelera ou desacelera a nave numa órbita elíptica em volta do Sol que é tangencial às órbitas de origem e de destino. A nave entra em queda livre ao longo desta órbita elíptica até atingir o seu destino, onde outro curto período de empuxo a acelera ou desacelera de modo a adequar-se à nova órbita. Métodos especiais como a aerotravagem, são, por vezes, usados neste ajustamento orbital final. Alguns métodos de propulsão de naves, como as velas solares permitem um empuxo fraco, mas inexaurível; um veículo interplanetário que use um destes métodos poderá seguir trajetórias diferentes, ou empurrando constantemente a nave contra a direcção do movimento de modo a diminuir a distância ao Sol ou empurrando constantemente no sentido da direcção do movimento de modo a aumentar a distância ao Sol. Eventuais naves desenhadas para viagens interestelares também teriam de recorrer a sistemas de propulsão. Ainda que não tenha sido criada qualquer nave deste tipo, muitos modelos têm sido discutidos. Como as distâncias interestelares são particularmente grandes, seria necessária uma velocidade extremamente elevada para que a nave chegasse ao seu destino num período de tempo razoável. Conceder tal velocidade à partida e desacelerar à chegada representará um enorme desafio para quem projectar estas naves. Efetividade dos sistemas de propulsão. No espaço, o propósito de um sistema de propulsão é alterar a velocidade, ou “v”, de uma nave. Como isso é mais difícil para naves de maior massa, os designers preocupam-se mais especificamente com o momentum, "mv". O valor da variação do momentum é designado de impulso. Por isso, o objetivo de qualquer método de propulsão no espaço é criar um impulso. Ao lançar uma nave da Terra, um método de propulsão terá de superar um alto arrasto gravitacional, de modo a proporcionar uma aceleração líquida positiva. Em órbita, qualquer impulso adicional, por pequeno que seja, terá como resultado uma mudança no percurso orbital. A taxa de variação de velocidade é chamada de aceleração, e a taxa de variação de momentum é chamada de força. Para atingir uma dada velocidade, pode-se aplicar uma pequena aceleração por longo período de tempo, ou pode-se aplicar uma grande aceleração num curto período de tempo. De modo semelhante, pode-se alcançar um dado impulso aplicando uma grande força por um curto período de tempo ou uma pequena força por um longo período de tempo. Isto significa que em manobras no espaço, um método de propulsão que produza pequenas acelerações mas que se efetue por um longo período de tempo consegue produzir o mesmo impulso que um método de propulsão que produza grandes acelerações num curto período de tempo. Ao fazer o lançamento de um planeta, pequenas acelerações não conseguem superar a atracção gravitacional, logo, não podem aí ser usadas. A superfície da Terra está situada bem no fundo de um poço gravitacional e é necessária uma velocidade de 11,2 quilômetros por segundo (velocidade de escape) ou mais para dele sair. Como os seres humanos evoluíram num campo gravitacional de 1g (9,8 m/s²), o sistema de propulsão ideal seria aquele que proporcionasse uma aceleração contínua de 1g (embora o corpo humano possa tolerar acelerações muito maiores durante curtos períodos). Os ocupantes de um foguete ou nave especial, com tal sistema de propulsão estariam isentos de todos os inconvenientes da queda livre, como náuseas, fraqueza muscular, diminuição do sentido do gosto, ou descalcificação dos ossos. A lei da conservação do momentum estabelece que, para que um método de propulsão faça variar o momentum de uma nave espacial é necessário também variar o momentum de outra coisa qualquer. Alguns modelos aproveitam-se, para este efeito, de coisas tão diversas como campos magnéticos ou a pressão da luz de modo a modificar o momentum da nave, mas no espaço, o foguete terá de trazer consigo alguma massa que possa acelerar de modo a poder impulsionado para a frente. É a chamada massa de reação. Para que o foguete funcione são necessárias duas coisas: massa de reação e energia. O impulso proporcionado pelo lançamento de uma partícula de massa de reação com massa "m" à velocidade "v" é "mv". Mas esta particular tem energia cinética "mv"²/2, que tem de vir de algum lado. Em foguetes de combustível sólido, líquido ou híbrido convencionais, o combustível é queimado, de modo a fornecer energia, e os produtos de reação, ao fluírem pela parte posterior da nave proporcionam a massa de reação. Num propulsor iónico, a eletricidade é utilizada para acelerar íons pela parte de trás da nave. Neste caso é necessário que outra fonte proporcione a energia elétrica (talvez um painel solar ou um reactor nuclear), enquanto que os íons proporcionam a massa de reação. Ao discutir a eficiência de um sistema de propulsão, os designers focam-se especialmente no modo efetivo de uso da massa de reação. Esta deve ser transportada juntamente com o foguete e é irrecuperavelmente perdida quando usada. Um modo de medir a quantidade de impulso que pode ser obtida de uma quantidade fixa de massa de reação é o impulso específico, ou impulso por unidade de peso-na-Terra (geralmente designado como formula_1). Esta grandeza é medida em segundos. Visto que o peso na Terra da massa de reação não tem, geralmente, importância no âmbito da discussão dos veículos espaciais, o impulso específico pode também ser discutido em termos de massa por unidades de impulso. Esta forma alternativa de impulso específico usa as mesmas unidades que a velocidade (m/s), e é, de facto, igual à velocidade de exaustão efetiva do motor (geralmente designada como formula_2). As duas grandezas são por vezes indiscriminadamente designadas como impulse específico, o que pode originar alguma confusão. As duas diferem por um fator de "g"n, a aceleração padrão devida à gravidade, de 9.80665 m/s² (formula_3). Um foguete com uma alta velocidade de exaustão pode alcançar o mesmo impulso com uma menor massa de reação. Contudo, a energia necessária para esse impulso é proporcional à velocidade de exaustão, logo, motores mais eficientes no uso da massa requerem mais energia, e são, tipicamente, menos eficientes em termos energéticos. Isto é um problema se o motor tem de proporcionar um alto valor de empuxo. De modo a gerar-se uma elevada monta de impulsos por segundo, será necessário usar uma elevada monta de energia por segundo. Portanto, motores de massa altamente eficientes requerem gastos elevados de energia por segundo, de modo a proporcionar um empuxo elevado. Daí resulta que os modelos de motores energeticamente muito eficientes produzem forças de empuxo francamente baixas. Em teoria, existe também o método da propulsão por gravidade. Apesar do universo ser um quasi-vácuo, as forças gravitacionais existem por toda parte, principalmente dentro das galáxias ou próximas de um corpo denso, e uma hipotética nave poderia se utilizar dessas ondas gravitacionais para se auto impulsionar - tal qual um submarino o faz em outro meio, o líquido, e um avião, pelo ar denso ou rarefeito - não com hélices ou turbinas, mas com um motor de antigravidade que, da mesma forma, atacaria as ondas gravitacionais de frente e as empurraria para trás numa maior velocidade. Relação das tecnologias mais conhecidas. Três números são mostrados na seguinte tabela. O primeiro é o impulso específico: a quantidade de impulso que pode ser produzida usando uma unidade de combustível. Esta é a característica mais importante do método de propulsão, pois determina a velocidade máxima que pode ser obtida. O segundo e o terceiro são as quantidades médias de impulso e o tempo de combustão médio do método. Uma coisa interessante e contra o senso comum físico é que fora de órbita, o total de energia provido por um método de propulsão é igual ao número de vezes que o método de impulso foi aplicado. Fora isso, longe de um grande potencial gravitacional pequenas quantidades de impulso aplicados por um longo período equivalem a um grande impulso aplicado por um tempo curto. Esse resultado não se aplica quando o objeto está sob influência da gravidade. Mecanismos de lançamento. O lançamento de uma nave espacial, da superfície de um planeta ao espaço, requer especiais cuidados, quanto aos métodos de propulsão empregados. Geralmente falar de alta potência é de vital importância, e muitos dos métodos de propulsão acima não produzem a potência necessária para tal. A toxicidade dos gases produzidos na exaustão ou outros efeitos decorrentes podem poluir o meio ambiente local, proibindo outros métodos de propulsão. Actualmente, apenas foguetes de combustível químico (sólido e liquido),são empregues em lançamentos da Terra. A vantagem de uma nave espacial ser lançada da superfície terrestre é a possibilidade de contar com infra-estruturas de solo. Os mecanismos propostos de infra-estruturas terrestres incluem: Métodos que requerem novos princípios da Física. Adicionados aos anteriores, têm sido consideradas uma variedade de técnicas de propulsão hipotéticas que irão requerer princípios de Física inteiramente inovadores para poderem ser consideradas realizáveis. Posto isto, são na actualidade altamente especulativas:
1420
Persistência da visão
Persistência da visão A persistência da visão tradicionalmente se refere à ilusão de ótica que ocorre quando a percepção visual de um objeto não cessa por algum tempo depois que os raios de luz provenientes dele deixaram de entrar no olho. A ilusão também foi descrita como "persistência retiniana", "persistência de impressões", simplesmente "persistência" e outras variações. Um exemplo muito comum do fenômeno é o aparente rastro de fogo de um carvão incandescente ou uma vara em chamas enquanto gira no escuro. Muitas explicações da ilusão realmente parecem descrever pós-imagens positivas ou desfoque de movimento. "Persistência da visão" também pode ser entendido como sinônimo de "fusão de cintilação", o efeito de que a visão parece persistir continuamente quando a luz que entra nos olhos é interrompida com intervalos curtos e regulares. Quando a frequência é muito alta para o sistema visual discernir as diferenças entre os momentos, as impressões claras e escuras se fundem em uma impressão contínua da cena com brilho intermediário. Desde a sua introdução, acredita-se que o termo "persistência da visão" seja a explicação para a percepção do movimento em brinquedos ópticos como o fenaquistoscópio e o zootrópio, e mais tarde no cinema. No entanto, esta teoria foi contestada mesmo antes do avanço da cinematografia em 1895. Se a "persistência da visão" é explicada como "fusão de cintilação", pode ser considerada a razão pela qual os intervalos escuros não interrompem a impressão contínua de uma cena representada. A ilusão de movimento como resultado de apresentações rápidas e intermitentes de imagens sequenciais é um efeito estroboscópico, conforme detalhado pelo inventor Simon Stampfer. As primeiras descrições da ilusão frequentemente atribuíam o efeito puramente à fisiologia do olho, particularmente da retina. Nervos e partes do cérebro mais tarde foram aceitos como fatores importantes. A memória sensorial foi citada como uma causa.
1421
Paul Erdős
Paul Erdős Paul Erdős (; Budapeste, — Varsóvia, ) foi um matemático húngaro, considerado um gênio. Extremamente prolífico e de notável excentricidade, publicou 1475 artigos, alguns de extrema importância, o que é um número superior a qualquer outro matemático na história, trabalhando com centenas de colaboradores. Trabalhou em problemas de análise combinatória, teoria dos grafos, teoria dos números, teoria dos conjuntos, análise matemática e teoria das probabilidades. Biografia. Paul Erdős nasceu na capital da Hungria, numa família de origem judaica, mas não praticante. Erdős era filho único. Os pais tiveram mais duas filhas, mas elas morreram de escarlatina alguns dias antes de Paul nascer. Os pais eram professores de matemática, e Erdős demonstrou desde cedo a aptidão para a atividade matemática; aos quatro anos conseguiu descobrir sozinho algumas propriedades dos números primos. Em 1914, o pai, Lajos, foi capturado pelos russos num ataque às tropas do Império Austro-Húngaro, e passou seis anos na Sibéria como prisioneiro. A mãe, Anna, excessivamente protetora por causa da perda das filhas, manteve Paul longe da escola durante a maior parte dos primeiros anos e foi contratado um professor para o ensinar em casa. Em 1920 Lajos Erdős voltou do cativeiro e continuou a educação do filho em matemática e inglês. Apesar das restrições que existiam na Hungria impedindo os Judeus de entrar na universidade, Erdős conseguiu entrar em 1930. Recebeu o doutoramento em 1934. Os sentimentos antissemitas eram comuns na Hungria da década de 1930, e teriam levado Paul a sair do país; foi fazer um pós-doutoramento em Manchester, Inglaterra. Em 1938 aceitou uma posição académica em Princeton, Estados Unidos. Mas a administração considerou-o pouco convencional, e não lhe renovou o contrato. Foi por esta altura que Erdős começou o hábito de viajar de "campus" para "campus" que caracterizou a sua carreira. Um incidente digno de nota ocorreu em 1941, em Long Island, quando Erdős e outro matemático se envolveram numa discussão sobre uma questão da teoria matemática, e nenhum deles reparou que estavam perto de instalações militares. Foram presos por entrarem numa zona militar. Suspeito de espionagem, Erdős ficou com registo no FBI. As contribuições de Erdős para a matemática são numerosas e variadas. Mas não era um grande teórico; preferia resolver problemas. Acreditava que as sofisticadas teorias matemáticas não podem cobrir toda a matemática, e que há muitos problemas que não podem ser atacados por meio delas, mas que podem ser resolvidos por métodos elementares. Os problemas que mais o atraiam eram problemas de análise combinatória, teoria dos grafos e teoria dos números. Não resolvia problemas de qualquer maneira, queria resolvê-los de uma forma simples e elegante. Para Erdős, a prova tinha que explicar por que o resultado é verdadeiro, e não ser apenas uma sequência de passos sem ajudar a entender o resultado. Profissionalmente, Erdős é mais conhecido pela sua capacidade de resolver problemas extraordinariamente difíceis. O seu estilo característico consistia em resolver problemas de uma forma elegante e visionária. Recebeu o Prémio Cole da Sociedade Americana de Matemática em 1951 pelos seus muitos artigos em teoria dos números, e em particular pelo artigo "On a new method in elementary number theory which leads to an elementary proof of the prime number theorem", publicado nos Proceedings of the National Academy of Sciences em 1949. No início da década de 1950, os investigadores do senador McCarthy descobriram que Erdős tinha uma ficha no FBI, e como ele não era cidadão norte americano foi impedido de permanecer nos Estados Unidos. Passou os 10 anos seguintes em Israel. No início da década de 1960 fez inúmeros pedidos para voltar aos Estados Unidos e foi finalmente autorizado em novembro de 1963. Nos 30 anos seguintes, Erdős ocupou oficialmente posições em várias universidades de Israel, Estados Unidos e Reino Unido. Essas posições eram apenas formais. Na realidade ele era um nómada sem objetivos definidos, viajando pelas universidades mais prestigiadas. Trabalhava obsessivamente, dormia 4 a 5 horas por dia e tomava anfetaminas para manter a capacidade de trabalho. A dada altura, um amigo desafiou-o a não tomar a droga durante um mês; ele queixou-se mais tarde que durante esse mês a sua produtividade baixara imensamente. O seu génio e prestígio garantiam-lhe uma recepção acolhedora onde quer que chegasse, e inevitavelmente acabava por escrever um artigo com um qualquer matemático que lhe apresentasse um problema interessante. Por isso, ele é provavelmente o matemático mais colaborativo de todos os tempos, com mais de 1500 artigos escritos em parceria. A comunidade de matemáticos que trabalhou com ele criou em sua honra o Número de Erdős. Como raramente publicava sozinho, Erdös, mais do que qualquer outro, foi creditado por "tornar a matemática uma atividade social". Entre seus colaboradores mais frequentes estão Yousef Alavi, Béla Bollobás, Fan Chung, Ralph Faudree, Ronald Graham, András Gyárfás, András Hajnal, Eric Milner, János Pach, Carl Pomerance, Richard Rado (Um dos co-autores do famoso Teorema de Erdős-Ko-Rado), Alfréd Rényi, Vojtěch Rödl, Cecil Clyde Rousseau, András Sárközy, Richard Schelp, Miki Simonovitz, Vera Sós, Joel Spencer, Endre Szemerédi, Pál Turán e Peter Winkler. Erdős era uma fonte constante de aforismos: "Another roof, another proof" ("Um outro teto, uma outra demonstração", tradução livre), "Um matemático é uma máquina para transformar café em teoremas", "Não precisas acreditar em Deus, mas precisas acreditar no Livro" (uma referência a um livro divino hipotético que supostamente contém as demonstrações mais sucintas, elegantes e esclarecedoras para todas as afirmativas matemáticas). Erdős usava o termo "partir" para pessoas que tinham morrido, e o termo "morrer" para pessoas que tinham parado de fazer matemática. Ele chamava as crianças de "épsilons" e gostava delas. Erdős recebeu muitos prémios, incluindo o Prêmio Wolf de Matemática de 1983. No entanto, devido ao seu estilo de vida, precisava de pouco dinheiro. Por isso ajudou estudantes talentosos e ofereceu prémios pela resolução de problemas propostos por ele. Morreu em Varsóvia, Polónia, a 20 de setembro de 1996 e foi sepultado no Cemitério judaico de Rákoskeresztúr. Expressões. Expressões utilizadas comumente por Erdősː Obras. Artigos científicos Paul Erdős publicou um número imenso de artigos científicos (1475), entre os quais: Livros científicos Material adicional. Em sua homenagem, e devido ao facto de ter tido muitos colaboradores, foi instituído o Número de Erdős. Paul Erdős é abordado nos seguintes livros: Um livro, por ele idealizado, reúne um "pequeno acervo" de provas de O Livro: Martin Aigner, Günter Ziegler. "Proofs From THE BOOK". Springer, 2003. . Biografia.
1422
Plasmídeo
Plasmídeo Plasmídeos ou plasmídios são cadeias circulares duplas de moléculas de DNA capazes de se reproduzir independentemente do DNA cromossômico. Ocorrem geralmente em bactérias e por vezes também em organismos eucarióticos unicelulares (ex: o "anel de 2-micra" em "Saccharomyces cerevisiae") e células de eucariotas superiores. O seu tamanho varia entre poucos milhares a mais de cem mil pares de bases. Existem entre uma, para grandes plasmídeos, até várias dezenas de cópias de um mesmo plasmídeo numa única célula. A replicação do DNA plasmídico é feita pela mesma maquinaria celular que realiza a replicação do DNA cromossómico, à mesma velocidade ou a uma velocidade superior (o que provoca um número elevado de cópias do plasmídeo na célula). Os plasmídeos replicam-se de forma independente do DNA cromossômico mas a sua replicação dá-se a cada divisão celular de forma a conservar pelo menos uma cópia em cada célula-filha. Resistência aos antibióticos. Os plasmídeos contém geralmente um ou dois marcadores seleccionáveis que conferem uma vantagem selectiva à bactéria que os abriga, por exemplo, a capacidade de construir uma resistência a antibióticos. A resistência advém da presença de pelo menos um gene que codifique uma enzima capaz de neutralizar um determinado antibiótico. A existência de plasmídeos com diversos genes de resistência a diferentes antibióticos é um problema no tratamento de doenças bacterianas: com a utilização generalizada de antibióticos, os plasmídeos evoluiram de forma a conferir multirresistências aos seus hospedeiros bacterianos, tornando essas doenças de difícil tratamento. Muitos destes plasmídeos contêm adicionalmente "genes de transferência", que codificam proteínas capazes de formar "pili" através dos quais as bactérias transferem plasmídeos entre si, contribuindo para a proliferação de estirpes multirresistentes. Todos os plasmídeos contém pelo menos uma sequência de DNA que serve como uma "origem de replicação" ou "ori" (um ponto inicial para a replicação de DNA), e que permite ao DNA do plasmídeo replicar-se independentemente do DNA cromossómico. A "ori" é uma sequência específica de cinquenta a cem pares de bases e a sua presença é obrigatória para que ocorra a replicação do plasmídeo. Epissomas. Os "epissomas" são plasmídeos que se conseguem integrar no DNA cromossómico do hospedeiro. Por esta razão, podem permanecer intactos durante muito tempo, ser duplicados em cada divisão celular do hospedeiro, e transformar-se numa parte básica da sua constituição genética. Tipos de plasmídeos. Existem dois grupos básicos de plasmídeos: os conjugativos e os não-conjugativos. Numa única célula podem coexistir vários tipos diferentes de plasmídeos. A "Escherichia coli", por exemplo, tem até sete. Dois plasmídeos podem ser incompatíveis, e a sua interacção resulta na destruição de um deles. Os plasmídeos podem, portanto, ser colocados em "grupos de incompatibilidade", que dependem da sua capacidade de coexistir numa única célula. Uma forma óbvia de classificar os plasmídeos é pela função que desempenham. Existem cinco classes principais: Os plasmídeos que existem em cópia única em cada bactéria correm o risco de, depois da divisão celular, desaparecer numa das bactérias filhas. Para se assegurarem de que a célula tem "interesse" em manter uma cópia do plasmídeo em cada uma das células filhas, alguns plasmídeos incluem um "sistema viciante": produzem tanto um veneno de longa vida como um seu antídoto de vida curta. A célula que mantiver uma cópia do plasmídeo irá sobreviver, ao passo que a célula que não o possuir morrerá em breve por falta do antídoto. Aplicações dos plasmídeos. Os plasmídeos são ferramentas importantes nos laboratórios de genética e bioquímica, onde são usados rotineiramente para multiplicar genes específicos. Há muitos plasmídeos com esse fim disponíveis no mercado. Inicialmente, o gene a ser replicado é inserido num plasmídeo. Este plasmídeo deverá conter, além do gene inserido, um ou mais genes capazes de conferir resistência antibiótica à bactéria que servir de hospedeiro. Os plasmídeos são então inseridos em bactérias por um processo chamado "transformação", e estas são depois incubadas em meio de cultura suplementado com antibiótico(s) específico(s). As bactérias que contiverem então uma ou mais cópias do plasmídeo expressam (fazem proteínas a partir de) o gene que confere resistência aos antibióticos. Tipicamente, a célula produz uma proteína que destrói os antibióticos que, de outra forma, matariam a célula. Os antibióticos matam ou inibem a divisão das células que não receberam plasmídeo, porque não possuem os genes de resistência aos antibióticos. O resultado é que só as bactérias com a resistência aos antibióticos sobrevivem, e estas são as mesmas que contém o gene a ser replicado. Desta forma, os antibióticos actuam como filtros que seleccionam apenas as bactérias modificadas. Estas bactérias podem ser posteriormente cultivadas em grandes quantidades, recolhidas e destruídas para isolar o plasmídeo de interesse. Outro uso importante dos plasmídeos é na produção de grandes quantidades de proteínas. Neste caso, cultivam-se as bactérias que contêm um plasmídeo que inclui o gene que codifica a proteína pretendida. Da mesma forma que uma bactéria produz proteínas que lhe conferem resistência aos antibióticos, também pode ser induzida a produzir grandes quantidades de proteínas a partir do gene que nelas foi introduzido. Esta é uma maneira de baixo custo e simples de produzir um gene ou a proteína que ele codifica - por exemplo, a insulina - ou até mesmo antibióticos.
1423
Polymerase Chain Reaction
Polymerase Chain Reaction
1425
Alberto de Saxe-Coburg-Gotha
Alberto de Saxe-Coburg-Gotha
1426
Papa Alexandre
Papa Alexandre Alexandre foi o cognome adoptado por vários Papas:
1427
Papa Anastácio
Papa Anastácio
1428
Política
Política Política (do Grego: πολιτικός / "politikos", significa " algo relacionado com grupos sociais que integram a "Pólis" "), algo que tem a ver com a organização, direção e administração de nações ou Estados. É o Direito, enquanto ciência aplicada não só aos assuntos internos da nação (política interna), mas também aos assuntos externos (política externa). Nos regimes democráticos, a ciência política é a atividade dos cidadãos que se ocupam dos assuntos públicos com seu voto ou com sua militância. A palavra tem origem nos tempos em que os gregos estavam organizados em "Pólis" (cidades-Estado), nome do qual se derivaram palavras como "politiké" (política em geral) e "politikós" (dos cidadãos, pertencente aos cidadãos), que estenderam-se ao latim "politicus" e chegaram às línguas europeias modernas através do francês "politique" que, em 1265 já era definida nesse idioma como "ciência dos Estados". O termo política é derivado do grego antigo πολιτεία ("politeía"), que indicava todos os procedimentos relativos à "Pólis", ou cidade-Estado grega. Por extensão, poderia significar tanto cidade-Estado quanto sociedade, comunidade, coletividade e outras definições referentes à vida urbana. O livro de Platão traduzido como "A República" é, no original, intitulado "Πολιτεία" ("Politeía"). Acepções básicas. A política é objeto de estudo da ciência política e da ciência social. Significado clássico e moderno. O termo política, que se expandiu graças à influência de Aristóteles. Aquele filósofo categorizava funções e divisão do Estado e as várias formas de Governo, com o significado mais comum de arte ou ciência do Governo; desde a origem ocorreu uma transposição de significado das coisas qualificadas como "político", para a forma de saber mais ou menos organizado sobre esse mesmo conjunto de coisas. O termo política foi usado, a seguir, para designar principalmente as obras dedicadas ao estudo daquela esfera de atividades humanas que se refere de algum modo às coisas do Estado: "Politica methodice digesta", exemplo célebre, é obra com que Johannes Althusius (1603) expôs uma das teorias da "consociatio publica" (o Estado no sentido moderno da palavra), abrangido em seu seio várias formas de "consociationes" menores. Na época moderna, o termo perdeu seu significado original, substituído pouco a pouco por outras expressões como ciência do Estado, doutrina do Estado, ciência política, filosofia política, passando a ser comumente usado para indicar a atividade ou conjunto de atividades que, de alguma maneira, têm como termo de referência a pólis, ou seja, o Estado. Política e poder. A política, como forma de atividade ou de práxis humana, está estreitamente ligada ao poder. O poder político é o poder do homem sobre outro homem, descartados outros exercícios de poder, sobre a natureza ou os animais, por exemplo. Poder que tem sido tradicionalmente definido como ""consistente nos meios adequados à obtenção de qualquer vantagem" (Hobbes) ou, como "conjunto dos meios que permitem alcançar os efeitos desejados"" (Russell). Formas e origens do poder. São várias as formas de exercícios de poder de um indivíduo sobre outro; o poder político é apenas uma delas. Concepção aristotélica. Para Aristóteles a distinção é baseada no interesse de quem se exerce o poder: o paterno (pátrio poder) se exerce pelo interesse dos filhos; o despótico, pelo interesse do senhor; o político, pelo interesse de quem governa e de quem é governado. Tratando-se das formas corretas de Governo. Nas demais, o característico é que o poder seja exercido em benefício dos governantes. Concepção jusnaturalista. O critério que acabou por prevalecer nos tratados do jusnaturalismo ("direito natural") foi da legitimação, encontrado no cap. XV do Segundo tratado sobre o governo de Locke: o fundamento do poder paterno é a natureza, do poder despótico o castigo por um delito cometido, do poder civil o consenso. Estas justificações do poder correspondem às três fórmulas clássicas do fundamento da obrigação: "ex natura, ex delicio, ex contractu". Caráter específico do poder. Os critérios aristotélico ou jusnaturalista não permitem distinguir o caráter específico do poder político. Os escritores políticos não cessaram nunca de identificar governos paternalistas ou despóticos, ou então governos cuja relação com os governados se assemelhavam ora à relação entre pai e filhos, ora à entre senhor e escravos, e que não deixam, por isso, de ser governos tanto quanto os que agem pelo bem público e se fundam no consenso. Tipos de poder. O elemento específico do poder político pode ser obtido das várias formas de poder, baseadas nos meios de que se serve o sujeito ativo da relação para determinar o comportamento do sujeito passivo. Assim, podemos distinguir três grandes classes de um conceito amplíssimo do poder. Poder econômico. É o que se vale da posse de certos bens, necessários ou considerados como tais, numa situação de necessidade para controlar aqueles que não os possuem. Consistente também na realização de um certo tipo de trabalho. A posse dos meios de produção é enorme fonte de poder para aqueles que os têm em relação àqueles que os não têm: o poder do chefe de uma empresa deriva da possibilidade que a posse ou disponibilidade dos meios de produção lhe oferece de poder vender a força de trabalho a troco de um salário. Quem possui abundância de bens é capaz de influenciar o comportamento de quem não os tem pela promessa e concessão de vantagens. Poder ideológico. O poder ideológico se baseia na influência que as ideias da pessoa investida de autoridade exerce sobre a conduta dos demais: deste tipo de condicionamento nasce a importância social daqueles que sabem, quer os sacerdotes das sociedades arcaicas, quer os intelectuais ou cientistas das sociedades evoluídas. É por eles, pelos valores que difundem ou pelos conhecimentos que comunicam, que ocorre a de socialização necessária à coesão e integração do grupo. O poder dos intelectuais e cientistas emerge na modernidade quando as ciências ganham um estatuto preponderante na vida política da sociedade, influenciando enormemente o comportamento das pessoas. A ciência se propõe a responder pelos mistérios da vida, o que na Idade Média era "mistério da fé". Poder político. O poder político se baseia na posse dos instrumentos com os quais se exerce a força física: é o poder coator no sentido mais estrito da palavra. A possibilidade de recorrer à força distingue o poder político das outras formas de poder. Isso não significa que, ele seja exercido pelo uso da força, mas sim que haja a possibilidade do uso, sendo esta a condição necessária, mas não suficiente, para a existência do poder político. A característica mais notável do poder político é que ele detém a exclusividade do uso da força em relação à totalidade dos grupos sob sua influência. No poder político há três características. Uma delas é a Exclusividade, que trata da tendência de não se permitir a organização de uma força concorrente como, por exemplo, grupos armados independentes que ameacem o poder. Se encontra também a Universalidade, tratando-se esta da capacidade de se tomar decisões para toda a coletividade. E por último a Inclusividade, que é a possibilidade de intervir, de modo imperativo, em todas as esferas possíveis de atividades de membros do grupo e de encaminhar tais atividades aos fins desejados ou de desviá-las de um fim não desejado. Hobbes e o direito natural. O fundamento da teoria moderna do Estado, segundo Hobbes, é a passagem do Estado natural ao Estado civil, ou da "anarchía" à "archia", do Estado apolítico ao Estado político. Essa transição é representada pela renúncia de cada um ao direito de usar cada um a própria força existente no Estado natural e que torna todos os indivíduos iguais entre si, para delegar o direito do exercício da força a uma única pessoa, um único corpo, que será o único autorizado a usar a força contra eles. Teorias marxista e weberiana. A hipótese jusnaturalista abstrata adquire profundidade histórica na teoria do Estado de Marx e de Engels, segundo a qual a sociedade é dividida em classes antagônicas e as instituições políticas têm a função primordial de permitir à classe dominante manter seu domínio. Mas, este objetivo só pode ser alcançado na estrutura do antagonismo de classes pelo controle eficaz do monopólio da violência; é por isso que, cada Estado é, e não pode deixar de ser uma ditadura. Já é clássica a definição de Max Weber: A finalidade da política. O que a política pretende alcançar pela ação dos políticos, em cada situação, são as prioridades do grupo (ou classe, ou segmento nele dominante): nas convulsões sociais, será a unidade do Estado; em tempos de estabilidade interna e externa, será o bem-estar, a prosperidade; em tempos de opressão, a liberdade, direitos civis e políticos; em tempos de dependência, a independência nacional. A política não tem fins constantes ou um fim que compreenda a todos ou possa ser considerado verdadeiro: "os fins da Política são tantos quantas são as metas que um grupo organizado se propõe, de acordo com os tempos e circunstâncias". A política se liga ao meio e não sobre o fim, corresponde à opinião corrente dos teóricos do Estado, que excluem o fim dos seus elementos constitutivos. Para Max Weber: ""Não é possível definir um grupo político, nem tampouco o Estado, indicando o alvo da sua ação de grupo. Não há nenhum escopo que os grupos políticos não se hajam alguma vez proposto"(…)" Só se pode, portanto, definir o caráter político de um grupo social pelo meio"(…)" que não lhe é certamente exclusivo, mas é, em todo o caso, específico e indispensável à sua essência: o uso da força"". Portanto, o fim essencial da política é a aquisição do monopólio da violência. Política relacional. A esfera da política é a da relação amigo-inimigo. Nesse sentido, a origem e de aplicação da política é o antagonismo nas relações sociais e sua função se liga à atividade de associar e defender os amigos e de desagregar e combater os inimigos ("ver: Guerra política"). Há conflitos entre os homens e entre os grupos sociais, entre esses conflitos, há alguns notáveis pela intensidade que são os conflitos políticos. As relações entre os grupos instigadas por esses conflitos, agregando os grupos internamente ou os confrontando entre si, são as relações políticas. Em "Dell'arte della guerra" ("A Arte da Guerra"), Maquiavel descreve sua estratégia militar (e política) de dividir para conquistar. O conflito mais amplo, entre grupos consubstanciados em Estados é a guerra, nesse sentido tida como a continuação da política por outros meios, no dizer de Clausewitz. Política, moral e ética. A crise política sem fim e sem precedentes sugere algumas reflexões sobre o problema da ética na política. Nenhuma profissão é mais nobre do que a política porque quem a exerce assume responsabilidades só compatíveis com grandes qualidades morais e de competência. A atividade política só se justifica se o político tiver espírito republicano, ou seja, se as suas ações, além de buscarem a conquista do poder, forem dirigidas para o bem público, que não é fácil definir, mas que é preciso sempre buscar. Um bem público que variará de acordo com a ideologia ou os valores de cada político, mas o qual se espera que ele busque com prudência e coragem. E nenhuma profissão é mais importante, porque o político pode ter uma má influência sobre a vida das pessoas maior do que a de qualquer outra profissão. A ética da política não pode ser diferente da ética da vida pessoal. E além de observar os princípios gerais, como não matar ou não roubar, o político deve mostrar ao povo que o elegeu sua capacidade de defender o bem comum, e o bem estar de toda a sociedade, sem se preocupar com o simples exercício do poder. Além de não distinguir, de qualquer forma, os demais membros da sociedade, deve ser capaz de mostrar a esses membros que assume a responsabilidade pela consecução deste objetivo. Exerce assim, o que se convencionou chamar da "ética da responsabilidade". E a ética da responsabilidade leva em consideração as consequências das decisões que o político adota. Em muitas ocasiões, o político pode ser colocado frente a dilemas morais para tomar decisões. Mas, o político ciente, de sua obrigação com a ética da responsabilidade, sabe que não deve subverter seus valores e, muito menos aqueles que apresentou para seus eleitores.
1429
Papas
Papas
1430
Papa Adriano
Papa Adriano Existiram vários papas com o nome Adriano:
1431
Papa Bento
Papa Bento Bento foi o nome escolhido por vários Papas: Também houve vários antipapas com o nome Bento:
1432
Papa Bonifácio
Papa Bonifácio Bonifácio foi o cognome escolhido por vários Papas Católicos: Há também antipapas com o nome Bonifácio:
1433
Papa Calisto
Papa Calisto Calisto (ou Calixto) foi o cognome escolhido por vários Papas Católicos:
1434
Papa Celestino
Papa Celestino Celestino foi o cognome escolhido por vários Papas Católicos: Houve ainda um antipapa Celestino:
1435
Papa Clemente
Papa Clemente Clemente foi o cognome escolhido por vários Papas Católicos: Houve ainda dois antipapas Clemente:
1436
Papa Estéfano
Papa Estéfano
1437
Papa Eugênio
Papa Eugênio
1438
Papa Gregório
Papa Gregório
1439
Papa Honório
Papa Honório Honório foi o cognome escolhido por vários papas católicos: Houve também um antipapa Honório II (1061-1064).
1440
Papa Inocêncio
Papa Inocêncio Inocêncio foi o nome escolhido por diversos papas: Houve também antipapas com o nome Inocêncio:
1441
Papa João
Papa João João foi nome de vários papas: Houve ainda vários antipapas:
1442
Papa Leão
Papa Leão Leão foi o nome adotado por vários papas católicos:
1443
Papa Félix
Papa Félix Félix foi o cognome de vários papas católicos (e de dois antipapas, daí vêm diferenças na numeração, consoante se considerem os antipapas ou não):
1444
Papa Urbano
Papa Urbano Urbano foi o cognome de vários papas católicos:
1445
Papa Sérgio
Papa Sérgio Sérgio foi o cognome de vários Papas Católicos:
1446
Papa Silvestre
Papa Silvestre Silvestre foi o cognome adoptado por vários papas católicos:
1447
Papa Pio
Papa Pio Pio foi o cognome adoptado por vários papas católicos: Come pios
1448
Papa Paulo
Papa Paulo Paulo foi o cognome de vários Papas Católicos:
1449
Papa Sixto
Papa Sixto
1450
Papa Agapito
Papa Agapito
1451
Papa Damaso
Papa Damaso
1452
Papa Gelasio
Papa Gelasio
1453
Papa João Paulo
Papa João Paulo João Paulo foi o nome escolhido pelos seguintes papas: Sendo o primeiro nome papal composto.
1454
Papa Júlio
Papa Júlio Júlio foi o cognome de vários papas católicos:
1455
Papa Lúcio
Papa Lúcio Lúcio foi o cognome escolhido por vários Papas Católicos:
1456
Papa Marcelo
Papa Marcelo Marcelo foi o cognome escolhido por vários papas católicos: Você pode também estar à procura do Papa Marcelino (296 - 304).
1457
Papa Marinho
Papa Marinho Papa Marinho (ou Papa Marino) foi o cognome atoptado por vários papas católicos: Mais tarde, o nome destes papas foi confundido com o de Martinho, tendo sido considerados, respectivamente, como Papa Martinho II e Papa Martinho III.
1458
Papa Martinho
Papa Martinho Martinho é o nome de somente três papas] católicos, apesar de a numeração ascender a cinco; de facto, nunca existiram os papas com os nomes de Martinho II e Martinho III, que foram confundidos com os papas Marinho I e Marinho II; quando Simão de Brion ascendeu a trono papal em 1281 e escolheu para nome de sagração Martinho, baseando-se na crença de que teria havido três papas Martinho, foi proclamado pontífice sob o nome de Martinho IV.
1459
Papa Nicolau
Papa Nicolau Nicolau foi o cognome escolhido por vários papas católicos: Houve também um antipapa Nicolau V ~ (1328 - 1330) Pode também estar à procura do Teste de Papanicolau.
1460
Papa Pascoal
Papa Pascoal
1461
Papa Pelágio
Papa Pelágio Pelágio foi o cognome adoptado por vários papas católicos:
1462
Papa Teodoro
Papa Teodoro
1463
Papa Vítor
Papa Vítor Vítor foi o cognome adoptado por vários papas católicos: Houve ainda dois antipapas Vítor IV:
1464
Programação funcional
Programação funcional Em ciência da computação, programação funcional é um paradigma de programação que trata a computação como uma avaliação de funções matemáticas e que evita estados ou dados mutáveis. Ela enfatiza a aplicação de funções, em contraste da programação imperativa, que enfatiza mudanças no estado do programa. Enfatizando as expressões ao invés de comandos, as expressões são utilizados para cálculo de valores com wikidados imutáveis. Uma função, neste sentido, pode ter ou não ter parâmetros e um simples valor de retorno. Os parâmetros são os valores de entrada da função, e o valor de retorno é o resultado da função. A definição de uma função descreve como a função será avaliada em termos de outras funções. Por exemplo, a função formula_1 é definida em termos de funções de exponenciação e adição. Do mesmo modo, a linguagem deve oferecer funções básicas que não requerem definições adicionais. A programação funcional trata as funções de forma em que estas possam ser passadas como parâmetro e valores para outras e funções e podendo ter o resultado armazenado em uma constante. Linguagens de programação funcionais, especialmente as puramente funcionais, têm sido mais usadas academicamente que no desenvolvimento comercial de software. Entretanto, algumas linguagens notáveis usadas na indústria e no comércio incluem Erlang (aplicações concorrentes), R (estatística), OCaml (quantitative trading), Mathematica (matemática simbólica) J, K (análise financeira) e XSLT. Importantes influências na programação funcional foram o cálculo lambda, as linguagens de programação APL e Lisp, e mais recentemente ML, Haskell, OCaml, F# e Elixir. Desenvolvimento. As funções podem ser manipuladas numa grande variedade de formas numa linguagem de programação funcional. As funções são tratadas como valores de primeira importância, o que é o mesmo que dizer que funções podem ser parâmetros ou valores de entrada para outras funções e podem ser os valores de retorno ou saída de uma função. Então podemos entender paradigma funcional como um mapeamento dos valores de entrada nos valores de retorno, através de funções. Isso permite que funções como codice_1 em LISP e codice_2 em Haskell que tomam ambos uma função e uma lista como entrada e aplicam a função de entrada a cada elemento da lista. Funções podem ser nomeadas, como em outras linguagens, ou definidas anonimamente (algumas vezes durante a execução do programa) usando uma abstração lambda e usadas como valores em outras funções. Linguagens funcionais também permitem que funções sejam do tipo "curry". "Currying" é uma técnica para reescrita de funções com múltiplos parâmetros como a composição de funções de um parâmetro. A função do tipo "curry" pode ser aplicada apenas a um subconjunto de seus parâmetros. O resultado é uma função onde os parâmetros neste subconjunto são agora fixados como constantes, e os valores do resto dos parâmetros ainda não são especificados. Esta nova função pode ser aplicada aos parâmetros restantes para obter o valor da função final. Por exemplo, uma função codice_3 pode ser do tipo "curry" de forma que o valor de retorno codice_4 — note que não há um parâmetro y — será uma função anônima, o que é equivalente à função codice_5. Esta nova função tem apenas um parâmetro e corresponde a adicionar 2 a um número. Novamente, isso é apenas possível porque as funções são tratadas como valores de primeira importância. O cálculo lambda pode ser considerado a primeira linguagem de programação funcional, embora nunca tenha sido projetada para ser realmente executada em um computador. É um modelo de computação projetado por Alonzo Church nos anos 1930 que oferece um modo muito formal de descrever um cálculo de uma função. A primeira linguagem de programação funcional criada para computadores foi LISP, desenvolvida por John McCarthy no Instituto de Tecnologia de Massachusetts (MIT) no fim dos anos 1950. Mesmo não sendo uma linguagem de programação puramente funcional, LISP introduziu a maioria das características hoje encontradas nas modernas linguagens de programação funcional. Scheme foi uma tentativa posterior de simplificar e melhorar LISP. Nos anos 1970 a linguagem ML foi criada pela Universidade de Edimburgo, e David Turner desenvolveu a linguagem Miranda na Universidade de Kent. A linguagem Haskell foi lançada no fim dos anos 1980 numa tentativa de juntar muitas ideias na pesquisa de programação funcional. Vantagens. O processo de alocação de memória é automático não sendo declarado pelo usuário, eliminando os erros de alocação na função, desta maneira garantindo que a saída da função será sempre o mesmo se dado um mesmo conjunto de dados. Desvantagens. Na programação funcional alguns construtos básicos sobre programação, como alocamento explícito de memória ou de variáveis, são dados como inexistentes, entretanto estes construtos ainda funcionam, porém de forma menos explícita. Linguagens de programação. Listado abaixo algumas das principais linguagens de programação funcional: Exemplos. Scheme. Neste caso, isso é o que aconteceria: 3*4 = 12; x = 12; x + x = 12 + 12 = 24;. Haskell. dobrarLista lst = map (\x -> 2 * x) lst Neste caso em Haskell, ele mapeia uma lista chamada "lst" dobrando seus valores. Contraste com a programação imperativa. A programação funcional pode ser contrastada com a programação imperativa. Na programação funcional parecem faltar diversas construções frequentemente (embora incorretamente) consideradas essenciais em linguagens imperativas, como C ou Pascal. Por exemplo, numa programação estritamente funcional, não há alocação explícita de memória, nem declaração explícita de variáveis. No entanto, essas operações podem ocorrer automaticamente quando a função é invocada; a alocação de memória ocorre para criar espaço para os parâmetros e para o valor de retorno, e a declaração ocorre para copiar os parâmetros dentro deste espaço recém-alocado e para copiar o valor de retorno de volta para dentro da função que a chama. Ambas as operações podem ocorrer nos pontos de entrada e na saída da função, então efeitos colaterais no cálculo da função são eliminados. Ao não permitir efeitos colaterais em funções, a linguagem oferece transparência referencial. Isso assegura que o resultado da função será o mesmo para um dado conjunto de parâmetros não importando onde, ou quando, seja avaliada. Transparência referencial facilita muito ambas as tarefas de comprovar a correção do programa e automaticamente identificar computações independentes para execução paralela. Laços, outra construção de programação imperativa, estão presentes através da construção funcional mais geral de recursividade. Funções recursivas invocam a si mesmas, permitindo que uma operação seja realizada várias vezes. Recursividade em programação funcional pode assumir várias formas e é em geral uma técnica mais poderosa que o uso de laços. Por essa razão, quase todas as linguagens imperativas também a suportam (sendo Fortran 77 e COBOL exceções notáveis).
1465
Reação em cadeia da polimerase
Reação em cadeia da polimerase A Reação em cadeia da polimerase - RCP em inglês polymerase chain reaction - PCR é uma técnica utilizada na biologia molecular para amplificar uma única cópia ou algumas cópias de um segmento de DNA em várias ordens de grandeza, gerando milhares a milhões de cópias de uma determinada sequência de DNA. Desenvolvido em 1983 por Kary Mullis, que era um funcionário da Cetus Corporation, e também o vencedor do Prêmio Nobel de Química em 1993 junto com Michael Smith, é uma maneira fácil, barata e confiável de replicar repetidamente um segmento específico de DNA, um conceito aplicável a vários campos da biologia moderna e das ciências relacionadas. O PCR é provavelmente a técnica mais utilizada na biologia molecular. Esta técnica é utilizada na pesquisa biomédica, na forense criminal e na arqueologia molecular. O PCR é agora uma técnica comum e frequentemente indispensável usada em laboratórios clínicos e de pesquisa para uma ampla variedade de aplicações. Estes incluem a clonagem de DNA para sequenciação, clonagem e manipulação de genes, mutagênese de genes; construção de filogenias baseadas em DNA, ou análise funcional de genes; diagnóstico e monitoramento de doenças hereditárias; amplificação do DNA antigo; análise de impressões digitais genéticas para o perfil de DNA (por exemplo, na ciência forense e teste de parentesco); e detecção de patógenos em testes de ácido nucleico para o diagnóstico de doenças infecciosas. A grande maioria dos métodos de PCR dependem do ciclo térmico, o que envolve a exposição dos reagentes a ciclos de aquecimento e resfriamento repetidos, permitindo diferentes reações dependentes da temperatura - especificamente, a fusão do DNA e a replicação de DNA orientada por enzimas - para prosseguir rapidamente várias vezes em sequência. Os iniciadores (fragmentos de DNA curtos) que contêm sequências complementares à região alvo, juntamente com uma polimerase de DNA (por exemplo, Taq polimerase), após o qual o método é designado, permitem amplificação seletiva e repetida. À medida que o PCR progride, o DNA gerado é usado como um modelo para replicação, colocando em movimento uma reação em cadeia na qual o modelo de DNA original é amplificado exponencialmente. A simplicidade do princípio básico subjacente à PCR significa que pode ser amplamente modificada para realizar uma ampla gama de manipulações genéticas. O PCR não é geralmente considerado um método de DNA recombinante, pois não envolve cortar e colar DNA, apenas amplificação de sequências existentes. Quase todas as aplicações de PCR empregam uma polimerase de DNA estável ao calor, como a polimerase Taq, uma enzima originalmente isolada da bactéria termofílica Thermus aquaticus. Se a DNA polimerase sensível ao calor for utilizada, ela irá desnaturar todos os ciclos no passo de desnaturação. Antes do uso da Taq polimerase, a DNA polimerase teve que ser adicionada manualmente a cada ciclo, que era um processo tedioso e dispendioso. Esta DNA polimerase monta enzimaticamente uma nova cadeia de DNA a partir de nucleotídeos livres, os blocos de construção de DNA, usando DNA de cadeia simples como molde e oligonucleótidos de DNA (os iniciadores mencionados acima) para iniciar a síntese de DNA. O PCR, como a tecnologia de DNA recombinante, teve um enorme impacto nos aspectos básicos e diagnósticos da biologia molecular porque pode produzir grandes quantidades de um fragmento de DNA específico a partir de pequenas quantidades de um modelo complexo. As técnicas de DNA recombinante criam clones moleculares ao conferir a uma sequência específica a capacidade de replicar inserindo-a em um vetor e introduzindo o vetor em uma célula hospedeira. O PCR representa uma forma de "clonagem in vitro" que pode gerar, bem como modificar, fragmentos de DNA de comprimento definido e seqüência em uma simples reação automatizada. Além de suas muitas aplicações na pesquisa biológica molecular básica, o PCR promete desempenhar um papel crítico na identificação de seqüências médicamente importantes, bem como um diagnóstico importante na sua detecção. Princípios. O PCR amplifica uma região específica de uma cadeia de DNA (o alvo de DNA). A maioria dos métodos de PCR amplifica os fragmentos de DNA entre 0,1 e 10 quilos de base (kbp), embora algumas técnicas permitam a amplificação de fragmentos de até 40 kbp de tamanho. A quantidade de produto amplificado é determinada pelos substratos disponíveis na reação, que se tornam limitantes à medida que a reação progride. Uma configuração básica de PCR requer vários componentes e reagentes, incluindo: A reação é comumente realizada em um volume de 10-200 μl em pequenos tubos de reação (volumes de 0,2-0,5 ml) em um termociclador. O termociclador aquece e esfria os tubos de reação para atingir as temperaturas exigidas em cada passo da reação. Muitos cicladores térmicos modernos utilizam o efeito Peltier, que permite o aquecimento e o resfriamento do bloco que contém os tubos de PCR simplesmente invando a corrente elétrica. Os tubos de reação de paredes finas permitem uma condutividade térmica favorável para permitir o equilíbrio térmico rápido. A maioria dos termostatos têm tampas aquecidas para evitar a condensação no topo do tubo de reação. Os termocicladores mais antigos que não possuem uma tampa aquecida requerem uma camada de óleo em cima da mistura de reação ou uma bola de cera dentro do tubo. Fases do PCR. Normalmente, a PCR consiste em uma série de 20–40 mudanças de temperatura repetidas, chamadas ciclos, com cada ciclo geralmente consistindo em duas ou três etapas de temperatura discretas (veja a figura abaixo). O ciclismo é muitas vezes precedido por um único passo de temperatura a uma temperatura muito alta (> 90 °C) e seguido por uma retenção no final para a extensão final do produto ou armazenamento breve. As temperaturas utilizadas e o período de tempo aplicado em cada ciclo dependem de uma variedade de parâmetros, incluindo a enzima utilizada para a síntese de DNA, a concentração de íons bivalentes e dNTPs na reação e a temperatura de fusão (Tm) dos primers . As etapas individuais comuns à maioria dos métodos de PCR são as seguintes: Os processos de desnaturação, anelamento e alongamento constituem um único ciclo. São necessários vários ciclos para amplificar o alvo de DNA para milhões de cópias. A fórmula usada para calcular o número de cópias de DNA formadas após um determinado número de ciclos é 2n, onde n é o número de ciclos. Assim, um conjunto de reação para 30 ciclos resulta em 230, ou 1.073.741.824 cópias da região original do alvo de cadeia dupla. Alongamento final: Este único passo é opcional, mas é realizado a uma temperatura de 70–74 °C (a faixa de temperatura necessária para a atividade ideal da maioria das polimerases utilizadas na PCR) durante 5–15 minutos após o último ciclo de PCR para garantir que qualquer DNA de cadeia simples restante seja completamente alongado. Suporte final: o passo final arrefece a câmara de reação a 4–15 °C por tempo indeterminado e pode ser empregado para o armazenamento a curto prazo dos produtos de PCR. Aplicações. A PCR encontra sua principal aplicação em situações onde a quantidade de DNA disponível é reduzida. Em teoria, é possível amplificar qualquer DNA. Uma das principais aplicações da PCR é na medicina forense, onde pequenas amostras de DNA retiradas da cena de um crime (pedaços de cabelo que contenham bulbo, gotas de sangue ou saliva, pedaços de pelo ou até mesmo a minúscula quantidade de DNA deixada em uma impressão digital) são amplificadas para serem analisadas pelo método de impressão digital genética. A PCR também é rotineiramente utilizada em procedimentos científicos de biologia molecular como amplificação para gerar mutagênese, detecção de mutações ou preparação de fragmentos de DNA para clonagem (inserção em plasmídeo, por exemplo) como também pode ser utilizada para identificação de patógenos que estão presentes em amostras, como por exemplo a identificação de agentes como "Candida sp", "Chlamydia trachomatis", HPV (Vírus do papiloma humano) e seus genótipos, HIV, Vírus da Hepatite B, etc. A PCR também é utilizada na paleontologia para o sequenciamento gênico de animais pré-históricos. Também é muito utilizada na identificação de micro-organismos, tendo em vista que apenas 1% dos micro-organismos são cultiváveis e podendo ser isolados. A PCR é o primeiro passo para o posterior sequenciamento. Após obter as sequências geradas pelos equipamentos, pode-se consultar bases de dados na internet para tentar localizar suas possíveis origens, sendo bactérias, archeas ou etc. Procedimentos. A reação em cadeia da polimerase é um método muito sensível de análise e por isso é realizado com muito cuidado para evitar contaminações que possam inviabilizar ou tornar errôneo o resultado. O processo consiste basicamente em utilizar os mecanismos da replicação in vitro. Os cientistas então simplificaram ao máximo o processo de polimerização das moléculas. A maquinaria para separar as fitas sense e anti-sense são muito complexas na célula, no lugar utiliza-se a mudança de temperatura. Os ciclos são pensados para disponibilizar o sitio alvo para a ligação dos primers, funcionamento da polimerase e início de um novo ciclo. Em primeiro lugar, deve-se extrair o material genético da célula ou outro material a ser estudado (exemplo: vestígios de crimes) sem danificá-lo. Normalmente o material extraído é o DNA (ADN), mas pode-se trabalhar com o RNA (ARN) em uma RT-PCR que é um desdobramento da PCR e possui outras aplicações. Depois de extraído o DNA, a este é adicionada uma mistura (também conhecida como pré-mix) que contém os dNTPs (desoxirribonucleotídeos trifosfatos), que são as bases nitrogenadas ligadas com um três fosfato, os "primers" (também chamados de oligonucleotídeos ou iniciadores) e a enzima Taq-polimerase em uma solução tampão. Toda esta mistura é colocada no termociclador, o qual faz ciclos de temperatura pré-estabelecidos com tempos exatos específicos para cada reação (fragmento a ser amplificado). Na primeira etapa do ciclo a temperatura é elevada de 94 a 96 °C por pouco tempo para que haja a separação da dupla cadeia de DNA (Desnaturação, quebra das pontes de hidrogênio). Na segunda etapa, a temperatura é reduzida entre 50 a 60 °C dependendo da quantidade de citosina (C) e guanina (G) encontrada no primer, para que os primers se anelem (emparelham) com a fita molde de DNA (anelamento). Na última etapa do ciclo a temperatura é elevada a 72 °C para que a enzima possa funcionar sintetizando a nova molécula (extensão), em seguida um novo ciclo é iniciado. Normalmente são realizados de 25 a 40 ciclos para cada reação na qual a taxa de replicação é exponencial formula_1 O resultado é analisado através de uma eletroforese em gel de agarose ou de poliacrilamida e depois é interpretado com a ajuda de um profissional competente. Geralmente um padrão de peso molecular é adicionado em uma das fileiras do gel, assim poderá se avaliar o tamanho do fragmento amplificado Variações da técnica básica de PCR. PCR aninhada. Utilizado para aumentar a quantidade de produto amplificado final ou para aumentar a sensibilidade da técnica. Suas reações requerem dois pares de primers, um par mais externo para a 1a reação e outro interno ao produto da 1a reação. A 1a reação necessita de um maior tempo de extensão devido ao maior tamanho do produto a ser amplificado, em seguida adiciona-se uma alíquota da 1a reação, que servirá de molde na mistura da 1a reação. O produto da 1a reação normalmente não é notado em corrida em gel de agarose. Por outro lado, o produto da 2a reação gerado em grande quantidade o é, por isso pode ser visualizado na corrida eletroforética ou utilizado para sequenciamento. Hot Start. A reação de PCR é ativada quando a temperatura atinge 960C. Esse procedimento aumenta a especificidade da PCR, pois a DNA polimerase contém um anticorpo, que se desnatura e ativa a enzima ao atingir esta temperatura. DNA polimerases que não possuem esse inibidor podem amplificar produtos indesejados (inespecíficos) em temperatura ambiente.
1467
Programa de computador
Programa de computador Um programa de computador ou programa informático é um conjunto de instruções que descrevem uma tarefa a ser realizada por um computador. O termo pode ser uma referência ao código fonte, escrito em alguma linguagem de programação, ou ao arquivo que contém a forma executável deste código fonte. História. O programa de computador surgiu antes do desenvolvimento do computador eletrônico. Um trabalho publicado em 1843 por Ada Lovelace, sugerindo uma forma para calcular os números de Bernoulli através da máquina analítica de Charles Babbage, é tido como o primeiro programa de computador. A primeira aplicação prática da programação surgiu com os dispositivos baseados em cartões perfurados, que eram utilizados desde o século XVIII na indústria da confecção. O empresário estadunidense Hermann Hollerith utilizou o conceito no processamento dos dados do censo dos Estados Unidos em 1890. Os primeiros computadores eletrônicos eram programados somente através de linguagens de baixo nível. Essas linguagens não disponibilizavam um nível de abstração sobre o "hardware" e os comandos eram interpretados diretamente pelos circuitos eletrônicos. No ENIAC, um dos equipamentos mais emblemáticos na história da computação, a programação era realizada através de ligações manuais, que uniam as unidades de processamento do computador, formando uma sequência de execução. As linguagens de alto nível surgiram por volta da década de 1940, como a Plankalkül e a Short Code, e tiveram grande impulso com o desenvolvimento dos compiladores, que tornaram a programação uma atividade possível para um grande número de pessoas. Na década de 1950 surgiu a primeira linguagem de grande aceitação, o Fortran. Terminologia. Um programa de computador é a formalização de um algoritmo em qualquer linguagem capaz de ser transformada em instruções que serão executadas por um computador gerando os resultados esperados. O termo "software" pode ser utilizado quando se quer designar um conjunto de programas ou, mais frequentemente, quando é feita uma referência à parte não física do sistema computacional, em contraposição ao termo "hardware", que designa o conjunto de componentes eletrônicos que constituem um computador. Os programas de computador utilizados diretamente por pessoas comuns, como os editores de texto, são chamados de software aplicativo, ou de aplicação. Os programas voltados para dar suporte funcional aos computadores, como os sistemas operacionais, são chamados de software de sistema. Esses softwares, assim como aqueles embutidos em outros sistemas ("firmware"), podem ser genericamente chamados de "programas". Software ou Softwares? Em inglês, a palavra "software" é um substantivo incontável, portanto, não possui plural, assim como "hardware". Entretanto, uma vez importado o termo nos países de língua portuguesa, com o uso cotidiano da palavra "software" como sinônimo de "programa de computador", ao menos no Brasil, houve uma adaptação da palavra e a aceitação do uso do termo "softwares" como plural de "software". Execução do programa. Um programa de computador é primeiramente carregado na memória do computador (usualmente pelo sistema operacional). O sistema operacional organiza três blocos de memória, também chamados segmentos. O primeiro é o segmento de código, que é estático em tamanho e em conteúdo. Ele recebe todo o código de máquina que define as sub-rotinas do programa, e o endereço de cada subrotina é definido como o menor dos endereços das células de memória que a definem. O segundo bloco de memória é o segmento de dados, e recebe as variáveis globais. Assim como no segmento de código, o endereço de cada variável é definido como o menor dos endereços das células de memória que o definem. Ele é estático em tamanho mas dinâmico em conteúdo, o que significa que este segmento não pode criar variáveis em tempo de execução, mas o conteúdo é variável, pode ser modificado. O terceiro bloco de memória é o segmento de pilha, uma área de memória na qual armazena-se informação em forma de uma pilha. Ele serve para armazenar informações como variáveis locais, parâmetros de sub-rotinas e endereços de retorno (para onde o fluxo do programa deve ir após a execução de uma função, isto é, o ponto logo após ela foi invocada). Antes da execução do programa propriamente dita, a pilha é esvaziada. A partir de então o programa é executado, instrução por instrução, até o seu término. A execução de um programa de computador pode ser abreviada em caso de erro de "software" ou de "hardware". Programa versus dados. A forma executável de um programa, normalmente um código objeto, é frequentemente tratada como algo separado dos dados utilizados por este programa. Em algumas linguagens, como o LISP, esta distinção não é tão clara pois os programas podem criar ou modificar os dados, que em seguida são executados como parte do mesmo programa. Programação. O ato de programar um computador é um processo iterativo que consiste na criação ou alteração de código fonte, seguido de testes, análise e posterior refinamento do resultado. Uma pessoa que realiza este trabalho é conhecida como programador de computador ou desenvolvedor de "software". A criação de programas de computador, quando baseada em metodologias ou processos formalizados, é conhecida como engenharia de software.
1468
Pedro da Maia
Pedro da Maia
1470
Pupunha
Pupunha Bactris gasipaes é uma espécie de palmeira multicaule da família Arecaceae, cujo fruto é conhecido por pupunha ou babunha. A espécie é nativa da região amazônica, onde é conhecida popularmente pelos nomes pupunheira e pupunha-verde-amarela. Uma planta da família Arecaceae (antiga Palmae, da carnaúba, babaçu e açaí), da qual se aproveitam diversos aspectos: frutos e palmito como alimento; palhas em cestaria e em cobertura de habitações; flores como tempero; estipe em artesanato e construções; e as amêndoas para extração de óleo. Pode crescer até 20m, frutificando grandes cachos em cinco anos em condições naturais, reduzindo à metade o tempo em condições especiais de cultivo. É há séculos consumida como alimento pelas populações nativas da América Central até a Floresta Amazônica. Etimologia. "Pupunha" é oriundo do tupi "pu'puña". Características. Os frutos alaranjados são ricos em proteínas, amidos e vitamina A, frequentemente consumidos depois de cozidos em água e sal, ou na forma de farinha ou óleo comestíveis. Contudo, também podem ser matéria-prima para a fabricação de compotas e geleias. Dos resíduos, faz-se ração animal. Existe uma grande variedade de aves que se alimentam da pupunheira silvestre, principalmente as araras, os papagaios e os periquitos (Psittacidae), os quais, ocasionalmente, podem ser espécies endêmicas com risco de extinção. Composição por 100 g de polpa (mesocarpo): No Brasil, essa planta também pode ser destinada para a indústria palmiteira porque apresenta características agronômicas adequadas. O mercado interno brasileiro de palmito é cerca de cinco vezes maior do que o externo, que, no entanto, apresenta uma demanda crescente, devido ao crescento uso do produto na culinária internacional. O cultivo da pupunha é economicamente importante também para a Costa Rica. Pragas e doenças. Pragas: Ácaro ("Tetranychus mexicanus"), formiga saúva ("Atta" spp.), broca-do-olho-do-coqueiro ("Rhynchophorus palmarum"), broca-das-raízes ("Strategus aloeus"). Doenças: Antracnose ("Colletotrichum gloeosporioides"), helmintosporiose ("Helminthosporium" sp.), podridão-do-broto ("Phytophora" sp.), mancha-parda ("Mycospharella" sp.), podridão-branca ("Monilia" sp.). Vantagens comerciais. A pupunheira apresenta uma série de vantagens para produção de palmito.As principais vantagens para a exploração comercial de palmito da pupunheira são: Além disto, os frutos da pupunheira também podem ser aproveitados para a preparação de sucos, sorvetes e consumidos cozidos em água e sal, tendo sabor semelhante ao milho verde. O palmito de pupunheira, tem sabor agradável, macio, nutritivo e baixo teor calórico. Além disso, é rico em fibras e minerais, como potássio, cálcio e fósforo, vitaminas e aminoácidos importantes, podendo fazer parte das dietas com restrições calóricas, podendo ser consumido ao natural, cozido em água com sal e limão, assado ao forno ou em churrasqueiras e, mais tradicionalmente, na forma de conserva. "Design" Sustentável. A pupunha também é aproveitada na confecção do compensado de pupunha, utilizado na produção de objetos de "design" e decoração. Trata-se de um compensado obtido a partir de ripas do estipe da palmeira, prensadas horizontalmente com adesivo de base vegetal. A parte aproveitável do estipe da pupunha para a confecção do compensado é a região periférica, considerada como material lenhoso de alta densidade e rigidez, alcançando um acabamento final de altíssima qualidade devido a sua superfície lisa, proporcionada pela sua textura fina. É uma palmeira amplamente utilizada na produção do palmito sustentável. Tal produção exige uma demanda contínua de sementes e mudas, originárias de matrizais (grandes áreas de cultivo de palmeiras). Quando atingem maior idade, devido às grandes alturas e à diminuição da produção, que geram aumento dos custos, os produtores são forçados a manejar a touceira para dar lugar ao estipe em frutificação. Esse processo gera como resíduo um volume elevado de estipes, de onde é fabricado este material, desenvolvido pela "Fibra Design Sustentável", através da parceria com a "ESDI-UERJ" (Escola Superior de Desenho Industrial, Universidade do Estado do Rio de Janeiro - UERJ). Em 2005, este material recebeu um dos mais importantes prêmios de design do mundo – iF Awards - na categoria de novos materiais. O compensado foi consagrado com o prêmio máximo: o troféu Gold. Além de ter sido o único representante da América Latina entre os premiados de sua categoria, foi a primeira vez, em mais de 51 anos de existência do prêmio, que uma instituição de ensino recebeu tal premiação. Consagrado devido representar uma excelente alternativa (não-madeireira) ao desmatamento das florestas nativas para obtenção de madeira. Agregando valor a um resíduo da agroindústria e permite a ampliação do ciclo de vida da espécie. Com isso apresenta uma nova alternativa de renda para os pequenos produtores rurais, e estimula a produção do palmito de Pupunha ono Brasil, ajudando a preservar outras espécies nativas de palmeiras, que vêm sofrendo com anos de exploração predatória.
1471
Paca
Paca A paca (nome cientifico: Cuniculus paca) é uma espécie de roedor da família Cuniculidae. Anteriormente era denominada "Agouti paca". Sendo um animal de grande porte, que perde por tamanho apenas para a capivara, sendo considerada assim o segundo maior roedor do Brasil. A paca não é classificada como espécie em extinção, porém no Estado do Paraná ela está classificada como "Em perigo de extinção" desde 2007. Esse desaparecimento da espécie da região pode estar relacionado principalmente à fragmentação dos remanescentes florestais e caça ilegal para comercialização da carne. Etimologia. O termo "paca" se origina do nome tupi para o animal, "paka", que também significa "vigilante, desperto, sempre atento". Distribuição geográfica e habitat. A paca pode ser encontrada desde a América Central, até a América do Sul, desde a Bacia do Rio Orinoco até o Paraguai. Seu habitat natural são florestas tropicais, é adepta a locais úmidos preferencialmente rios ou riachos estreitos.Por ser um animal terrestre, a paca costuma cavar buracos no chão para ser usados como toca, ou procura buracos naturais podendo também utilizar pedras em regiões rochosas como "casa", mas sempre se preocupando em criar saídas de emergência caso se sinta ameaçada. Características. Sendo um animal de hábitos noturnos, apresentam colorações de variados tons, pele dura e pelos eriçados. Com cores que vão do cinza-escura ao vermelho, e sempre com manchas brancas na lateral do corpo. Possuindo quatro dedos nas patas dianteiras e cinco nas traseiras, com unhas afiadas, favorecendo sua pegada em solos umedecidos e em beiras de rios e lagos. Sua cauda é minúscula. A paca possui dentes que nunca param de crescer, para que não passem dos limites, ela os desgasta roendo arvores como por exemplo o eucalipto que é arvore com tronco duro e a goiabeira. Animal muito veloz quando corre, principalmente para fugir de predadores, pois possui pernas grandes e fortes, muita agilidade e muito fôlego. Seu peso varia de 6 a 12 kg, tendo alguns machos que podem chegar ate a 15 kg. Possui faro, audição e visão aguçados, para que possam caminhar com facilidade à noite. A olho nu é difícil distinguir o sexo da paca, pois suas genitálias ficam dentro de um saco, independente do sexo. Alimentação do animal. A paca é um animal noturno e herbívoro, sendo que sua dieta é a base de frutas, folhas, vegetais, sementes e raízes. Destas, foi observado sua preferência em cativeiro e na natureza. Na natureza, a paca se alimenta de frutas da estação como Banana, Goiaba, Manga, Jaca, Mandioca, Abacate, Cajá-mirim entre outros. Costumeiramente ela visita "fruteiras" e plantações de milho de sítio e fazendas para se alimentar. Também podem realizar comportamento de necrofagia, consumindo carcaças de animais em decomposição, possivelmente para suprir demandas proteicas de sua dieta. Em cativeiro, a dieta da paca é mais rica e variada, englobando a maioria das frutas e legumes, hortaliças, tubérculos e cereais. Após experimentos, viu-se também sua adaptação com ração de equinos. Criação. Quanto aos criadores de pacas no Brasil, devem seguir a normas estabelecidas pelo IBAMA, tendo em vista o bem-estar animal previsto na Declaração universal dos direitos dos animais, privando o animal de fatores nocivos para sua vida como estresse, medo, angustia, aflição entre outros. Há espalhados no Brasil vários criatórios de paca, sendo uns somente da espécie e outros mistos com espécies nativas, como Cateto, Capivara, Ema e Cutia. Para começar a criação é preciso definir o propósito, podendo ser para comercialização do animal vivo, comercialização da carne, para soltura de animais na natureza ou todos estes juntos. Para cada finalidade, existe uma taxa a ser paga ao IBAMA. Ainda no pré projeto para a criação da paca, é preciso verificar se tem suporte necessário para atingir o que é previsto pelas leis do bem-estar animal, em que não se deve negar locações e necessidades básicas para a sobrevivência do animal. Para isso é importante ser providenciado tanques ou piscinas, para que o animal tenha o mais próximo de seu habitat e traga conforto ao mesmo, tendo em mente que a paca gosta de ambientes úmidos e que tenham bastante água. Deve ser pensando também em caixa-ninho, para que o animal tenha a possibilidade de realizar o ato do acasalamento no período determinado. Isso deve ser projetado de forma intensiva ou semi-intensiva, ou seja, com galpões divididos em espaços para os animais ficarem tranquilos para a reprodução. Todo esse processo precisa sempre ser acompanhado por um zootecnista ou um medico veterinário para realizar acompanhamentos de todos os exames necessários. Comportamento. Estando sempre em alerta, a paca é extremamente tímida e levando uma vida solitária de outras espécies. Para sair de noite a paca é bem meticulosa e cuidadosa evitando ao máximo lugares desconhecidos, normalmente ela percorre por caminhos feitos antes pela mesma que são chamados de "vareda" ou "carreiro". São também rotas de fuga para sua toca, esconderijos, lagos e rios. Elas chegam a trilhar 14km por noite a procura de alimento. A paca é o tipo de animal que não se esquece facilmente, exemplo disso é que a mesma tem a capacidade de se lembrar do local da fonte do seu alimento, indo todos os dias no mesmo horário até que a fonte de alimento se acabe. Por seu comportamento cauteloso, a paca é muito cuidadosa quando se trata de predadores. Ao se sentir ameaçada elas mergulham nos rios ou lagos, como são excelentes nadadoras e por terem um fôlego surpreendente, a mesma consegue ficar por muito tempo submersa e em casos de emergência ou extremos utilizam "sulapas" (bolsões de ar dentro da terra, com acesso somente por dentro d'água) para se proteger. Por ser um animal com hábitos noturnos, ela só sai a procura de alimento quando a noite está bem escura, para que isso ocorra a mesma tem uma sincronia perfeita as fases da lua. Estudos foram feitos em mamíferos noturnos, em especial marsupiais, roedores, lagomorfos, carnívoros, morcegos e primatas, tendo analisado que existe uma chamada "fobia lunar" em todas essas espécies, fazendo com que o animal saia apenas em fases que haja pouca luminosidade ou nenhuma. A fase de lua nova é a mais promissora para a saída da paca, sendo também a lua minguante, crescente e com a menor frequência sendo com a lua cheia. Caça. A caça de qualquer animal é crime no Brasil. Entretanto caçadores espalhados por todo o país continuam com essa prática nas sombras. A caça é feita de modo estudado e cuidadoso, geralmente os caçadores usam táticas para mudança de hábitos do animal, como por exemplo alimentando o animal em um ponto especifico para que vire habito do mesmo, e então quando a presa está fácil inicia o processo de captura. Vale lembrar que essa prática não é legal e é feita sem nenhuma supervisão. Reprodução. A paca tem geralmente filhos de uma a duas vezes por ano, dando a luz na maioria dos casos apenas a um filhote, e em casos raros podem vir gêmeos. O seu tempo de gestação é de aproximadamente 114 a 119 dias (3 meses). Sendo uma gestação demorada. Segundo profissionais, o animal tem apenas uma relação sexual por ano e o numero reduzido de filhotes por conta de um "espinho" peniano presente no macho, em razão disso, a fêmea sente dor e não vontade de cruzar. Outra possibilidade que enquanto está amamentando, a paca não permite que o macho chegue perto da mesma. Tendo o período de cio 5 dias após o nascimento da cria. Normalmente, vivem aproximadamente 15 anos de idade, e pode se chegar aos 18, mas isso vai depender do ambiente que está envolvida, sendo natural ou artificial. Para fins econômicos, donos de cativeiros podem usar de técnicas para forçar a paca a ter mais de uma cria por ano. É feito de maneira em que após o nascimento, a cria é retirada de perto da mãe, para que o macho possa se aproximar para a realização do acasalamento. Após a ato a cria é devolvida para a fêmea para ser cuidada de forma que possa crescer saudável. Sendo essa técnica de para se obter mais crias ao ano.
1472
Primatas
Primatas A ordem dos primatas é um grupo de mamíferos que compreende os popularmente chamados de macacos, símios, lêmures e os seres humanos. É dividida informalmente em símios e prossímios. Os primatas surgiram de ancestrais arborícolas nas florestas tropicais; muitas das características dessa ordem são adaptações a esse modo de vida. Entretanto, alguns primatas são parcialmente arborícolas. Com exceção dos humanos, que habitam todos os continentes, a maior parte dos primatas vivem em florestas tropicais e subtropicais das Américas, África e Ásia. Variam de forma extrema em tamanho, indo desde "Microcebus berthae", que pesa 30 g, até "Gorilla beringei graueri", que pode pesar mais de 200 kg. De acordo com o registro fóssil, os ancestrais mais primitivos dos primatas viveram no Cretáceo Superior, há cerca de 65 milhões de anos; o mais antigo primata conhecido é "Plesiadapis", do Paleoceno Tardio, entre há 55 e há 58 milhões de anos. Estudos de relógio molecular sugerem que a origem dessa ordem é mais antiga, com estimativas ao redor de há 85 milhões de anos, no Cretáceo Médio. A ordem dos Primatas tem sido tradicionalmente dividida em dois grupos: prossímios e antropoides. Prossímios possuem características dos primeiros primatas, e são os lêmures de Madagáscar, lorisídeos, e társios. Os antropoides incluem macacos e o homem. Mas recentemente, taxonomistas dividiram a ordem em Strepsirrhini, consistindo nos prossímios excluindo os társios, e em Haplorrhini, que são os társios e antropoides. Antropoides são divididos em dois grupos: Platyrrhini, ou "macacos do Novo Mundo", da América do Sul e Central, e Catarrhini, que incluem o Cercopithecoidea e o Hominoidea, da África e Ásia. Os "macacos do Novo Mundo" são, por exemplo, os bugios, os macacos-prego e os saguis; os catarrinos são, por exemplo, os babuínos, os gibões, e os hominídeos. Humanos são os únicos catarrinos a serem bem sucedidos fora da África e Ásia, embora o registro fóssil mostre que já houve primatas não-humanos na Europa. Muitos primatas foram descobertos na década de 2000. São considerados animais generalistas e exibem uma gama de características próprias. Alguns primatas, como alguns hominídeos e babuínos, são mais terrestres do que arborícolas, mas todas as espécies possuem adaptações para escalar árvores. A locomoção varia de saltos de galho em galho, andar sobre dois ou quatro membros, nodopedalia e locomoção pelos galhos com os braços (braquiação). Primatas são caracterizados por possuírem grande cérebros se comparados aos outros mamíferos, uma maior acurácia no sentido da visão em detrimento do olfato, com estereopsia. Essas características são notavelmente mais desenvolvidas em macacos e hominídeos, e menos em lêmures e lórises. Visão tricromática evoluiu em alguns primatas. Muitos possuem polegar opositor e cauda preênsil. Muitas espécies são sexualmente dimórficas: diferenças incluem massa corporal, tamanho dos caninos, e coloração. Primatas possuem taxas de reprodução lentas se comparadas com outros animais de mesmo porte e demoram para alcançar a maturidade sexual, mas possuem longevidade longa. Dependendo da espécie, adultos podem viver solitariamente, em casais, e até em grupos com centenas de indivíduos. Classificação dos primatas atuais. A ordem dos Primatas divide-se em duas subordens: Strepsirrhinis, que inclui os lêmures e os lóris; e Haplorrhini, que inclui aos tarsiiformes, os simios e os humanos. O diagrama abaixo mostra uma das classificações aceita dos primatas, baseado na cladística e na ancestralidade comum na definição dos grupos. Uma lista até subfamílias de primatas é dada abaixo, juntas com uma possível classificação em categorias entre ordem e família. Outras classificações também podem ser usadas. Por exemplo, uma possível classificação para Strepsirrhini divide essa subordem em duas infraordens somente: Lemuriformes e Lorisiformes. A ordem Primates foi estabelecida por Carl Linnaeus em 1758, na décima edição de seu livro, "Systema Naturae", contendo os gêneros "Homo" (humanos), "Simia" (macacos), "Lemur" (lêmures) e "Vespertilio" (morcegos). Na quinta edição do mesmo livro (1735), ele usou o nome Anthropomorpha para "Homo", "Simia" e "Bradypus" (preguiças). Em 1839, Henri Marie Ducrotay de Blainville, seguindo Linnaeus e sua nomenclatura, as ordens Secundates (incluindo as subordens Chiroptera, Insectivora e Carnivora), Tertiates (ou Glires) e Quaternates (incluindo Gravigrada, Pachydermata e Ruminantia), mas esses táxons não foram aceitos. Antes de Anderson e Jones introduzirem a classificação de Strepsirrhini e Haplorrhini em 1984, (seguido pelo trabalho de McKenna e Bell de 1997, ""), os primatas foram divididos em Prosimii e Anthropoidea. Prosimii incluiu todos os prossímios: Strepsirrhini mais os társios. Anthropoidea contém todos os símios. História evolutiva. A ordem dos primatas é parte do clado Euarchontoglires, que está dentro do clado Eutheria, na classe Mammalia. Estudos moleculares com primatas, colugos e escandêncios mostraram que as duas espécies de dermópteros são mais próximos dos primatas do que Scantentia, embora os integrantes deste último grupo já foram considerados primatas. Essas três ordens fazem parte do clado Euarchonta. A combinação deste clado com Glires (composto por Rodentia e Lagomorpha) forma o clado Euarchontoglires. Tanto Euarchontoglires quanto Euarchonta podem ser ranqueadas como superordens. Alguns autores consideram Dermoptera como subordem de Primates, considerando os primatas "verdadeiros" como Euprimates. Evolução. A linhagem dos primatas surgiu há cerca de 65 milhões de anos, apesar do mais antigo fóssil de primata ser o "Plesiadapis" (datado entre há 55 a 58 milhões de anos) do final do Paleoceno. Estudos com relógio molecular estimam a origem dos primatas para cerca de há 85 milhões de anos, no Cretáceo Médio. Pela cladística moderna, a ordem dos primatas é monofilética. A subordem Strepsirrhini, primatas com "rinário", se separou da linhagem primitiva de primatas há 63 milhões de anos, apesar de que isso pode ter ocorrido antes. As sete famílias de Strepsirrhini são as cinco famílias de lêmures e as duas famílias que incluem os gálagos e lorisídeos. Classificações antigas colocam Lepilemuridae dentro de Lemuridae e Galagonidae em Lorisidae, mostrando uma relação de quatro famílias para uma, em vez de cinco para duas como apresentada aqui. Durante o Eoceno, a maior parte dos continentes ao norte eram dominados por dois grupos: Adapiformes e Omomyidae. O primeiro é considerado Strepsirrhini, mas não possui o pente dental como os modernos lêmures; análises recentes demonstraram que "Darwinius masillae" fazem parte deste grupo. O segundo grupo é mais relacionado aos társios e macacos antropoides. Não é claro como esses grupos se relacionam com os primatas viventes. Os Omomyidae se extinguiram há cerca de 30 milhões de anos, enquanto os adapiformes viveram até cerca de há 10 milhões de anos. De acordo com estudos genéticos, os lêmures de Madagáscar divergiram dos lorisídeos há cerca de 75 milhões de anos. Estes estudos, assim como evidências por cariótipo e biologia molecular, também mostram que os lêmures são mais relacionados entre si do que com os outros Strepsirrhini. Entretanto, Madagáscar se separou da África há 160 milhões de anos, e da Índia há 90 milhões. Por conta desses fatos, uma população fundadora de lêmures chegou a Madagáscar da África continental por dispersão oceânica entre há 50 e há 80 milhões de anos. Outras opções de colonização devem ser examinadas, como múltiplas colonizações da África e Índia, mas nenhuma é suportada por evidência genética ou molecular. Até recentemente, o aie-aie não tinha um lugar claro dentro de Strepsirrhini. Hipóteses têm sido propostas de que esta família, Daubentoniidae, foi um primata lemuriforme (o que significa que seus ancestrais surgiram após a separação dos lêmures e lorisídeos) ou um grupo-irmão de todos os Strepsirrhini. Em 2008, a família do aie-aie foi confirmada como mais relacionada aos lêmures de Madagáscar, descendendo da mesma população ancestral que colonizou a ilha. A subordem Haplorrhini, ou primatas "sem-rinário", é composta por dois clados. Os társios da família Tarsiidae (monotípico em sua infraordem Tarsiiformes), representa a divisão mais basal, originada há 58 milhões de anos. A infraordem Simiiformes surgiu há 40 milhões de anos, e contém dois clados: Platyrrhini, que evoluíram na América do Sul, sendo conhecidos por "macacos do Novo Mundo", e Catarrhini, que evoluíram na África, sendo os "macacos do Velho Mundo", humanos e grandes símios. Um terceiro clado, Eosimiidae, evoluiu na Ásia, mas já se extinguiu. Como no caso dos lêmures, a origem dos "macacos do Novo Mundo" não é clara. Estudos moleculares têm mostrado uma enorme variação nas datas de divergência desses primatas com Catarrhini, fornecendo datações entre há 33 e há 70 milhões de anos, mas estudos de DNA mitocondrial mostram menos variação, fornecendo datas entre há 35 e há 43 milhões de anos. Esses primatas atravessaram o oceano Atlântico da África para a América do Sul através de "saltos" entre ilhas, facilitados pela Dorsal Mesoatlântica, em um oceano com níveis de água mais baixos. Alternativamente, uma dispersão oceânica isolada pode explicar essa colonização. Devido à deriva continental, o oceano Atlântico não era tão amplo como é hoje em dia. Pesquisas mostram que um macaco de 1 kg é capaz de sobreviver até 13 dias em uma jangada de vegetação. Dadas determinadas condições de corrente e velocidade do vento, seria possível uma viagem entre os dois continentes em um curto espaço de tempo. Os catarrinos se dispersaram da África até a Europa e Ásia no começo do Mioceno. Logo após, lórises e társios fizeram o mesmo caminho. O primeiro fóssil de hominídeo foi descoberto no norte da África e é datado entre há 5 e 8 milhões de anos. Os "macacos do Velho Mundo" se extinguiram da Europa há 1,8 milhão de anos. Estudos moleculares e paleontológicos mostram a origem do homem como sendo na Árica, entre há 100 mil e 200 mil anos. Embora os primatas foram muito bem estudados em relação a outros grupos de animais, muitas espécies foram descobertas na década de 2000, e a genética tem demonstrado a existência de espécies desconhecidas em populações já conhecidas. "Primate Taxonomy" listou cerca de 350 espécies em 2001. O autor, Colin Groves, aumentou o número na terceira edição do livro "Mammal Species of the World". Entretanto, publicações mais recentes listam cerca de 424 espécies, ou 658 táxons, se contar as subespécies. Híbridos. Híbridos entre primatas ocorrem em cativeiro, mas também já foram reportados em estado selvagem. A hibridização ocorre quando duas espécies com distribuição geográfica sobrepostas se cruzam, formando zonas híbridas; também pode ocorrer quando animais são colocados em zoológicos ou na natureza devido à intensa predação. Híbridos entre gêneros também são encontrados em animais em liberdade: embora são de gêneros separados por milhões de anos, existe cruzamento entre geladas e babuínos-sagrados. Caracteres diagnósticos. Primatas se diversificaram em habitats arbóreos e possuem muitas características que são adaptações a esses ambientes. Eles são distinguíveis pelas seguintes características: Nem todos os primatas exibem esses traços anatômicos, nem todos eles são exclusivos dos primatas. Por exemplo, outros mamíferos possuem clavículas, três tipos de dentes e pênis pendular, o macaco-aranha possui polegar muito reduzido, a varecia possui seis glândulas mamárias e strepsirrhini possui longos focinhos e acurado senso olfatório. Em relação ao comportamento, primatas são animais sociais, com sistemas hierárquicos flexíveis. "Macacos do Novo Mundo" podem formar pares monogâmicos e apresentam substancial cuidado paterno ao contrário dos "macacos do Velho Mundo". Descrição. Primatas possuem olhos voltados para a frente no crânio, a visão binocular permite acurada percepção de distância e profundidade, útil para animais que se deslocam em ambientes tridimensionais como árvores. A arcada supraciliar reforça ossos mais fracos na face, que são colocados sob tensão durante a mastigação. Strepsirrhini possui uma barra pós-orbital, um osso atrás do soquete dos olhos, para protegê-los; em haplorrhini, a estrutura óssea do soquete se desenvolveu a ponto de envolver todo o olho. O crânio possui uma arredondada caixa craniana, especialmente desenvolvida em antropoides. O crânio protege o cérebro, que é particularmente desenvolvido neste grupo. O volume endocranial é três vezes maior em humanos do que no maior primata não humano, refletindo o maior tamanho relativo de cérebro. A média desse volume é de 1 201 cm³ em humanos, 469 cm³ em gorilas, 400 cm³ em chimpanzés e 397 cm³ em orangotangos. A tendência na evolução dos primatas é o desenvolvimento do córtex cerebral, particularmente o neocórtex, que é envolvido na percepção sensorial, na geração de padrões motores complexos, consciência, e em humanos, a fala. Enquanto outros mamíferos dependem muito do olfato, o modo de vida arborícola dos primatas o torna mais dependentes da visão e do tato, e a vivência em complexos meios sociais foi pressão seletiva para o aumento de áreas do córtex envolvidas na consciência e comunicação, o que culminou na redução do senso olfatório. Primatas, geralmente, possuem cinco dedos nas mãos e pés (pentadactilia), com unhas no final de cada dedo. As palmas das mãos, solas dos pés e a ponta dos dedos possuem áreas táteis mais desenvolvidas. Muitos possuem polegar opositor, uma característica diagnóstica dos primatas, embora não seja limitada a essa ordem (os gambás também compartilham de tal característica). Polegares permitem que eles possam utilizar ferramentas. Nos primatas, a combinação de polegares opositores, unhas curtas (em vez de possuírem garras), e longos e preênseis dedos é herança da prática ancestral de se agarrar em galhos, e permitiu, em parte, que alguns animais desenvolvesse a capacidade de braquiação (se locomover de galho em galho utilizando unicamente os braços). Prossímios possuem unhas como garras no segundo dedo de cada pés, e é usado para a catação. A clavícula nos primatas é presente como um elemento proeminente da cintura escapular, e graças a ela a articulação do ombro tem extrema mobilidade. Hominoides possuem mobilidade maior ainda, graças a posição mais dorsal da escápula, caixas torácicas largas e relativamente curtas, e a parte lombar da coluna vertebral é mais curta e móvel do que comparado aos cercopitecoides. Tal anatomia está relacionada ao meio de locomoção predominantemente braquiador nos hominoides. Cercopitecoides também possuem cauda, mas não é preênsil. A única família de Haplorrhini a terem uma cauda verdadeiramente preênsil é Atelidae, em que estão incluídos os macacos-aranha, muriquis e bugios (o macaco-prego possui uma cauda semipreênsil, e saguis e micos-leões não possuem cauda preênsil). Um tendência evolutiva nos primatas foi a redução do focinho. Tecnicamente, os "macacos do Velho Mundo" são distinguíveis dos "macacos do Novo Mundo" pela estrutura do nariz, e são distinguíveis dos hominoides pelo arranjo dos dentes. Nos "macacos do Novo Mundo", as narinas são posicionadas lateralmente, enquanto nos do Velho Mundo, elas estão mais centralizadas e viradas para baixo. Dentição varia consideravelmente nos primatas, e embora alguns possam ter perdido quase todos incisivos, todos os primatas retém pelo menos um incisivo inferior. Em muitos strepsirrhini, os incisivos e caninos inferiores foram um pente dental, que é usado na catação e no forrageamento, e o primeiro pré-molar inferior é no formato de um canino. Catarrinos possuem oito pré-molares, enquanto os platirrinos possuem doze. Cercopitecoides se diferenciam dos hominoides por conta do número de cúspides nos molares; hominoides possuem cinco, enquanto cercopitecoides possuem quatro cúspides, mas os seres humanos (que são hominoides) podem ter quatro ou cinco. Os prossímios são diferentes por possuírem lábio inferiores imóveis, a ponta do nariz úmida, e incisivos e caninos inferiores projetados para frente. A evolução da visão em cores nos primatas é única entre os mamíferos. Enquanto que os ancestrais vertebrados possuíam visão tricromática, os ancestrais noturnos e homeotermos dos mamíferos perderam um dos três cones durante a era Mesozoica. Peixes, aves e répteis são tricromatas e até tetracromatas, enquanto todos os mamíferos, com exceção de alguns primatas e dos marsupiais, são dicromatas ou monocromatas (são completamente "cegos" à cores). Primatas noturnos como "Aotus" e galagos são frequentemente monocromatas. Catarrinos são tricromatas devido a uma duplicação do gene da opsina, há cerca de 30 a 40 milhões de anos. Platirrinos são tricromatas apenas em algumas ocasiões. Especificamente, fêmeas são heterozigotas para dois alelos do gene da opsina (vermelho e verde) localizado no mesmo lócus no cromossomo X. Machos, portanto, podem ser apenas dicromatas, enquanto fêmeas podem ser dicromatas ou tricromatas. Visão em cores em strepsirrhini não é bem compreendida: entretanto, pesquisas indicam um padrão de visão em cores parecido com o encontrado nos platirrinos. Como os catarrinos, os bugios mostram tricromatismo padrão, como originado pela duplicação gênica. Bugios são um dos mais especializados comedores de folhas entre os "macacos do Novo Mundo": os tipos de folhas que eles preferem consumir (jovens,nutritivas e fáceis de digerir) são detectáveis por sinais de verde e vermelho. O ambiente acabou selecionando o tricromatismo nos bugios. Dimorfismo sexual. Dimorfismo sexual é frequentemente exibido em símios, apesar de ser mais frequente em Catarrhini do que em Platyrrhini. Primatas geralmente apresentam dimorfismo sexual na massa corporal, tamanho dos caninos e cor do pelo e da pele. O dimorfismo pode ser atribuído a vários fatores, como sistema de acasalamento, tamanho, habitat e dieta. Análises comparativas têm gerado um entendimento mais completo da relação entre seleção sexual, seleção natural e sistemas de acasalamento entre primatas. Alguns estudos mostraram que o dimorfismo provem de mudanças tanto em caracteres masculinos, quanto femininos. A ontogenia dá alguma luz em relação ao surgimento de dimorfismo sexual e padrão de crescimento. Algumas evidências paleontológicas sugerem que houve convergência evolutiva no dimorfismo, e alguns hominídeos extintos tiveram provavelmente um dimorfismo sexual maior do que muitos primatas viventes.. Estudos sugeriram que os primeiros Homininae eram dimórficos e que isso diminuiou ao longo da evolução do gênero Homo, correlacionando-se com os seres humanos se tornando mais monogâmicos, enquanto os gorilas, que vivem em haréns, mostram um grande grau de dimorfismo sexual. Locomoção. Os primatas se movimentam por braquiação, bipedalismo, saltos, quadrupedalismo arborícola ou terrestre, escaladas, nodopedalia ou uma combinação de qualquer um desses modos de locomoção. Muitos prossímios são primariamente escaladores e saltadores. Isto inclui muitos galagos, todos os indriidae, lepilemuridae, e todos tarsiidae. Outros prossímios são quadrúpedes arborícolas. Muitos símios são quadrúpedes arborícolas e terrestre e escaladores. gibões, muriquis e macacos-aranhas são predominantemente braquiadores. O macaco-barrigudo pode braquiar eventualmente. Orangotangos utilizam uma forma de locomoção parecida com a braquiação, em que eles utilizam os quatro membros para se locomover nas árvores. Os chimpanzés e gorilas são nodopedálicos, e podem se mover de forma bípede apenas por distâncias curtas. Embora muitas espécies fósseis fossem bípedes, como australopitecíneos e humanos pré-históricos, atualmente, apenas o homem utiliza de tal modo de locomoção exclusivamente. Ecologia e comportamento. Sistemas sociais. Primatas estão entre os mais sociais dos animais, vivendo em grupos familiares, pares, haréns com um único macho, e grupos formados multi-machos/multi-fêmeas. Richard Wrangham estabeleceu que a estrutura social de primatas não humanos é melhor classificada de acordo com os movimentos migratórios das fêmeas entre os grupos. Ele propôs quatro categorias: Outros sistemas ocorrem também. Nos bugios, tanto os machos quanto as fêmeas saem do grupo quando alcançam a maturidade sexual, resultando em grupos que nem os machos ou as fêmeas são parentes. Alguns prossímios, macacos colobos e calitriquíneos possuem tal sistema. A primatalogista Jane Goodall, que estudou chimpanzés Parque Nacional do Gombe, notou que a dinâmica do grupo segue um padrão de fissão-fusão. Esta "fissão" ocorre quando o grupo se separa para forragear durante o dia, e a "fusão" é quando o grupo retorna a noite, para dormir unidos. Isto é observado no babuíno-sagrado, macaco-aranha, e no bonobo. O gelada tem uma estrutura social similar em que muitos pequenos grupos se unem de forma temporário, totalizando até 600 indivíduos. Estes sistemas sociais são afetados por três fatores ecológicos principais: distribuição de recursos, tamanho do grupo e predação. Dentro do grupo há um balanço entre cooperação e competição. Comportamentos cooperativos incluem a catação (remover ectoparasitas da pele e pelo), compartilhamento de comida, e defesa coletiva contra predadores e do território. Comportamentos agonísticos frequentemente sinalizam competição por comida, sítios de dormida ou por cópulas. Agressão também é usada para estabelecer hierarquias. Relações interespecíficas. Várias espécies de primatas são conhecidas por se associarem. Algumas dessas associações foram extensivamente estudadas. No Parque Nacional de Taï várias espécies se associam para coordenar defesas antipredatórias. Incluem "Cercopithecus diana", "Cercopithecus campbelli", "Cercopithecus petaurista", "Piliocolobus badius", "Colobus polykomos" e "Cercocebus atys", que coordenam entre si vocalizações de alarme. Entre os predadores desses primatas está o chimpanzé-comum. "Cercopithecus ascanius" associa com várias espécies, incluindo "Piliocolobus badius", "Cercopithecus mitis", "Cercopithecus wolfi", "Colobus guereza", "Lophocebus aterrimus" e "Allenopithecus nigroviridis". O chimpanzé-comum também pode predar essas espécies. Na América do Sul, o macaco-de-cheiro se associa com o macaco-prego. Esta associação traz mais vantagens no forrageio do que em defesa antipredatória. Em calitriquíneos foi observada a associação do mico-leão-de-cara-dourada com o sagui-de-wied. Cognição e comunicação. Primatas possuem avançadas habilidades cognitivas: alguns fabricam ferramentas e as utilizam para conseguir comida e em exibições sociais; alguns possuem sofisticadas estratégias de caça que requerem cooperação, influência e hierarquia; possuem consciência de "status" social, capacidade de manipulação e enganação; podem reconhecer parentesco e coespecíficos; primatas não-humanos podem usar símbolos e aprender aspectos da fala humana incluindo alguma sintaxe e conceitos de número e sequência numéricas. Pesquisas em inteligência de primatas envolvem resolução de problemas, memória, interação social, teoria da mente, e conceitos numéricos, abstratos e espaciais. Estudos comparativos mostram uma tendência na evolução a aumentar a capacidade cognitiva dos prossímios, para os platirrinos e para os catarrinos, e há significativamente maior inteligência nos hominoides. Entretanto, há grande variação dentro desses grupos (entre os "macacos do Novo Mundo", há o macaco-aranha e o macaco-prego possuem os maiores índices em alguns testes de inteligência), assim como é observado em resultados de diferentes estudos. Lêmures, lorisídios, társios e platirrinos dependem de sinais olfatórios em muitos aspectos do comportamento social e reprodutivo. Glândulas especializadas que produzem feromônios são utilizadas para marcar território, que são detectadas pelo órgão vomeronasal; esses processos constituem grande parte da comunicação entre esses primatas. Em cercopitecídeos e hominoides esta habilidade é vestigial, sendo que os olhos são os principais órgãos sensoriais. Primatas também usam vocalizações, gestos, e expressões faciais para transmitir estados emocionais. "Carlito syrichta" possui um limite de alta frequência de audição de cerca de 91 kHz com uma frequência dominante de 70 kHz. Tais valores são os maiores registrados entre mamíferos terrestres, e é um exemplo relativamente extremo de comunicação ultrassônica. Para esses primatas, vocalizações ultrassônicas representam um canal comunicativo que burla a detecção de suas vocalizações por predadores, presas e competidores, otimizando a eficiência energética, ou melhorando a detecção de sons em barulhos de fundo de baixa frequência. Chlorocebus pygerythrus dá uma chamada de alarme distinta para cada um de pelo menos quatro predadores diferentes, e as reações de outros macacos variam de acordo com a chamada. Por exemplo, se uma chamada de alarme sinaliza uma píton, os macacos sobem nas árvores, enquanto o alarme da águia faz com que os macacos procurem um esconderijo no solo. Muitos primatas não humanos têm a anatomia vocal para produzir a fala humana, mas não possuem a fiação cerebral adequada.. Padrões vocais semelhantes a vogais foram registrados em babuínos, o que tem implicações para a origem da fala em humanos. Atualmente, é indiscutível que, em sua maioria, os pré-humanos Australopithecus não tinham sistemas de comunicação significativamente diferentes daqueles encontrados nos símios em geral. As opiniões na academia variam, entretanto, quanto à evolução desses sistemas desde o aparecimento do gênero Homo, há cerca de 2,5 milhões de anos. Alguns estudiosos assumem o desenvolvimento de sistemas primitivos de linguagem (proto-língua) tão cedo quanto o "Homo habilis", enquanto outros associam o desenvolvimento da comunicação simbólica primitiva apenas com o "Homo erectus" (há 1,8 milhões de anos) ou o "Homo heidelbergensis" (há 0,6 milhões de anos). Há ainda linhas de conhecimento segundo a qual o desenvolvimento da linguagem humana como a conhecemos estaria ligada ao "Homo sapiens" (humanos modernos), há menos de cem mil anos, na África. Crescimento e desenvolvimento. Primatas possuem as taxas mais lentas de crescimento entre os mamíferos. Todos os filhotes são amamentados por suas genitoras (com exceção do que é observado em algumas culturas humanas e alguns primatas nascidos em zoológicos) e são dependentes na catação e locomoção. Em algumas espécies, os infantes são protegidos e transportados pelos machos dos grupos, especialmente se esses machos forem seus pais. Outros parentes, como irmãos e tios também ajudam no cuidado. Muitas fêmeas primatas cessam a ovulação quando estão em lactação, e quando o filhote desmama ela volta a ovular normalmente. Isto pode levar a conflitos entre a mãe e o filhote que está sendo desmamado, que tenta continuar a ser amamentado. Primatas possuem um longo período juvenil entre o desmame e a maturidade sexual se comparados com mamíferos de tamanho similar. Alguns primatas como gálagos e platirrinos utilizam buracos em troncos de árvores para fazer ninho, e os adultos deixam os jovens em ninhos de folhas quando saem para forragear. Outros primatas carregam os filhotes enquanto se alimentam. Adultos podem usar ou construir sítios de domirda , às vezes acompanhados de juvenis, para descansar, e tal comportamento se desenvolveu secundariamente em hominoides. Durante o período juvenil, primatas estão mais sujeitos à predação e inanição: eles ganham experiência nesse período em conseguir comida e evitar predadores. Eles aprendem habilidades de luta e sociais, frequentemente brincando. Primatas, especialmente as fêmeas, possuem grande longevidade se comparados com outros mamíferos do mesmo porte. No fim da vida, as fêmeas de catarrinos apresentam uma cessação na função reprodutiva, não ovulando mais, um fenômeno conhecido por menopausa: tal processo não foi largamente estudado em outros grupos. Dieta e forrageio. Primatas exploram uma ampla variedade de recursos alimentares. É dito que muitas características dos modernos primatas, incluindo os humanos, derivam de adaptações de ancestrais que procuravam alimento nas copas das árvores. Muitos primatas incluem frutos em sua dieta, que são fontes de carboidratos e lipídeos fáceis de digerir. Entretanto, é necessário outras fontes de nutrientes, como folhas ou insetos, para conseguir aminoácidos, vitaminas e minerais. Primatas da subordem Strepsirrhini são capazes de produzir a vitamina C, como outros mamíferos, o que não ocorre nos integrantes da subordem Haplorrhini, que precisam obter a vitamina C a partir da dieta. Muitos primatas possuem especializações anatômicas que os tornam capazes de explorar recursos específicos, como frutos duros, exsudatos, ou insetos. Por exemplo, comedores de folhas como os bugios , macacos do gênero "Colobus" e lêmures da família Lepilemuridae possuem tratos digestivos longos que os tornam capazes de absorver nutrientes desses itens alimentares que são difíceis de digerir. Saguis se alimentam de exsudatos, e possuem resistentes dentes incisivos, capazes de abri as cascas das árvores para obter a goma, e unhas parecidas com garras, que os permitem se prender em substratos verticais enquanto se alimentam. O aie-aie combina dentes como de roedores com dedos médios muito longos e finos para explorar os mesmo nichos que um pica-pau. Eles perfuram troncos de árvores para achar larvas de insetos, roendo a madeira e inserindo o longo dedo no buraco para retirar as larvas. Algumas espécies possuem especializações adicionais. Por exemplo, "Lophocebus albigena" possui o esmalte dentário grosso, que o permite abrir a casca de frutos duros e sementes que outros macacos não conseguem. O gelada é o único primata que se alimenta primariamente de grama. Társios são os únicos primatas viventes que são carnívoros obrigatórios, se alimentando exclusivamente de insetos, crustáceos, pequenos vertebrados e cobras (inclusive, espécies peçonhentas). Em contrapartida, o macaco-prego se alimenta desde frutas, folhas, néctar, flores, brotos, e sementes até insetos, outros invertebrados, ovos e até pequenos vertebrados como pássaros, lagartos, pequenos roedores e morcegos. O chimpanzé-comum possui uma dieta variada e é predador de outras espécies de primatas, como "Piliocolobus badius". Como predadores. Társios são os únicos primatas obrigatoriamente carnívoros existentes, comem exclusivamente insetos, crustáceos, pequenos vertebrados e cobras (incluindo espécies venenosas). Macacos-pregos podem explorar muitos tipos diferentes de matéria vegetal, incluindo frutas, folhas, flores, brotos, néctar e sementes, mas também comem insetos e outros invertebrados, ovos de aves e pequenos vertebrados, como pássaros, lagartos, esquilos e morcegos. O chimpanzé-comum tem uma dieta variada, que inclui predação de outras espécies de primatas, como o Piliocolobus badius. Isso às vezes envolve o uso de ferramentas. Chimpanzés comuns afiam varas para usar como armas quando caçam mamíferos. Esta é considerada a primeira evidência de uso sistemático de armas em uma espécie diferente de seres humanos. Pesquisadores documentaram 22 ocasiões em que chimpanzés selvagens usaram varas como "lanças" para caçar primatas da família Galagonidae. Em cada caso, um chimpanzé modificava um ramo rompendo uma ou ambas as extremidades e, muitas vezes usando seus dentes, afiava o ramo. As ferramentas, em média, eram de cerca de 60 cm de comprimento e 1,1 cm de circunferência. Os chimpanzés, em seguida, apontam as suas "lanças" em buracos em troncos de árvores onde os galagos dormem. Houve um único caso em que um chimpanzé extraíu com sucesso um galago com a ferramenta. O bonobo é um frugívoro onívoro - a maioria de sua dieta é formada por frutas, mas complementa isso com folhas, carne de pequenos vertebrados, como roedores da família Anomaluridae, esquilos voadores e duikers, e invertebrados Em alguns casos, os bonobos foram vistos comendo primatas de porte menor. Os chimpanzés são a espécie de primata mais próxima dos seres humanos. As fontes de alimentação dos primeiros caçadores-coletores humanos evoluíram consideravelmente ao longo do tempo e dos recursos disponíveis por estes. Atualmente existem, entre seres humanos, diferentes tipos de fontes de alimentação, a maioria dos quais contêm produtos de origem animal. Nos seres humanos modernos, as fontes de alimentação variam amplamente entre as sociedades, e tem um aspecto cultural. Como presa. Predadores de primatas incluem várias espécies de mamíferos da ordem dos carnívoros, aves de rapina, répteis e outros primatas. Mesmo gorilas foram registrados como presa. Predadores de primatas têm diferentes estratégias de caça e, como tal, os primatas evoluíram várias adaptações antipredação diferentes, incluindo camuflagem, chamadas de alarme e mobbing. Várias espécies têm chamadas de alarme separadas para diferentes predadores, como os predadores que vivem no solo ou que tem capacidade de voar. Predação pode moldar o tamanho do grupo em primatas como espécies expostas a pressões de predação mais elevadas parecem viver em grupos maiores. Com a sua tecnologia e aumento da inteligência, os humanos modernos são quase livres de ameaças de predadores e são eles próprios superpredadores. Manufatura e uso de ferramentas. Uso de ferramentas. Ferramentas são os itens mais importantes que os antigos humanos usavam para subir ao topo da cadeia alimentar; inventando ferramentas, eles foram capazes de realizar tarefas que os corpos humanos não podiam, como usar uma lança ou arco e flecha para matar a presa, já que seus dentes não eram afiados o suficiente para perfurar a pele de muitos animais. Gradualmente, suas ferramentas foram combinadas para criar outras mais complexas, por exemplo, uma pedra afiada em formato de serra foi adicionada ao cabo do martelo, e foi criada a foice, que serviu para coletar a colheita. Graças a esses avanços e combinações, hoje há uma grande variedade de ferramentas: lápis de escrever, borrachas, esteiras, carros para se mover mais rápido, computadores para escrever ou se conectar com o mundo, etc. Há muitos relatos de primatas não-humanos usando ferramentas, ambos em cativeiro e liberdade. O uso de ferramentas por essas outras espécies de primatas é variado e inclui caça (mamíferos, invertebrados, peixes), coletar mel, processar comida (nozes, frutas, vegetais e sementes), coletar água, armas e abrigo. Em 1960, Jane Goodall observou um chimpanzé usando pedaços de gravetos em um cupinzeiro e levando o graveto até sua boca. Após ele ter deixado o cupinzeiro, Goodall se aproximou do monte e repetiu o comportamento porque ela estava insegura quanto ao que o chimpanzé estava fazendo. Ela verificou que os cupins se ligavam ao graveto. O chimpanzé havia usado o graveto como ferramenta para coletar os cupins. Existem relatos mais limitados de bonobos usando ferramentas em liberdade: tem sido observado que eles raramente utilizam ferramentas em liberdade, embora em cativeiro eles prontamente as utilizam, como os chimpanzés. Também foi reportado que tanto em chimpanzés quanto em bonobos, as fêmeas utilizam ferramenta mais frequentemente que os machos. Orangotangos em Bornéo coleta bagres de pequenos lagos. A antropóloga Anne Russon viu vários animais nessas ilhas florestadas aprendendo como pescar peixes com varas, que saltam das lagoas para suas mãos. Há poucos relatos de gorilas utilizando ferramentas. Aparentemente, uma fêmea de gorila-do-ocidente foi observada utilizando uma vara para testar a profundidade da água enquanto atravessa um curso d'água. Uma outra fêmea foi observada usando um tronco de um arbusto como apoio enquanto coletava alimento, e uma outra, utilizando como ponte. O macaco-prego foi o primeiro primata não-hominoide a utilizar ferramentas em liberdade: indivíduos quebravam nozes e cocos colocando eles em cima de uma pedra e acertando-os com outra. Na Thailândia e Myanmar, "Macaca fascicularis" usa pedras para abrir nozes, ostras e outros bivalves, e vários tipos de frutos do mar. Babuínos usam pedras como armas, arremessando-as. Embora não tenham sido observados utilizando ferramentas em liberdade, lêmures em situações controladas são capazes de entender as propriedades funcionais de objetos que eles tenham sido treinados a usar como ferramentas, utilizando-as tão bem quanto macacos propriamente ditos. Distribuição geográfica e habitat. Primatas evoluíram a partir de animais arborícolas, e muitos conservam esse modo de vida ancestral. Muitos primatas vivem em regiões de floresta tropical. O número de espécies nessas regiões é correlacionado positivamente com a quantidade de chuvas e a área de floresta na região. Cerca de 25% a 45% da biomassa dos animais frugívoros nas florestas tropicais é composta por primatas, e eles acabam por desempenhar um importante papel na dispersão de sementes de muitas espécies de plantas. Algumas espécies são parcialmente terrestres como os babuínos e "Erythrocebus patas", e poucas espécies são totalmente terrestres, como os geladas e humanos. Primatas não humanos vivem em diversos ambientes nas latitudes tropicais da África, sudeste da Ásia, Índia e América, incluindo florestas úmidas, mangues e florestas de montanha. Há alguns exemplos de primatas que vivem em regiões não tropicais, como o macaco-japonês que habita montanhas em Honshu, e que se cobrem de neve durante oito meses todo ano, e o macaco-de-gibraltar, que habita a cordilheira do Atlas, na Argélia e Marrocos. Primatas também são encontrados em altitudes variadas: "Rhinopithecus bieti" é encontrado em altitudes de 4 700 m nas Montanhas Hengduan e o gorila-das-montanhas pode ser visto a até 4 200 m nas Montanhas Virunga. O gelada habita regiões de até 5 000 m de alitude no Planalto da Etiópia. Embora geralmente não gostem de água, algumas espécies são boas nadadoras e habitam regiões pantanosas, como o macaco-narigudo, "Cercopithecus neglectus" e "Allenopithecus nigroviridis", que desenvolveram pequenas membranas interdigitais. Alguns primatas, como o macaco-rhesus e "Semnopithecus", podem viver em ambientes altamente modificados pelo homem, como cidades. Interações entre humanos e outros primatas. Interações muito próximas entre humanos e primatas não humanos podem criar meios de transmissão de zoonoses. Vírus como "Herpesviridae" (notavelmente herpesvírus B), "Poxviridae", sarampo, raiva, ebola e hepatite podem ser transmitidos para seres humanos: em alguns casos, esses agentes infecciosos provocam doenças graves tanto em humanos quanto em primatas não humanos. "Status" social e legal. Somente humanos são reconhecidos como pessoas e protegidos pela lei das Nações Unidas da Declaração Universal dos Direitos Humanos. Os "status" legal de muitos primatas não humanos, por outro lado, é alvo de muito debate, com organizações como o Projeto dos Grandes Primatas ("Great Ape Project" - GAP, em inglês) se mobilizando para conseguir alguns direitos legais para os grandes primatas.. Em 2008, a Espanha foi o primeiro país do mundo a reconhecer direitos para alguns primatas não humanos quando o comitê do meio ambiente do parlamento instou o país a seguir as recomendações do GAP, em que chimpanzés, bonobos, gorilas e orangotangos não devem ser usados como animais de experimentação. Muitas espécies de primatas são mantidas como animais de estimação e a "Allied Effort to Save Our Primates" estima que vivam cerca de 15 000 primatas não humanos como espécies exóticas nos Estados Unidos. A emergente classe média chinesa tem aumentado a demanda por primatas como animais de estimação nos últimos anos. Embora a importação desses animais tenha sido abolida nos Estados Unidos em 1975, o contrabando ainda continua na fronteira Estados Unidos-México, com macacos de porte menor custando US$ 3000,00, e grandes primatas custando US$ 30 000,00. Primatas são usados como modelos em laboratórios e foram usados em missões espaciais. Também servem como animais guia. Macacos-pregos podem ser treinados para assistir humanos tetraplégicos: sua inteligência, memória e destreza manual os tornam excelentes ajudantes. Primatas não humanos são mantidos em zoológicos ao redor do mundo. Historicamente, zoológicos foram primariamente como entretenimento, mas recentemente mudaram o foco para a conservação, educação e pesquisa. Muitos zoológicos agora recriam ambientes naturais e distribuem material educativo para o público: nos Estados Unidos, muitos participam do "Species Survival Plan", desenvolvido pela "Association of Zoos and Aquariums", com o intuito de aumentar a diversidade genética através da reprodução em cativeiro. Zoológicos e defensores do bem-estar animal são contras as iniciativas de associações dos direitos dos animais e na insistência do GAP de que todos os primatas não humanos devem ser retirados do cativeiro, por duas razões. Primeiro, primatas nascidos em cativeiro carecem do conhecimento e experiência para sobreviver na natureza quando reintroduzidos. Segundo, zoológicos providenciam oportunidades de sobrevivência para espécies que estão seriamente ameaçadas de extinção em seu ambiente natural. Pesquisa científica. Milhares de primatas não-humanos são usados ​​em pesquisas ao redor do mundo devido às suas semelhanças psicológicas e fisiológicas com os humanos. Em particular, o cérebro e os olhos de primatas não-humanos são anatomicamente correlacionados aos dos humanos. Os primatas não-humanos são utilizados em ensaios clínicos, na oftalmologia, na neurociência e em estudos toxicológicos. O macaco-rhesus é frequentemente utilizado, assim como outros do gênero "Macaca", do gênero "Chlorocebus", chimpanzés, babuínos, macacos-de-cheiro e saguis, todos capturados do estado selvagem e criados em cativeiro posteriormente. Em 2005, GAP reportou que 1.280 dos 3.000 primatas não-humanos residentes nos Estados Unidos eram usados na experimentação animal. Em 2004, a União Europeia usou cerca de 10.000 primatas em experimentos e em 2005, na Grã-Bretanha, 4.652 experimentos foram conduzidos com 3.115 primatas. Governos de muitos países exigem cuidados especiais para primatas não-humanos em cativeiro. Nos Estados Unidos, diretrizes federais regulam aspectos do alojamento, alimentação, enriquecimento ambiental, e reprodução. Grupos europeus como "European Coalition to End Animal Experiments" visam o banimento da experimentação em primatas. Conservação. A União Internacional para a Conservação da Natureza e dos Recursos Naturais lista mais de um terço dos primatas como "criticamente em perigo" ou "vulnerável". O comércio é regulamentado, e todas as espécies são listadas no Apêndice II da Convenção sobre o Comércio Internacional das Espécies da Fauna e da Flora Silvestres Ameaçadas de Extinção, com exceção de 50 espécies e subespécies que estão listadas no Apêndice I. As principais ameaças aos primatas são o desmatamento e a fragmentação do habitat, extermínio para proteger plantações, e caça para usar os animais em experimentação ou como animais de estimação e comida. O desflorestamento em larga escala é uma das principais causas de extinção para a maior parte dos primatas. Mais de 90% das espécies de primatas vivem em florestas tropicais. A principal causa da perda de florestas é a substituição dessas áreas por campos cultivados, embora o desmatamento por conta da indústria madeireira e agricultura de subsistência, mineração, e construção de hidrelétricas também contribuem para a perda de habitat florestal. Na Indonésia, grandes áreas de florestas de terras baixas foram destruídas para darem lugar a plantações de dendezeiros, e uma análise de imagens de satélite entre 1998 e 1999 concluíram que cerca de 1 000 orangotangos foram mortos por ano somente no Ecossistema Leuser. Primatas de grande porte (com mais de 5 kg) estão em maior risco de extinção por conta da caça predatória se comparado com primatas menores. Eles possuem maturidade sexual mais tardia e longos períodos entre o nascimento de novos filhotes. As populações, portanto, se recuperam de forma muito lenta após serem depletadas por conta de caça indiscriminada por comida e para obtenção de animais de estimação. Dados de algumas cidades africanas mostram que metade de proteína da dieta dos moradores é proveniente do comércio de carne de animais selvagens. Espécies ameaçadas como os do gênero "Cercopithecus" e "Mandrillus leucophaeus" são caçados em níveis maiores do que qualquer uso sustentável dessas espécies. Isso se deve ao tamanho desses animais, que são relativamente grandes, fáceis de transportar e rentáveis. Em fazendas encravadas em florestas, macacos podem se alimentar das plantações, causando prejuízos aos fazendeiros. Os ataques de primatas em plantações provocam antipatia nos moradores, atrapalhando em esforços na preservação. Madagáscar, local de cinco famílias endêmicas de primatas, presenciou a maior extinção de eras passadas: desde a chegada dos primeiros humanos, há 1 500 anos, pelo menos oito classes e 15 espécies de grande porte foram extintas devido à caça e perda de habitat. Entre os primatas extintos estavam "Archaeoindris" (um lêmure que chegava a ter o tamanho de um macho de gorila), e as famílias Palaeopropithecidae e Archaeolemuridae. Na Ásia, o Induísmo, Budismo e Islamismo proíbem o consumo de carne de macaco, mas a caça por comida existe. Algumas religiões tradicionais permitem o consumo de carne de primatas. O tráfico de animais e o uso na medicina tradicional aumenta a demanda pela caça ilegal. O macaco-rhesus, um organismo modelo, foi protegido após a captura excessiva ter diminuído suas populações na década de 1960: o programa foi tão efetivo, que agora eles são vistos como pragas ao longo de sua distribuição geográfica. Nas Américas Central e do Sul, o desmatamento e caça são as duas principais causas de extinção. Grandes porções de florestas agora são raras na América Central. A fragmentação das florestas torna elas vulneráveis ao efeito de borda, tal como observado em florestas cercadas por pastagens e campos cultivados, em que existem espécies invasoras, baixa umidade e mudanças na diversidade de plantas nativas. Populações podem se tornar isoladas, aumentando as taxas de endogamia, causando efeitos deletérios na genética das espécies levando a um processo de efeito de gargalo nas populações, onde muitas populações acabam sendo perdidas. Há 21 espécies de primatas "criticamente ameaçadas" e 7 estão na lista da IUCN, os 25 primatas mais ameaçados do mundo desde o ano 2000: "Propithecus candidus", "Trachypithecus delacouri", "Trachypithecus poliocephalus", "Pygathrix cinerea", "Rhinopithecus avunculus", "Gorilla gorilla diehli" e o "orangotango-de-sumatra". "Piliocolobus badius waldronae" foi declarado como extinto, recentemente, quando nenhum rastro das espécie foi encontrado entre 1993 e 1999. Poucos caçadores avistaram e mataram alguns indivíduos, desde então, mas as perspectivas de sobrevivência da subespécie são poucas.