id
stringlengths
3
7
title
stringlengths
1
250
text
stringlengths
5
401k
637
Constituição apostólica
Constituição apostólica Constituição apostólica (do latim: "Constitutio apostolica") é um documento pontifício que trata de assuntos da mais alta importância. Distingue-se em Constituição Dogmática que contém definições de dogmas. Por exemplo: do Papa Pio XII, a Constituição Apostólica "Munificentissimus Deus", com a qual foi definido o dogma da Assunção de Nossa Senhora e a Constituição Disciplinar, que diz respeito a determinações canónicas; do Papa João Paulo II, as Constituições Apostólicas "Sacrae Disciplinae Leges" (25 de Janeiro de 1983) de promulgação do CIC de 1983; "Pastor Bonus" (28 de Junho de 1988) sobre a nova constituição da Cúria Romana. O conceito de constituição para o direito canónico deriva diretamente do conceito de constituição do direito romano, onde reservava-se o título de "constititio" para as leis mais importantes. Nesse sentido difere um pouco do moderno conceito de constituição como lei fundamental de um estado, mas, de certa forma, a ideia central é a mesma. Exemplos de Constituições Apostólicas. Outros exemplos notáveis de constituições dogmáticas seriam a Lumen Gentium e a Dei Verbum, e, como constituição pastoral (disciplinar) a Gaudium et Spes.
638
Conceito
Conceito Conceito (do latim "conceptus", do verbo "concipere", que significa "conter completamente", "formar dentro de si"), substantivo masculino, é aquilo que a mente concebe ou entende: uma ideia ou noção, representação geral e abstracta de uma realidade. Pode ser também definido como uma unidade semântica, um símbolo mental ou uma "unidade de conhecimento". Um conceito corresponde geralmente a uma representação numa linguagem ou simbologia. O termo é usado em muitas áreas, como na sociologia, na matemática, na astronomia, na estatística, na filosofia, nas ciências cognitivas, na física, na biologia, na química, na economia e na informática. Conceitos são universais ao se aplicarem igualmente a todas as coisas em sua extensão. Conceitos são portadores de significado. Um único conceito pode ser expresso em qualquer número de linguagens: o conceito "cão" pode ser expresso como "Hund" em alemão, "hond" em Afrikaans, "dog" em inglês, "perro" em castelhano, "gos" em catalão, "hundo" em esperanto, "txakur" na língua basca, "chien" em francês, "can" em galego, "cane" em italiano, "canis" em latim, "inu" em japonês etc. O fato de que conceitos são, de uma certa forma, independentes das linguagens torna a tradução possível; palavras em várias línguas "querem dizer" o mesmo porque expressam um e o mesmo conceito. Conceito é uma frase (juízo) que diz o que a coisa é ou como funciona. O conceito, enquanto o-que-é é a expressão de um predicado comum a todas as coisas da mesma espécie. Chega-se a esses predicados ou atributos comuns por meio da análise de diversas coisas da mesma espécie. O homem é um ser racional. A racionalidade é o predicado comum a todos os homens. Numa linguagem mais iluminista, o Conceito é "um juízo sintético a priori". Sendo assim, conceito não é a mesma coisa que definição. Outros autores usam a expressão "definição real" como sinônimo de conceito.
639
Conselho da União Europeia
Conselho da União Europeia O Conselho da União Europeia, ou simplesmente Conselho constitui a principal instância de decisão da União Europeia. É a expressão da vontade dos Estados-Membros, cujos representantes se reúnem regularmente a nível ministerial. Funções. Em função das questões a analisar, o Conselho reúne-se em diferentes formações: política externa, economia e finanças, agricultura, educação, telecomunicações, etc. O Conselho assume várias funções essenciais: A presidência do Conselho da União Europeia é rotativa entre os membros da União Europeia. O secretário-geral do Conselho da União Europeia é Javier Solana. Votações. O Conselho é composto pelos ministros nacionais relevantes para o assunto de discussão, com cada ministro representando o governo nacional. Na votação por maioria qualificada, estados diferentes têm pesos diferentes com base no voto da população. Por exemplo, uma votação pela Alemanha ou a França tem um peso de 29 num total de 345, enquanto que um voto do Chipre e da Letónia só tinha um peso de quatro votos. A lista completa da votação é mostrada abaixo: Presidente. A Presidência do Conselho da União Europeia é uma responsabilidade sobre o funcionamento do Conselho da União Europeia, que é rotativo entre os Estados membros da União Europeia, de seis em seis meses. Não há um único presidente, mas a tarefa é levada a cabo por todo um governo nacional, o que, consequentemente, permite influenciar a direcção da política da União Europeia. Embora seja rotativa de seis em seis meses, a partir de 2007, de três em três presidências irão co-operando num programa político comum. Futuro do Conselho. A proposta do Tratado de Lisboa retoma no essencial as reformas enunciadas da rejeitada Constituição. O corpo seria renomeado, tornando-se oficialmente num Conselho de Ministros, com uma separação oficial do Conselho Europeu (que se tornará uma instituição com um sistema separado da Presidência). Da nota particular é uma alteração no sistema de votação por maioria dos casos de dupla maioria, a votação por maioria qualificada, substituindo o sistema de votação anterior. As decisões tomadas pelo Conselho deverão ser tomadas por 55% dos Estados-Membros e 65% da população da União Europeia. Nos termos do Tratado de Lisboa, a implementação deste sistema de votação será adiada para 1 de novembro de 2014. Em termos de configuração do Conselho, o facto de existirem diferentes configurações é mencionado pela primeira vez nos tratados, mas apenas dois são mencionados pelo nome na Constituição (os outros são acordados pelo Conselho Europeu), eles são o Conselho de Assuntos Gerais e o Conselho de Relações Externas, a divisão do actual Conselho dos Assuntos Gerais e Relações Externas. Este último não será presidido pela Presidência, mas pelo novo Alto Representante da União para os Negócios Estrangeiros e a Política de Segurança. A Presidência será realizadas de três em três ou de dezoito em dezoito meses, facto que está consagrado na Constituição. Além disso, o Conselho é chamado a responder em público. O Ecofin da Eurozona será mais formalizado e elegerá o seu próprio Presidente em separado. Conselho Europeu. Em termos formais, o Conselho da União Europeia não é o mesmo que o Conselho Europeu. O primeiro é uma reunião a nível ministerial, enquanto que o segundo reúne os chefes de Estado e de governo. O Conselho Europeu não tem funções legislativas, mas é lá que as grandes questões efectivamente se decidem.
640
Comissão Europeia
Comissão Europeia A Comissão Europeia é a instituição que é politicamente independente e que representa e defende os interesses da União Europeia (UE) na sua globalidade. Propõe legislação, política e programas de ação e é responsável por aplicar as decisões do Parlamento Europeu (PE) e o Conselho da União Europeia (CUE). A Comissão Europeia materializa e defende o interesse geral da Comunidade Europeia. O presidente da Comissão é eleito pelo Parlamento Europeu, por proposta do Conselho Europeu. Os restantes comissários são escolhidos com base num sistema de rotação estabelecido por unanimidade pelo Conselho Europeu. O termo "Comissão" faz referência aos membros da Comissão e aos Comissários designados pelos Estados membros e aprovados pelo Parlamento, mas entretanto também se refere à própria instituição e ao seu pessoal. Funcionamento. A Comissão é o motor do sistema institucional comunitário. São diversas as suas principais funções: A Comissão elabora propostas para as novas leis Europeias, que apresenta ao PE e ao CUE. A Comissão garante que as decisões da UE se apliquem correctamente e supervisiona o modo de utilização dos fundos da União. Também vigia o respeito pelos tratados europeus e o Direito comunitário. A partir de 2004, o Comissariado é composto por 25 pessoas, assistidas por cerca de 24 mil funcionários. O Presidente é eleito pelos Governos dos Estados membros da UE e deve ser aprovado pelo Parlamento Europeu. Os demais membros são nomeados pelos governos dos Estados membros em consulta com o presidente nomeado e também devem ser aceites pelo Parlamento. A Comissão é nomeada por um período de cinco anos, mas pode em qualquer momento ser destituída pelo Parlamento. Vigora o princípio de responsabilidade solidária entre os comissários e estes são aprovados pelo Parlamento em bloco; não obstante, compete ao Presidente da Comissão distribuir as áreas de responsabilidade política entre os Comissários e pode, se contar com a aprovação da Comissão, exigir também a demissão de um Comissário. As competências da Comissão, e especialmente do seu presidente, seriam substancialmente fortalecidas caso tivesse sido aprovado o Tratado da Constituição Europeia. A maioria dos funcionários, mas não a totalidade, trabalha em Bruxelas, particularmente na sede situada no Edifício Berlaymont. Grande parte do impulso político a favor da União Europeia foi dado pelos Presidentes da Comissão. Examinar o perfil e as iniciativas das pessoas que já ocuparam este cargo é uma indicação do estado em que se encontra a União. Selo Europeu Para as Línguas. Em 1999 a Comissão Europeia instituiu o European Language Label um prémio que distingue os projectos mais inovadores na área da aprendizagem de línguas de cada país participante no projecto. É coordenado pela Comissão Europeia, mas gerido pelos próprios Estados-Membros, com júris nacionais a decidir face a critérios especificados. Em 2012, em Portugal, o prémio foi atribuído a 2 projectos: à escola de Vila Verde pelo seu projecto audio-visual e de criação de um livro "Six teen stories", e à Associação Fazer Avançar pelo seu projecto SPEAK, um projecto de partilha cultural e linguística criado em Leiria. História. A Comissão Europeia é fruto da unificação da Alta Autoridade da CECA, da Comissão da CEE e da Comissão do Euratom, ao entrar em vigor em 1 de Julho de 1967 o Tratado de Bruxelas de 8 de Abril de 1965, de unificação dos executivos comunitários. A lista que se segue mostra os presidentes da Comissão Europeia: Até 1 de maio de 2004 havia 20 comissários, dois de cada um dos Estados membros com mais habitantes (Alemanha, França, Itália, Reino Unido, Espanha) e um dos restantes, mas após a ampliação da União Europeia que se oficializou nesse dia, o número de comissários passou a ser 30. A partir de 22 de novembro de 2004, data em que tomou posse a Comissão 2004-2009 (Comissão Barroso), o número passou a ser de apenas 27 comissários, um por país. A "Comissão Barroso". O português José Manuel Durão Barroso foi designado como presidente da Comissão Europeia, pelo Conselho da União. A sua participação como anfitrião na "cimeira das Lajes", que formalizou a invasão do Iraque de 2003, foi o principal ponto de divisão nas negociações que levaram à sua nomeação. Na eleição de Durão Barroso para presidir à Comissão Europeia não somente foi ponderada a sua pertença ao dominante Partido Popular Europeu, mas também as suas boas relações com os Estados Unidos da América, numa altura em que a UE tenta retomar a excelência das relações com esse país.
642
Classificação científica
Classificação científica A expressão classificação científica, taxonomia ou classificação biológica, designa o modo como os biólogos agrupam e categorizam as espécies de seres vivos tanto extintas como actuais. A classificação científica moderna tem as suas raízes no sistema de Karl von Linnée (latim: Carolus Linnaeus), que agrupou as espécies de acordo com as características morfológicas por elas partilhadas. Estes agrupamentos foram subsequentemente alterados múltiplas vezes com o fim de melhorar a consistência entre a classificação e o princípio darwiniano da ascendência comum. O advento da sistemática molecular que utiliza a análise do genoma e os métodos da biologia molecular levou a profundas revisões da classificação de múltiplas espécies e é provável que as alterações taxonómicas continuem a ocorrer à medida que se caminha para um sistema de classificação assente na semelhança genética e molecular em detrimento dos critérios morfológicos. A classificação científica pertence à ciência da taxonomia ou sistemática biológica. Características da classificação biológica. A classificação das espécies não obedece a critérios rigidamente formais. Caso fosse aplicado aos primatas o mesmo critério científico usado para classificar os coleópteros, dos quais há mais de 300 mil espécies catalogadas, o ser humano ("Homo sapiens") faria parte do género "Pan", o mesmo género dos chimpanzés ("Pan troglodytes") e dos bonobos ("Pan paniscus"). Assim a classificação biológica é um sistema organizativo que se rege por um conjunto de regras unificadores e de critérios que se pretendem universais, mas que, dada a magnitude do conjunto dos seres vivos e a sua inerente diversidade, são necessariamente adaptados a cada um dos ramos da biologia. Tradicionalmente, a classificação de plantas e de animais seguiu critérios diferenciados, hoje fixos no "Código Internacional de Nomenclatura de algas, fungos e plantas" e no "Código Internacional de Nomenclatura Zoológica", respectivamente, reflectindo a história das comunidades científicas associadas. Outras áreas, como a micologia (que segue a norma botânica), a bacteriologia e a virologia, seguiram caminhos intermédios, adoptando muitos dos procedimentos usados nas áreas consideradas mais próximas. Nos últimos tempos, com o advento das técnicas moleculares e dos estudos cladísticos, as regras tendem apara a unificação, levando a uma rápida mutação dos sistemas classificativos e alterando profundamente a estrutura classificativa tradicional. A classificação científica é, por isso, um campo em rápida mutação, com frequentes e profundas alterações, em muitos casos quebrando conceitos há muito sedimentados. Nesta matéria, mais importante do que conhecer a classificação de uma qualquer espécie, importa antes conhecer a forma como o sistema se organiza. Até porque aquilo que é hoje uma classificação aceite em pouco tempo pode ser outra bem diferente. História. O sistema mais antigo de classificação de seres vivos que se conhece deve-se ao filósofo grego Aristóteles, que classificou todos os organismos vivos então conhecidos em plantas e animais. Os animais eram, por sua vez, subdivididos de acordo com o meio em que se moviam (terra, água e ar). Em 1172, o sábio Ibn Rushd (Averroes), que era juiz (Qaadi) em Sevilha, traduziu para a língua árabe e comentou o livro de Aristóteles intitulado "De Anima" ("Sobre a alma"). O seu trabalho original perdeu-se, mas conhece-se uma tradução para latim da autoria de Michael Scot. Foi através desta via que a classificação aristotélica chegou aos nossos dias e inspirou muitos dos trabalhos taxonómicos iniciais. O professor suíço Conrad von Gesner (1516–1565) produziu um importante avanço sobre a estrutura aristotélica, ao publicar uma compilação de todos os seres vivos então conhecidos, ainda assim agrupados segundo um método baseado no de Aristóteles. A exploração de novos territórios que se seguiu aos Descobrimentos trouxe para a Europa centenas de novas espécies de plantas e animais, desafiando os velhos sistemas de classificação e identificação. Por outro lado, a curiosidade pela ciência que o Renascimento europeu despertou levou à constatação de que, mesmo na Europa, existiam muitos milhares de seres vivos distintos, a maior parte dos quais não descritos nem catalogados. Perante esta explosão no conhecimento da biodiversidade, e da consequente actividade colecção e análise de espécimes, rapidamente se constatou que os velhos sistemas de catalogação tornavam muito difícil estudar e localizar os exemplares nas colecções. Tal levava a que a mesma espécie recebesse nomes distintos, já que as colecções eram demasiada grandes para o que o seu conteúdo pudesse ser memorizado. Foi então necessário delinear um sistema que agrupasse os espécimes de forma lógica, permitindo uma rápida localização dos exemplares semelhantes. Desse esforço nasceu o sistema binomial baseado na morfologia externa, agrupando exemplares com um aspecto semelhante. Entretanto, o movimento que se tinha centrado essencialmente nas plantas foi-se estendendo aos animais: em finais do século XVII e princípios do século XVIII iniciou-se o estudo científico dos animais, primeiro dos domésticos, depois generalizado a toda a fauna. Este estudo lançou as bases para a anatomia comparada e para os sistemas classificativos baseados na morfologia e função dos órgãos. Também os médicos, com o seu conhecimento de anatomia e o seu interesse pelas plantas usadas para fins medicinais, contribuíram fortemente para o progresso do conhecimento dos seres vivos. Entre aqueles profissionais, destacaram-se, pelos seus conhecimentos anatómicos ou botânicos, Hieronymus Fabricius (1537–1619), Petrus Severinus (1580–1656), William Harvey (1578–1657) e Edward Tyson (1649–1708). Outra frente de progresso foi aberta pelo aparecimento dos primeiros entomologistas e pelos primeiros microscopistas, destacando-se nestes campos Marcello Malpighi (1628–1694), Jan Swammerdam (1637–1680) e Robert Hooke (1635–1702). No campo mais filosófico, o escocês James Burnett (1714-1799), mais conhecido por Lord Monboddo, foi um dos primeiros pensadores a tentar estabelecer uma correlação entre a espécies e a procurar descobrir regras lógicas que pudessem colocar alguma ordem no aparente caos da diversidade morfológica dos seres vivos. Nesta busca, estabeleceu as primeiras normas de ordenação e as primeiras explicações para a variabilidade das formas, sendo um verdadeiro precursor das teorias evolucionárias. Os desenvolvimentos sucessivos verificados na história da sistemática dos insectos pode ser consultada no seguinte sítio "Nomina Circumscibentia Insectorum", seguindo as hiperligações que descrevem cronologicamente cada passo. Os "metodistas". Desde finais do século XV que um número crescente de naturalistas se dedicava à procura de um método de ordenar racionalmente o mundo natural, procurando classificar os minerais, as rochas e os seres vivos em categorias que permitissem fazer sentido da sua enorme diversidade e ao mesmo tempo das suas extraordinárias semelhanças. Esta procura de uma arrumação lógica para a diversidade da natureza foi ganhando favor entre os estudiosos, transformando-se num dos principais campos de estudo da História Natural. Foi neste contexto que Carolus Linnaeus, na sua obra "Bibliotheca Botanica", cunhou o termo "metodistas" (não confundir com Metodista, a denominação religiosa homónima) para se distinguir os naturalistas que se interessavam pela classificação dos seres vivos, em contraste com os "colectores", cuja única preocupação era encontrar e determinar novas espécies. Avultaram entre os primeiros "metodistas" da biologia, o botânico e filósofo italiano Andrea Caesalpino, o naturalista inglês John Ray, o médico e botânico alemão Augustus Quirinus Rivinus, e o médico, botânico e explorador francês Joseph Pitton de Tournefort. Andrea Caesalpino (1519 - 1603), na sua obra "De plantis libri XVI" (1583), propôs a primeiro sistema hoje conhecido de ordenação lógica das plantas: com base na estrutura do tronco e no desenvolvimento e forma dos frutos dividiu em 15 "genera" as plantas então conhecidas. John Ray (1627–1705) foi um naturalista inglês que publicou importantes trabalhos sobre plantas, sobre animais e sobre aquilo que designava por "teologia natural". A forma de abordagem à problemática da classificação das plantas que utilizou na sua obra "Historia Plantarum" foi um importante passo na fundação da moderna taxonomia vegetal. John Ray rejeitou o sistema de simples dicotomia então usado na classificação das plantas, no qual as espécies eram ordenados com base na presença ou ausência de determinado carácter (por exemplo: plantas de flor vermelha ou plantas sem espinhos), para o substituir por um sistema em que se procurava maximizar as semelhanças morfológica, distinguindo os géneros pelo seu grau de analogia ou de diferenciação. Tanto Andrea Caesalpino como John Ray usaram os nomes tradicionais das plantas, pelo que as designações utilizadas não reflectiam a sua posição taxonómica. Por exemplo, ainda que a macieira e o pessegueiro pertencessem a diferentes "genera" do "methodus" de John Ray, aquelas espécies recebiam a designação de "Malus" e de "Malus Persica", respectivamente. O passo seguinte na estruturação da denominação binomial foi dado por Rivinus e por Pitton de Tournefort, que fizeram de género uma categoria distinta dentro da hierarquia taxonómica, e com essa inovação introduziram a prática de denominar as espécies de acordo com o género a que pertencem. Augustus Quirinus Rivinus (1652–1723) introduziu a classificação das plantas com base na morfologia dos seus órgãos reprodutores, considerando que a morfologia das flores e das sementes tinha um particular significado biológico. Ao introduzir uma classificação baseada nesses caracteres, Rivinus criou o conceito de Ordem como forma de agrupamento de géneros similares, integrando e alargando o conceito de "genera" superior já postulado por John Ray e por Andrea Caesalpino. Deve-se também a Rivinus a abolição da clássica divisão das plantas em ervas e árvores, já que ele insistia que o verdadeiro método de divisão se deveria basear na morfologia das flores, frutos e sementes, e não em aspectos anatómicos tão variáveis como a dimensão dos troncos e a sua lenhificação. Rivinus também popularizou o uso de chaves dicotómicas para definir géneros e ordens, criando a base do sistema de identificação ainda hoje utilizado. O método utilizado por Rivinus assemelhava-se ao utilizado por Joseph Pitton de Tournefort: o nome de todas as espécies pertencentes ao mesmo género deveria começar pela mesma palavra, o nome genérico. Nos géneros contendo mais de uma espécie, a primeira espécie identificada recebia apenas o nome do género, enquanto as restantes recebiam uma frase diferenciadora, um modificador que ele apelidou de "differentia specifica". Joseph Pitton de Tournefort (1656–1708) introduziu um sistema ainda mais sofisticado de hierarquização, com classes, secções, géneros e espécies. Foi o primeiro a compor de forma consistente e uniforme nomes específicos contendo um nome genérico seguido de uma frase descritiva que definia a "differentia specifica". Ao contrário de Rivinus, Tournefort usava as "differentiae" com todas as espécies pertencentes a géneros politípicos. Linnaeus. Carolus Linnaeus (1707–1778) nasceu dois anos após a morte de John Ray. A sua principal obra, a "Systema Naturae", teve 12 edições durante a sua vida (com a 1.ª edição em 1735). Nesta obra, a natureza é dividida em três reinos: mineral, vegetal e animal. Para sistematizar a natureza, em cada um dos reinos Linnaeus usou um sistema hierárquico de cinco categorias: classe, ordem, género, espécie e variedade. Outra das suas principais contribuições foi o abandono dos longos nomes descritivos até então em uso para designar as classes e ordens. Também promoveu o fim dos nomes de géneros constituídos por duas palavras (por exemplo "Bursa pastoris" era um género). Esta simplificação marca uma ruptura com os métodos dos seus antecessores imediatos (Rivinus e Pitton de Tournefort), e foi acompanhada pelo estabelecimento de diagnoses rigorosas e detalhadas para cada um dos géneros (a que ele chamou "characteres naturales"). Também procedeu à integração das variedades nas respectivas espécies, evitando que a botânica tivesse que criar novos "taxa" para acomodar todas as variedades cultivadas que são constantemente criadas. Contudo, apesar das suas múltiplas contribuições para a taxonomia e sistemática, Linnaeus é melhor conhecido pela introdução do método binomial, a técnica ainda em uso para formular o nome científico das espécies. Antes de Linnaeus estavam em uso nomes longos, compostos por um nome genérico e por uma frase descritiva da própria espécie (a "differentia specifica"). Esses nomes não eram fixos, já que cada autor parafraseava o descritivo, acentuando os caracteres que considerava mais relevantes. Na sua obra "Philosophia Botanica" (1751), Linnaeus colocou grande ênfase na melhoria da composição dos nomes e na redução da sua extensão, abolindo as expressões retóricas desnecessárias que tradicionalmente se usavam na descrição das espécies e introduzindo novos termos descritivos cujo significado procurou fixar rigorosamente. Este esforço resultou numa definição de espécies com um rigor sem precedentes. Em finais da década de 1740, Linnaeus começou a utilizar um sistema paralelo de construção do nome das espécies, que designou por "nomina trivialia". Cada "nomen triviale", o "nome trivial", era um epíteto, de uma ou duas palavras, colocado à margem do texto frente ao nome científico clássico de carácter descritivo. Na construção dos seus "nomen triviale", as únicas regras que Linnaeus usou foram: (1) os nomes devem ser curtos; (2) os nomes devem ser únicos dentro de cada género; e (3) os nomes devem ser permanentes, mantendo-se mesmo quando o enquadramento taxonómico mude. Usando essas regras simples, Linnaeus aplicou de forma consistente "nomina trivialia" às espécies de plantas que incluiu na sua obra "Species Plantarum" (com 1.ª edição em 1753) e às espécies de animais incluídas na 10.ª edição de "Systema Naturae", publicada em 1758. Essas duas obras, e os respectivos anos de edição, são hoje considerados o referencial base para a nomenclatura botânica e zoológica, respectivamente. Ao utilizar de forma consistente os mesmos epítetos específicos, Linnaeus separou a nomenclatura da taxonomia, o que se viria a revelar um passo decisivo na consolidação do sistema de nomenclatura biológica, já que os nomes da espécies passaram a ser fixos, permitindo que os agrupamentos taxonómicos superiores se desenvolvessem independentemente. Apesar do uso paralelo dos "nomina trivialia" e dos nomes descritivos se ter mantido até finais do século XVIII, eles foram sendo progressivamente substituídos pela utilização de nomes curtos, combinando simplesmente o nome do género com o nome trivial da espécie. No século XIX esta nova prática foi codificada nas primeiras regras e leis da nomenclatura biológica, acabando por se transformar naquilo que hoje é geralmente referido como a sistema de nomenclatura binomial, ou mais genericamente como a taxonomia lineana, a qual é ainda, com poucas alterações, o padrão universalmente aceite de atribuição de nomes aos seres vivos. A estrutura actual da classificação biológica. Enquanto Carolus Linnaeus classificava as espécies de seres vivos tendo como objectivo principal facilitar a identificação e criar uma forma de arquivo nos herbários e nas colecções zoológicas que permitisse localizar facilmente um exemplar, nos modernos sistemas taxonómicos aplicados à biologia procura-se antes de mais fazer reflectir o princípio Darwiniano de ancestralidade comum. Isto significa que se pretende agrupar as espécies por proximidade filogenética, isto é relacionar as espécies pela sua proximidade genética, a qual reflecte o grau de comunalidade de ancestrais. Biólogos, em 2016, identificaram a assinatura molecular do reino animal, fornecendo evidências genéticas para a classificação animal de sistema de Karl von Linnée, que tem sido utilizada por quase 300 anos. A pesquisa serve biólogos do desenvolvimento, biólogos evolutivos, biólogos computacionais e pesquisadores. Desde a década de 1960 que se vem fortalecendo a tendência para utilizar estruturas taxonómicas baseadas nos conceitos da cladística, hoje designadas por taxonomia cladística, distribuindo os "taxa" numa árvore evolucionária. Se um "taxon" inclui todos os descendentes de uma forma ancestral, é designado um "taxon" monofilético. Quando o inverso acontece, o "taxon" é designado parafilético. Os "taxa" que incluem diversas formas ancestrais são designados por polifiléticos. Idealmente todos os "taxa" deveriam ser monofiléticos, pois assim reflectiriam a ancestralidade comum das espécies que integrem. Um novo tipo de nomenclatura, baptizado como PhyloCode, está em desenvolvimento, tendo como objectivo criar uma estrutura de clades em vez de uma estrutura de "taxa". Em caso de implementação generalizada não é clara a forma de coexistência entre esse sistema e o actual. O conceito de domínio como "taxon" de topo é de introdução recente. O chamado Sistema dos Três Domínios foi introduzido em 1990, mas apenas recentemente ganhou aceitação generalizada. Apesar de hoje a maioria dos biólogos aceitar a sua validade, a utilização do sistema dos cinco reinos ainda domina. Uma das principais características do sistema dominial é a separação dos reinos Archaea e Bacteria, ambos anteriormente parte do reino Monera. Alguns cientistas, mesmo sem aceitar os domínios, admitem Archaea como um sexto reino. Hierarquia da classificação. O quadro seguinte apresenta a classificação científica de cinco espécies pertencentes a estruturas taxonómicas diversas: a mosca-da-fruta ("Drosophila melanogaster"), o ser humano, a ervilha, o cogumelo amanita e a bactéria Escherichia coli. Com ele pretende-se demonstrar a flexibilidade e a universalidade do sistema, incluindo numa mesma estrutura organismos tão diversos como os seleccionados. Os "taxa" mais elevados, em especial os intermédios, têm sofrido ultimamente profundas e frequentes alterações, resultado da descoberta de novas relações entre os grupos e as espécies. Por exemplo, a tradicional classificação dos primatas (classe Mammalia — subclasse Theria — infraclasse Eutheria — ordem Primatas) está posta em causa por novas classificações, como, por exemplo, a de McKenna e Bell (classe Mammalia — subclasse Theriformes — infraclasse Holotheria — ordem Primatas). Estas alterações resultam essencialmente da existência de um pequeno número de "taxa" em cada nível, sendo neles necessário acomodar um registo fóssil muito ramificado. A tendência para privilegiar a constituição de grupos monofiléticos em detrimento dos parafiléticos levará, seguramente, a sucessivas alterações da estrutura classificativa, com especial foco nas classes e ordens. A progressiva introdução de conceitos cladísticos também terá um impacte profundo e conduzirá à reformulação de muitos dos actuais agrupamentos. Sufixos dos taxa. Taxa acima do nível do género recebem em geral nomes derivados do género mais representativo neles incluído ou daquele que, por razões históricas ou outras, é mais conhecido. Os sufixos utilizados na construção desses nomes dependem do "Reino" e, por vezes, do "Filo" e "Classe", seguindo um padrão preestabelecido. O quadro seguinte apresenta as regras de construção de sufixos mais comummente aceites. Note-se que em botânica e micologia, os nomes dos "taxa" de família para baixo são baseados no nome de um género, por vezes referido como o género-tipo, ao qual é acrescentado um sufixo padronizado. Por exemplo, o género "Rosa" é o género-tipo a partir do qual a família "Rosacea" recebe o seu nome ("Rosa" + "-aceae"). Os nomes dos "taxa" acima de família podem ser formados a partir do nome da família, com o sufixo adequado, ou ser descritivos de uma ou mais características marcantes do grupo. No caso dos animais, apenas existem sufixos padronizados até ao nível da superfamília (ICZN, artigo 27.2). A formação de um nome com base na designação de um género não é tão simples quanto possa parecer, já que a língua latina tem declinações irregulares. Por exemplo, os nomes baseados em "homo" têm como base o genitivo da palavra, ou seja "hominis", pelo que humanos pertencem aos "Hominidae" (hominídeos) e não aos "Homidae" (que, obviamente, nem existem). Classificação infra-específica. Embora a espécie seja considerado o nível de classificação mais baixo, existe por vezes necessidade de recorrer a classificações infra-específicas para acomodar a biodiversidade reconhecida ou para descrever certos traços fenotípicos, nomeadamente os de interesse económico entre as espécies domesticadas. Os animais podem ser classificados em subespécies (por exemplo "Homo sapiens sapiens", para os humanos modernos), ou morfos ou formas (como por exemplo "Corvus corax varius" morpha "leucophaeus", uma forma característica de corvo). As plantas podem ser classificadas em subespécies (por exemplo "Pisum sativum" subsp. "sativum", a ervilha-de-cheiro), ou variedades (por exemplo, "Pisum sativum" var. "macrocarpon", uma variedade de ervilha). As plantas cultivadas podem ser identificadas por cultivares, cada um deles correspondente a um determinado fenótipo (por exemplo, "Pisum sativum" var. "macrocarpon" 'Snowbird', o cultivar Snowbird de ervilha). As bactérias podem ser classificadas por estirpe (por exemplo , uma estirpe de "E. coli" que pode causar intoxicação alimentar). Citações de autor. O nome de qualquer taxon pode ser seguido pela explicitação da "autoridade" que o criou, ou seja pelo nome do autor que primeiro publicou uma descrição válida da entidade taxonómica. Estes nomes de autor são em geral abreviados, seguindo um padrão de abreviatura fixado por critérios de tradição ou de história. Em Botânica, onde existe uma lista de abreviaturas do nome de botânicos e micologistas padronizada, por exemplo, Carolus Linnaeus é sempre abreviado para "L." e Gregor Mendel para Mendel. Apesar do sistema de atribuição de autoria dos "taxa" ser ligeiramente diferente em botânica e em zoologia (veja Citação de autor (botânica) e Citação de autor (zoologia)), é padrão aceite que se o nome de um "taxon" for alterado, a abreviatura ou nome do autor original é sempre mantido, sendo então colocado entre parêntesis. O nome do autor da versão em vigor é colocado a seguir ao parêntesis (geralmente só em botânica).
645
Cidade do México
Cidade do México Cidade do México (, ), anteriormente Distrito Federal (até 29 de janeiro de 2016), é a capital do México e sede dos poderes federais dos Estados Unidos Mexicanos, constituindo uma de suas 32 entidades federativas, bem como figurando como a maior e mais importante entidade urbana do país. A Cidade do México, com habitantes (2020), é a cidade mais populosa do México e da América do Norte. Ocupa uma décima parte do Vale do México no centro-sul do país, em um território que se formou da bacia hidrográfica do lago de Texcoco. Em seu crescimento demográfico nos últimos dois séculos, a Cidade do México foi incorporando vários povoados vizinhos. A sua referida região metropolitana, nomeada oficialmente como "Zona Metropolitana do Vale do México", reúne mais de 40 municípios além da capital e abriga mais de 20 milhões de habitantes (dados de 2010), ou cerca de 1/5 da população mexicana, o que faz dela, independente de como se define, a segunda maior aglomeração urbana do continente americano, e a sétima mais populosa do mundo. A Cidade do México que hoje corresponde à capital mexicana foi fundada por volta do e era a capital do Império Asteca, quando se chamava Tenochtitlán, que acabou por ser completamente destruída pelos colonos espanhóis em 1524, tendo sido reconstruída nas décadas seguintes seguindo os padrões de colonização de exploração implementados pelo Império Espanhol. Ainda no , a entidade, já quase totalmente reconstruída, recebeu o nome de México. Durante os dois séculos seguintes, se estabeleceu como um importante núcleo político-administrativo do Império Espanhol, servindo como principal centro financeiro e urbano das colônias da Espanha na América já no , figurando como a maior aglomeração urbana da colônia mexicana (atual república mexicana) desde então. Depois de concretizada a independência mexicana em relação à Espanha por volta de 1822, foi adotada como capital da República Mexicana, tendo sido dado o nome de Distrito Federal em 1824. Em 2016, a entidade passa a se chamar oficialmente Cidade do México. A Cidade do México é o principal e mais desenvolvido centro urbano, econômico, cultural e político do país, além de ser uma das maiores metrópoles do mundo — tendo sido considerada por organizações internacionais uma "cidade global alfa". Apenas a Cidade do México responde por 21% do PIB total do país e sua área metropolitana, por mais de 34%. Em 2013, a área metropolitana da Cidade do México ocupava o 8º lugar das localidades mais ricas do mundo ao possuir um PIB de 390 bilhões de dólares, que, segundo projeções, deveria se duplicar até 2020. História. Período asteca. A cidade de México Tenochtitlán foi fundada pelo povo asteca em 1325. A antiga capital asteca, agora chamada simplesmente de Tenochtitlan, foi construída em uma ilha no centro do Lago de Texcoco, no Vale do México, região que partilhava com uma cidade-Estado menor chamada de Tlatelolco. Segundo a lenda, o principal deus responsável pelos mexicas, Huitzilopochtli, indicou o local onde eles deveriam construir a sua casa. O deus apresentou uma águia empoleirada em um cacto nopal com uma serpente em seu bico como um símbolo de onde a civilização asteca deveria construir a sua cidade. Entre 1325 e 1521, Tenochtitlan cresceu em tamanho e força, acabou dominando as outras cidades-Estados em torno do lago Texcoco e no Vale do México. Quando os espanhóis chegaram, o Império Asteca tinha conquistado grande parte da Mesoamérica, desde o Golfo do México até o Oceano Pacífico. Conquista espanhola. Após o desembarque em Veracruz, o explorador espanhol Hernán Cortés avançou sobre Tenochtitlan com a ajuda de outros povos nativos, chegando à capital asteca em 8 de novembro de 1519. Cortés e seus homens marcharam ao longo da calçada que conduzia à cidade de Iztapalapa e o governante da cidade, Moctezuma II, cumprimentou os espanhóis; eles trocaram presentes, mas a camaradagem não durou muito tempo. Cortés colocou Moctezuma sob prisão domiciliar, na esperança de governar através da autoridade dele. As tensões aumentaram, até que na noite de 30 de junho de 1520 - durante uma luta conhecida como "La Noche Triste" - os astecas levantaram-se contra a invasão espanhola e conseguiram capturar e expulsar os europeus e seus aliados tlaxcaltecas. Cortés reagrupou-se suas forças em Tlaxcala. Os astecas pensaram que os espanhóis tinham ido embora permanentemente e elegeram um novo rei, Cuitláhuac, mas ele morreu logo; o próximo rei foi Cuauhtémoc. Cortés começou um Cerco de Tenochtitlan em maio de 1521. Durante três meses, a cidade sofreu com a falta de comida e água, bem como a propagação da varíola trazida pelos europeus. Cortés e seus aliados desembarcaram suas forças na parte sul da ilha e lentamente abriram caminho através da cidade. Cuauhtémoc rendeu-se em agosto de 1521. Os espanhóis praticamente arrasaram a cidade de Tenochtitlán durante o cerco final da conquista. Cortés primeiro se estabeleceu-se em Coyoacán, mas decidiu reconstruir a cidade asteca para apagar todos os vestígios da velha ordem. Ele não estabeleceu um território sob o seu próprio domínio pessoal, mas permaneceu leal à coroa espanhola. O primeiro vice-rei espanhol chegou na Cidade do México quatorze anos mais tarde. Nessa época, a cidade tinha se tornado novamente uma importante cidade-Estado, tendo um poder que se estendia muito além de suas fronteiras. Embora os espanhóis tenham preservado o formato básico das ruas de Tenochtitlán, eles construíram igrejas católicas sobre os antigos templos astecas e reivindicaram os palácios imperiais para si. Tenochtitlán foi rebatizada de "México" porque era uma palavra mais fácil de pronunciar em espanhol. Período colonial. A cidade foi a capital do Império Asteca e na era colonial, a Cidade do México tornou-se a capital do Vice-Reino da Nova Espanha. O vice-rei vivia no palácio vice-real na praça Zócalo. A Catedral Metropolitana da Cidade do México, a sede do arcebispado da Nova Espanha, foi construída em outro parte do Zócalo, sobre as ruínas do antigo Templo Mayor. As cidades espanholas coloniais eram construídas em um padrão de quadras, ao menos se nenhum obstáculo geográfico impedisse. Na Cidade do México, o Zócalo (a praça principal) era o lugar central a partir do qual os quarteirões da cidade foram construídos. Os espanhóis viviam na área mais próxima à praça principal no que era conhecido como "traza", em ruas tranquilas e bem ordenadas. As residências dos povos nativos foram colocadas fora dessa zona exclusiva e as casas eram remotamente localizadas. O Império Espanhol procurou manter os índios separados dos espanhóis, mas como o Zócalo era um centro comercial importante para os índios, eles eram uma presença constante na área central da cidade, o que fazia com que a rigorosa segregação étnica não fosse cumprida. O Zócalo também era o palco de grandes celebrações, bem como de execuções. A praça também foi o local de duas grandes rebeliões no , uma em 1624 e outra em 1692. A cidade cresceu, assim como a sua população, o que deixou cada vez menos espaço para as águas do lago. Como a profundidade da água do lago oscilava, a Cidade do México estava sujeita a inundações periódicas. Um grande projeto de infraestrutura fez com que milhares de índios fossem postos em regime de trabalho forçado para evitar novas inundações. As enchentes não só eram um inconveniente, mas também um perigo para a saúde, uma vez que durante os períodos de cheias os dejetos humanos poluíam as ruas da cidade. Com a drenagem da área, a população de mosquitos caiu, assim como a frequência de doenças. No entanto, a drenagem dos pântanos também mudou o "habitat" para peixes e aves e as áreas de acesso para os cultivos de índios perto da capital. No , houve uma proliferação de igrejas, muitas das quais ainda podem ser vistas no centro histórico da capital mexicana. Economicamente, a Cidade do México prosperou como resultado do comércio. Ao contrário do Brasil ou do Peru, o México tinha contato fácil com os oceanos Atlântico e Pacífico. Embora a coroa espanhola tenha tentado regulamentar completamente todo o comércio na cidade, a empreitada teve sucesso apenas parcial. O conceito de nobreza floresceu em Nova Espanha de uma forma não vista em outras partes da América. Os espanhóis encontraram uma sociedade na qual o conceito de nobreza parecido com o europeu, o que fez com que os conquistadores respeitassem e ampliassem a ordem de nobreza indígena. Nos séculos que se seguiram, um título nobre no México não significava grande poder político. O conceito de nobreza no México não era político, mas sim social e conservador, com base no merecimento da família. A maioria dessas famílias provaram o seu valor, fazendo fortunas na Nova Espanha fora da própria cidade e, em seguida, investindo suas receitas na capital, com a construção de novas igrejas, instituições de caridade e casas apalaçadas extravagantes. A mania de construir a residência mais opulenta possível atingiu seu auge na última metade do . Muitos destes palácios ainda pode ser encontrado, o que fez com que Alexander von Humboldt desse a alcunha de "cidade de palácios" à capital mexicana. Independência e Guerra Mexicano-Americana. A ocupação espanhola durou três séculos, até que Miguel Hidalgo, um padre da povoação de Dolores, proclamou o famoso "grito de Dolores", iniciando a Guerra da Independência do México, que foi conquistada três anos depois. Após a proclamação da independência, em 27 de setembro de 1821, os conflitos que se travaram até final do dificultaram o desenvolvimento da cidade. Nos princípios do referido século, a cidade expandiu-se e nasceram as primeiras "colônias" residenciais, mas após a revolução o seu crescimento populacional aumentou. A Batalha da Cidade do México, parte da Guerra Mexicano-Americana, refere-se à série de enfrentamentos ocorridos entre 8 e 15 de setembro de 1847, na vizinhança da cidade. Incluem-se as principais ações nas batalhas de Molino del Rey e Chapultepec, culminando com a queda da Cidade do México. O Exército dos Estados Unidos, sob o comando de Winfield Scott, teve um grande sucesso que terminou com a guerra. A invasão estadunidense do Distrito Federal foi rejeitada pela primeira vez durante a Batalha de Churubusco, em 8 de agosto, quando o batalhão de São Patrício, que era composto principalmente de irlandeses católicos e imigrantes alemães, mas também por canadenses, ingleses, franceses, italianos, poloneses, escoceses, espanhóis, suíços e mexicanos, lutou pela causa mexicana ao repelir os ataques estadunidense. Depois de derrotar o Batalhão de São Patrício, a Guerra Mexicano-Americana chegou ao fim depois dos Estados Unidos implantar unidades de combate no México, o que resultou na captura da Cidade do México e de Veracruz pela 1ª, 2ª, 3ª e 4ª Divisões do Exército dos EUA. A invasão culminou com a tomada de Castelo de Chapultepec, na própria cidade. Durante esta batalha, em 13 de setembro, a 4ª Divisão, sob o comando de John A. Quitman, liderou o ataque contra Chapultepec e tomou o castelo. Os futuros generais confederados George E. Pickett e James Longstreet participaram do ataque. Servir na defesa mexicana foram os cadetes mais tarde imortalizada como "Los Niños Héroes" (os "Meninos Heróis"). As forças mexicanas foram para trás de Chapultepec e retiraram-se de dentro da cidade. Os ataques aos portões de Belén e San Cosme vieram depois. O Tratado de Guadalupe Hidalgo foi assinado no que é hoje o extremo norte da cidade. Revolução Mexicana e período contemporâneo. Conflitos como a Guerra Mexicano-Americana, a Intervenção Francesa e a Guerra da Reforma deixaram a cidade relativamente intocada, especialmente durante o governo do presidente Porfirio Díaz. Durante este período, a capital mexicana desenvolveu uma moderna infraestrutura, como estradas, escolas, além de sistemas de comunicação e transporte. No entanto, o regime concentrou recursos na cidade, enquanto o resto do país definhava na pobreza. O rápido desenvolvimento levou à Revolução Mexicana. O episódio mais significativo deste período para a cidade foi a "La decena trágica" ("Os Dez Dias Trágicos"), em 1913, um golpe de Estado contra o presidente Francisco I. Madero e seu vice, José María Pino Suárez. Victoriano Huerta, general chefe do Exército Federal, viu uma chance de tomar o poder, forçando Madero e Pino Suárez a assinar suas renúncias. Os dois foram assassinados mais tarde, enquanto eram levados para a prisão. As forças zapatistas, que estavam baseadas no estado vizinho de Morelos, tinham pontos fortes no extremo sul do Distrito Federal, que incluía Xochimilco, Tlalpan, Tláhuac e Milpa Alta para lutar contra os regimes de Victoriano Huerta e Venustiano Carranza. Após o assassinato de Carranza e um curto mandato de Adolfo de la Huerta, Álvaro Obregón tomou o poder. Depois disposto a ser reeleito, ele foi morto por José de León Toral, um católico devoto, em um restaurante perto do parque La Bombilla, em San Ángel, em 1928. Plutarco Elías Calles substituiu Obregón e culminou na Revolução Mexicana. A partir do início do , desenvolveram-se novos planos urbanísticos e a cidade cresceu ainda mais. Em 19 de setembro de 1985, no entanto, a cidade foi arrasada por um forte terremoto de magnitude 8,1 na escala de Richter. Embora este sismo não tenha sido tão mortal ou destrutivo quanto muitos eventos semelhantes em outras partes da Ásia e da América Latina, ele provou ser um desastre político para o governo unipartidário que comandava o México há anos. O governo foi paralisado por sua própria burocracia e corrupção, forçando os cidadãos comuns a criar e dirigir seus próprios esforços de resgate para reconstruir grande parte das construções destruídas. Geografia. A Cidade do México está localizada no Vale do México, às vezes chamada de Bacia do México. Este vale está localizado no Eixo Neovulcânico, nos planaltos do centro-sul do México. Tem uma altitude mínima de metros acima do nível do mar e é cercada por montanhas e vulcões que atingem altitudes de mais de metros. Este vale não tem drenagem natural para as águas que fluem das montanhas, o que torna a cidade vulnerável a inundações. A drenagem foi manipulada através da utilização de canais e túneis a partir do . A Cidade do México repousa principalmente sobre o que era o lago Texcoco. A atividade sísmica é frequente na região. O Texcoco foi drenado a partir do . Embora o lago tenha desaparecido, a cidade repousa sobre seu saibro fortemente saturado. Esta base macia está em colapso devido ao excesso de extração de águas subterrâneas. Desde o início do , a cidade afundou cerca de nove metros em algumas áreas, o que causa problemas com o escoamento e a gestão de águas residuais, levando a problemas de inundação, especialmente durante a estação chuvosa. Todo o leito do lago está agora pavimentado e a maioria das áreas florestais restantes da cidade encontram-se nos bairros de Milpa Alta, Tlalpan e Xochimilco, na região sul. Clima. O clima da Cidade do México é considerado oceânico ("Cwb" de acordo com a classificação climática de Köppen-Geiger). A temperatura média anual é de 17 °C. O verão é morno, com precipitação, e o inverno é fresco, com pouca precipitação. Ao longo do ano, normalmente, a temperatura mínima nos meses mais frios é de 6 °C e a temperatura máxima nos meses mais quentes é de 26 °C e raramente são inferiores a 1 °C ou superiores a 30 °C. A região do Vale do México recebe sistemas anticiclónicos. Os ventos fracos destes sistemas não permitem a dispersão, fora da bacia, dos poluentes atmosféricos que são produzidos pelas 50 mil indústrias e 4 milhões de veículos que circulam em torno da área metropolitana. A estação chuvosa vai de junho a outubro, quando ventos trazem umidade tropical do mar. A estação seca vai de novembro a maio, quando o ar é relativamente seco. Esta estação seca subdivide-se em um período de frio e um período quente. O período de frio ocorre de novembro a fevereiro, quando as massas de ar polares vêm partir do norte e mantém o ar bastante seco. O período quente se estende de março a maio, quando os ventos tropicais voltam a dominar, mas ainda não carregam umidade suficiente para a chuva. A região recebe cerca de 610 milímetros de precipitação anual, que concentram-se de junho a setembro, com pouca ou nenhuma precipitação no restante do ano. O vale central do México raramente recebe precipitação na forma de neve durante o inverno; os dois últimos casos registrados de um evento como esse foram em 5 de março de 1940 e 12 de janeiro de 1967. A temperatura mais baixa já registrada foi de -7,4 °C e a temperatura mais alta foi de 33,9 °C. Problemas ambientais. Na década de 1990, a Cidade do México tornou-se famosa como uma das cidades mais poluídas do mundo; no entanto, a cidade tornou-se um modelo por reduzir drasticamente os níveis de poluição. Em 2014 a poluição por monóxido de carbono caiu drasticamente, enquanto os níveis de dióxido de enxofre e dióxido de azoto foram quase três vezes menores do que os registrados em 1992. Apesar dos esforços de limpeza, a região metropolitana ainda é a parte mais poluída por ozônio do país, com os níveis de ozônio até 2,5 vezes superiores aos limites de segurança definidos pela Organização Mundial da Saúde (OMS). Para acabar com a poluição, os governos federal e locais implementaram vários planos, como o acompanhamento constante e relatórios de condições ambientais, como de ozônio e óxido de nitrogênio. Quando os níveis destes dois poluentes atingem patamares críticos, ações de contingência são implementadas, como fechamento de fábricas, mudança do horário escolar e prorrogação do programa um dia sem carro para dois dias da semana. O governo também instituiu melhorias tecnológicas industriais, uma inspeção bianual rigorosa de emissões dos veículos e a reformulação de combustíveis como gasolina e diesel. A introdução do ônibus de trânsito rápido Metrobus e o programa de compartilhamento de bicicletas Ecobici também estão entre os esforços para incentivar formas de transportes alternativas e mais ecológicas. Demografia. Composição étnica. A maior parte dos habitantes da cidade é de mestiços (pessoas com ascendência mista de europeus e indígenas) e crioulos (descendentes de Europeus). Apesar de que em números relativos à população indígena não representa mais do um por cento do total da população da capital, a Cidade do México é o âmbito de população ameríndia mais amplo de México e da América com mais de indígenas de quase todas as etnias do país. O maior dos grupos étnicos que habitam na Cidade do México é o dos nahuas. Outros grupos indígenas que habitam na Cidade do México não são nativos da região. As comunidades indígenas migrantes mais amplas da Cidade do México são os mixtecos, otomíé, zapotecas e mazahuas, ainda que encontram-se também os tlahuicas, purepechas e grupos de origem maia. As delegações com o maior número de indígenas são: Milpa Alta, Xochimilco, Tláhuac, Iztapalapa e Cuauhtémoc. Costuma ocorrer que as gerações de indígenas nascidos na Cidade do México se assimilem à cultura cosmopolita dominante, ainda que nas duas últimas décadas se observem movimentos reivindicativos das culturas indígenas da capital. A maior parte dos indígenas que vivem na Cidade do México abandonou o uso de sua língua vernácula, que reserva só para certos âmbitos da vida doméstica. Produto da imigração de origem internacional, a Cidade do México também alberga a maior parte dos estrangeiros que se radicam no México. As comunidades mais amplas são os espanhóis, os estadunidenses, os argentinos, os colombianos, os franceses, os alemães e os libaneses, que formam as maiores comunidades que compõem o resto da população da capital. Religiões. A maior parte dos capitalinos professa a religião católica. Pelo menos foram batizados como tais, ainda que o efeito da pergunta expressa de qual é a religião que praticam, muitos dizem que são crentes. Isto significa que se consideram adeptos ao catolicismo, mas não são praticantes regulares. O número de católicos na Cidade do México foi reduzido em números significativos. Enquanto na década de 1960, mais de 90% da população da Cidade do México professava essa religião, no início do , a proporção caiu para 80%. A população que não professa religião nenhuma ou seguem as religiões judaico-cristãs e evangélicas tem crescido. Destas últimas, o primeiro lugar no ano 2000, corresponde às Testemunhas de Jeová. As denominações pentecostais têm ampla difusão, sobretudo nos municípios periféricos orientais da Cidade do México (Tláhuac e Iztapalapa). Em paralelo aos cultos e religiões anteriores, surgiram na capital mexicana outras menos ortodoxas, que recolhem tradições populares não reconhecidas como válidas pela Igreja Católica. Entre elas está o culto à Santa Morte, que tem seu centro na zona de Tepito e La Merced. Há praticantes de Santeria de origem afro-antilhana assim como o xamanismo procedente principalmente de Oaxaca e Veracruz. O padroeiro da cidade e o primeiro santo nascido no território que hoje é o México é São Filipe de Jesus, um dos 26 mártires do Japão. Idiomas. Como em todo o México, o idioma dominante na Cidade do México é o espanhol. Este é falado pela imensa maioria dos habitantes da capital. A grande diversidade étnica na Cidade do México resulta em uma grande diversidade linguística. Praticamente todas as línguas indígenas do México são faladas na Cidade do México, no entanto, as majoritárias são o náhuatl, o otomí, o mixteco, o zapoteco e o idioma mazahua. Como segunda língua, é quase seguro que o inglês seja a mais estendida. Região metropolitana. A Zona Metropolitana do Vale do México é formada pela Cidade do México, 60 municípios do estado do México e um do estado de Hidalgo. A Grande Cidade do México é a maior área metropolitana e a metrópole com a maior densidade populacional do país. Em 2009, pessoas viviam nesta aglomeração urbana, das quais viviam na própria Cidade do México. Em termos populacionais, os maiores municípios que fazem parte da Grande Cidade do México (excluindo a capital) são: Ecatepec de Morelos (pop. ); Nezahualcóyotl (pop. ); Naucalpan (pop. ); Tlalnepantla de Baz (pop. ); Chimalhuacán (pop. ); Ixtapaluca (pop. ); Cuautitlán Izcalli (pop. ); e Atizapán de Zaragoza (pop. ). Os municípios acima estão localizados no estado do México, mas fazem parte da área metropolitana. Cerca de 75% (10 milhões) da população do estado do México vivem em municípios que fazem parte da Grande Cidade do México. A região foi a área metropolitana de mais rápido crescimento demográfico até o final dos anos 1980. Desde então, e através de uma política de descentralização para reduzir os poluentes ambientais, a taxa de crescimento tem diminuído e é menor do que a das outras quatro maiores áreas metropolitanas (nomeadamente Grande Guadalajara, Grande Monterrey, Grande Puebla e Grande Toluca), mesmo que ainda seja positivo. A taxa de migração líquida da Cidade do México entre 1995 e 2000 foi negativa, o que implica que os moradores estão se movendo para os subúrbios da região metropolitana, ou para outros estados do México. Além disso, alguns subúrbios estão a perder população para os subúrbios, indicando a contínua expansão da Grande Cidade do México. Governo e política. Distrito Federal. A Acta Constitutiva de la Federación de 31 de Janeiro de 1824, e a Constituição Federal de 4 de outubro de 1824 fixa a organização política e administrativa dos Estados Unidos Mexicanos depois da Guerra da Independência. Além disso, a Secção XXVIII do artigo 50 deu ao novo Congresso o direito de escolher a localização do governo federal. Esta localização, então, seria apropriada como terra federal, com o governo federal agindo como a autoridade local. Os dois principais candidatos para se tornar a capital eram a Cidade do México e Querétaro. Devido em grande parte à persuasão do representante Servando Teresa de Mier, a Cidade do México foi escolhida porque era o centro populacional e histórico do país, apesar de Querétaro ser mais perto do centro geográfico do país. A escolha foi oficializada em 18 de novembro de 1824 e o Congresso delineou uma superfície de duas léguas quadradas centrada na Praça da Constituição, ou "El Zócalo". Esta área foi então separada do Estado do México, forçando o governo daquele estado a mover a partir do Palácio da Inquisição (hoje Museu de Medicina do México), na cidade de Texcoco. Esta área não inclui os centros populacionais das cidades de Coyoacán, Xochimilco, Mexicaltzingo e Tlalpan, todos as quais permaneceu como parte do estado do México. Em 1941, o bairro Geral Anaya foi incorporado ao Departamento Central, que foi então renomeado para "Cidade do México" (revivendo assim o nome, mas não o município autônomo). De 1941 a 1970, o Distrito Federal era composto por doze delegações. Em 1970, a capital foi dividida em quatro delegações diferentes: Cuauhtémoc, Miguel Hidalgo, Venustiano Carranza e Benito Juárez, aumentando o número de delegações a dezesseis. Desde então, "de facto", todo o Distrito Federal, cujas delegações até então formavam uma área urbana quase única, passou a ser considerado um sinônimo de Cidade do México. A falta de uma estipulação "de jure" deixou um vácuo legal que levou a uma série de discussões estéreis sobre se um conceito tinha engolido o outro ou se este último deixou de existir completamente. Em 1993, esta situação foi resolvida por uma emenda ao artigo 44 da Constituição segundo o qual a Cidade do México e o Distrito Federal são sinônimos. Esta alteração foi posteriormente introduzida no segundo artigo do Estatuto do Governo do Distrito Federal. Estrutura política. A Cidade do México não tem uma constituição, como os estados da União, mas sim um Estatuto de Governo. Como parte de suas recentes mudanças de autonomia, o orçamento é administrado localmente; é proposto pelo chefe de governo e aprovado pela Assembleia Legislativa. No entanto, é o Congresso da União que define o teto para a dívida pública interna e externa emitida pela Cidade do México. De acordo com o artigo 44 da Constituição mexicana, no caso da capital ser movida para outra cidade, o Distrito Federal seria transformado em um novo estado, que seria chamado "Vale do México". Em 2012, foram realizadas eleições para o cargo de chefe de governo e para os representantes da Assembleia Legislativa. Chefes de governo são eleitos para um mandato de 6 anos sem a possibilidade de reeleição. Tradicionalmente, esta posição tem sido considerada como o segundo cargo executivo mais importante no país. Cidades-irmãs. A Cidade do México participou, no dia 12 de outubro de 1982 da União das Cidades Capitais da Iberoamérica, estabelecendo relação de cidade-irmã com as seguintes cidades: Subdivisões. Para efeitos administrativos, a Cidade do México encontra-se dividida em 16 demarcações territoriais, antes conhecidas como delegações. Trata-se de divisões territoriais e político-administrativas semelhantes a dos municípios mexicanos, embora haja diferenças jurídicas e administrativas. As demarcações territoriais da Cidade do México, de acordo com a seção 4 do artigo 53 da Constituição Política da Cidade do México, são as seguintes: Economia. A Cidade do México foi, durante boa parte da história do México independente, seu principal centro econômico. No , os municípios periféricos da entidade possuíam uma economia baseada na agricultura e no comércio dos bens produzidos por esta atividade e outras manufaturas complementares. Tanto os produtos agropecuários como os "obrajes" eram bens de consumo cujo principal ponto de comércio era a Cidade do México. Esta, por seu caráter de capital nacional, se especializava na prestação de serviços associados à administração pública. Alguns de seus habitantes também eram trabalhadores agrícolas, mas quase todos eles estavam concentrados nos setores de serviços e na insuficiente indústria. Durante o , as principais atividades industriais no Distrito Federal foram nos ramos têxtil e papeleiro. No final desse século, durante o governo porfirista foram introduzidos teares mecânicos em fábricas como "La Magdalena" e "La Fama", tanto que a produção papeleira florescia em Peña Pobre e Loreto. A indústria capitalista se transformou até o início do , quando se promoveu um modelo de substituição de importações. Entre as décadas de 1950 e 1980, o Distrito Federal chegou a produzir 36% do PIB nominal nacional. Depois o Distrito Federal perdeu importância no PIB nacional, alcançando apenas 25% do total no começo do . Igualmente, o Distrito Federal dava emprego a 45% dos trabalhadores da indústria manufaturada no México em 1980, mas, uma década mais tarde, a proporção havia caído para 33%. Das quinhentas empresas mais importantes do país, em 1982, a Cidade do México abrigava 257 delas. Sete anos mais tarde só permaneciam na capital mexicana 145. O retrocesso da atividade industrial no Distrito Federal implicou, por uma parte, no crescimento em termos relativos dos ingressos aportados pelo setor terciário (de serviços), e por outra parte, também se refletiu no crescimento da economia informal na cidade. Apesar de todos esses retrocessos, depois da crise mexicana das décadas de 1980 e 1990, o Distrito Federal foi uma das poucas entidades federativas cuja participação no PIB nacional melhorou. Passou de 21% em 1998 para 23% em 1996. Com isso, a renda per capita aumentou, devido em parte à contração demográfica resultante do terremoto de 1985. Em 2004 produziu 20,52% do PIB nacional mexicano, que equivale a quase 133 milhões de dólares. O PIB per capita da cidade também é superior ao do México, estimado em US$ . Esse valor equivale a 2,5 vezes o PIB per capita mexicano e é similar a de países como Portugal, Estônia, Porto Rico e Barbados. De acordo com um estudo realizado pela "PricewaterhouseCoopers", a Cidade do México e sua área metropolitana ocupavam o oitavo lugar das cidades mais ricas do mundo ao ter um GPD de milhões de dólares que deve se duplicar, segundo o mesmo estudo, até 2020. Infraestrutura. Transportes. A Cidade do México é servida pelo Sistema de Transporte Coletivo, um sistema de metrô de 225,9 km de extensão, o maior da América Latina. Os primeiros trechos foram inaugurados em 1969 e o sistema foi expandido para 12 linhas com 195 estações. O metro é um dos mais movimentados do mundo e transporta aproximadamente 4,5 milhões de pessoas todos os dias, superado apenas pelo metrô de Moscou (7,5 milhões), Tóquio (5,9 milhões) e Nova York (5,1 milhões). A primeira linha de ônibus de trânsito rápido da cidade, a Metrobús, começou a operar em junho de 2005, ao longo da Avenida de los Insurgentes. A linha 2 foi inaugurada em dezembro de 2008, a linha 3 em fevereiro de 2011, e a linha 4, que liga o aeroporto com São Lázaro e da Estação de Buenavista em Insurgentes, em abriu de 2012. Como os micro-ônibus foram removidos do seu percurso, esperava-se que o Metrobús pudesse reduzir a poluição e diminuir o tempo de trânsito para os passageiros. Em junho de 2013, 367 ônibus Metrobús transportaram 850 mil passageiros por dia. No final dos anos 1970 muitas estradas arteriais foram redesenhadas como as "ejes viales", rodovias de grande capacidade que cruzam, em teoria, a Cidade do México de lado a lado. A rede é baseada em uma grade quase cartesiana. O sistema também conta as circulares, como são o Circuito Interior (anel interno), o Anillo Periférico; o Circuito Exterior Mexiquense, que contorna as bordas leste e nordeste da região metropolitana, o Chamapa-La Venta, que contorna a borda noroeste, e o Arco Norte, que transpassa a metrópole. Um segundo nível de circulares, coloquialmente chamado de "Segundo Piso", foi aberto oficialmente em 2012, com trechos ainda a ser concluídos. A capital mexicana é servida pelo Aeroporto Internacional da Cidade do México (código aeroportuário IATA: MEX). Este aeroporto é de segundo mais movimentados do mundo, com voos diários domésticos e internacionais para Estados Unidos e Canadá, América Central e Caribe, América do Sul, Europa e Ásia. A Aeroméxico (Skyteam) tem seu "hub" neste aeroporto. Em 2014, o aeroporto transportou cerca de 34 milhões de passageiros, aproximadamente 2 milhões a mais que no ano anterior. Durante seu discurso anual em 2 de Setembro de 2014, o presidente do México, Enrique Peña Nieto, revelou planos para um novo aeroporto internacional para aliviar o notório congestionamento do tráfego aéreo da cidade, provisoriamente programados para ser inaugurado em 2018. O novo aeroporto, que teria seis pistas, vai custar 9,15 bilhões de dólares e seria construído sobre terrenos vagos do governo federal a leste do Aeroporto Internacional da Cidade do México. A meta é para, eventualmente, transportar 120 milhões de passageiros por ano, o que tornaria o aeroporto o mais movimentado do mundo. O governo local se esforça continuamente pela redução dos enormes congestionamentos e aumentou os incentivos para tornar a cidade amigável aos ciclistas, como o segundo maior sistema partilha de bicicletas da América do Norte, o EcoBici, lançado em 2010, que registra os moradores que podem usar bicicletas por 45 minutos com uma assinatura pré-paga de 300 pesos por ano. Em setembro de 2013, havia 276 estações com 4 mil bicicletas em toda uma área que se estende desde o centro histórico de Polanco. As estações estão a menos de 300 metros uma da outra e são totalmente automáticas, utilizando um cartão. Os usuários dos serviços de bicicleta têm acesso a várias ciclovias, inclusive ao longo do Paseo de la Reforma e da Avenida Chapultepec, bem como um corredor 59 quilômetros de Polanco para Fierro del Toro, localizado ao sul do Parque Nacional Cumbres del Ajusco, perto do de Morelos. Educação. A Cidade do México tem muitas escolas públicas e privadas, e é a cidade com o maior número de alunos. E, embora alguns estudos indiquem que o nível de ensino deixa muito a desejar (muito longe de atingir a excelência a nível mundial, especialmente quando se refere às escolas secundárias públicas), é o melhor de todos os Estados mexicanos. Conta com creches (Kinders), escolas primárias e secundárias, que são comandados pelo Ministério da Educação do país. A Cidade do México é a entidade da federação com o maior grau de alfabetização. Das mais de oito milhões de pessoas que vivem na Cidade do México e estão em idade de frequentar a escola ou ter concluído o ensino primário, 94,83% sabem ler e escrever. A média nacional é de 90,69%. No que diz respeito à escolaridade, a média é de cerca de onze anos de instrução. A Cidade do México concentra uma alta proporção de pessoas que tenham concluído ao menos um curso superior ou licenciatura. Também se encontram vários centros de ensino superior, que embora sejam muitos não são suficientes, criando conflitos com os estudantes que foram reprovados pelo COMIPEMS, que é usado para escolher os estudantes que irão às escolas e colégios públicos através de um competitivo exame de admissão, mas a oferta de espaços para o nível superior é pequena em comparação a cada vez maior procura por instituições educativas, assim como muitos alunos não estudam na sua primeira ou segunda opção do COMIPEMS. A Universidade Nacional Autônoma do México (UNAM), é a maior universidade no continente, com mais de 300 mil estudantes de todas as origens. Três prêmios Nobel, vários empresários e a maioria dos presidentes contemporâneos do México estão entre os seus ex-alunos. A UNAM realiza 50% da pesquisa científica nacional e tem presença em todo o país, com "campi" satélites, observatórios e centros de pesquisa. A UNAM foi classificada na 74.ª posição na classificação universitária publicada pela "Times Higher Education" (então chamado "Times Higher Education Supplement") em 2006, sendo a instituição de ensino superior melhor classificada no mundo de língua espanhola. O principal campus da universidade, conhecida como "Ciudad Universitaria", foi nomeado Patrimônio Mundial pela UNESCO em 2007. A cidade tem escolas que pertencem às duas grandes universidades da cidade e do país, no caso da Universidad Nacional Autónoma de México se encontram a "Escuela Nacional Preparatória" e o "Colegio de Ciências y Humanidades" e, por outro lado, tem-se o Instituto Politécnico Nacional com o "Centro de Estudios Científicos y Tecnológicos" e o "Centro de Estudios Tecnológicos". Em seguida temos as instituições que pertencem ao Ministério da Educação como o Colégio de Bacharéis, "Centros de Estudios Tecnológicos, Industriales y de Servicios" e o "Colegio Nacional de Capacitación Profesional", bem como a recente criação da Instituto de Ensino Médio Superior da Cidade do México, que é administrado pelo governo local. Na Cidade do México estão os mais populares e importantes centros de ensino de nível superior, como Universidade Nacional Autônoma do México, Instituto Politécnico Nacional, Instituto Tecnológico e de Estudos Superiores de Monterrey, Universidade Autónoma Metropolitana e El Colegio de México. A prestigiosa Universidade da Califórnia também mantém um campus conhecido como "Casa de California" na cidade. Cultura. Arte. Como foi a capital de um vasto império pré-hispânico e também a capital do mais rico vice-reinado dentro do Império Espanhol (que dominava vastos territórios na América e nas Índias Ocidentais), e, finalmente, a capital do Estados Unidos Mexicanos, a Cidade do México tem uma história rica de expressão artística. Desde o período pré-clássico mesoamericano os habitantes dos assentamentos em torno do lago Texcoco produziram muitas obras de arte e artesanato complexos, alguns dos quais são hoje exibida no mundialmente famoso Museu Nacional de Antropologia e no museu do Templo Mayor. Grande parte do início de arte colonial resultou de códices (livros ilustrados astecas), com o objetivo de recuperar e preservar alguma iconografia indígena asteca. A partir de então, as expressões artísticas no México eram em sua maioria religiosas. A Catedral Metropolitana ainda exibe obras de Juan de Rojas, Juan Correa e uma pintura a óleo cuja autoria foi atribuída a Murillo. Durante o , um importante produtor de arte era a Academia de San Carlos, fundada durante a época colonial, e que mais tarde tornou-se a Escola Nacional de Artes Plásticas, incluindo pintura, escultura e design gráfico, uma das escolas de arte da UNAM. Muitos dos trabalhos produzidos pelos alunos e professores daquela época agora são exibidos no Museu Nacional de São Carlos. Um dos estudantes, José María Velasco Gómez, é considerado um dos maiores pintores de paisagens mexicanas do . Após a Revolução Mexicana, um movimento artístico de vanguarda originado na Cidade do México: o muralismo. Muitas das obras de muralistas de José Clemente Orozco, David Alfaro Siqueiros e Diego Rivera são exibidas em vários edifícios na cidade, mais notavelmente no Palácio Nacional e do Palacio de Bellas Artes. Frida Kahlo, a esposa de Rivera, com uma forte expressão nacionalista, foi também uma das mais renomadas pintoras mexicanas. Sua casa tornou-se um museu que exibe muitas das suas obras. Museus. A Cidade do México tem vários museus dedicados à arte, incluindo arte colonial mexicana, arte moderna e arte contemporânea. A maioria dos mais de 150 museus da Cidade do México pode ser visitada de terça a domingo, dez horas - cinco horas, embora alguns deles estenderam os horários, como o Museu de Antropologia e História. Além disso, entrada para a maioria dos museus está livre aos domingos. O Museu Tamayo foi inaugurado em meados dos anos 1980 para abrigar a coleção de arte contemporânea internacional doada pelo famoso pintor mexicano Rufino Tamayo. A coleção inclui obras de Picasso, Klee, Kandinsky, Warhol e muitos outros, embora a maior parte da coleção fique armazenada enquanto exposições são realizadas. O Museu de Arte Moderna é um repositório de artistas mexicanos do , incluindo Rivera, Orozco, Siqueiros, Kahlo, Gerzso, Carrington, Tamayo, entre outros, e também organiza regularmente exposições temporárias de arte moderna internacional. No sul da cidade, o Museu de Arte Carrillo Gil reúne um mostruário com artistas de vanguarda, assim como o Museu Universitário de Arte Contemporânea, projetado pelo famoso arquiteto mexicano Teodoro González de León e inaugurado no final de 2008. O Museu Soumaya, o nome da esposa do magnata mexicano Carlos Slim, tem a maior coleção privada de esculturas originais de Rodin fora de Paris. Ele também tem uma grande coleção de esculturas de Salvador Dali, e recentemente começou a mostrar peças em sua coleção mestres, incluindo El Greco, Velázquez, Picasso e Canaletto. O museu inaugurou uma nova instalação de "design" futurista em 2011 ao norte de Polanco. A Colección Jumex é um museu de arte contemporânea localizado no terreno da empresa de suco Jumex no subúrbio industrial do norte de Ecatepec e mantém a maior coleção provada de arte contemporânea na América Latina, bem como exposições itinerantes pelos principais artistas contemporâneos. O Museu de San Ildefonso, alojado no Antigo Colégio de São Ildefonso, no distrito do centro histórico da Cidade do México, é um edifício do que hospeda regularmente exposições de arte mexicana e internacional, como de David LaChapelle e Ron Mueck. O Museu Nacional de Arte também está localizado em um antigo palácio no centro histórico. Ele abriga uma grande coleção de obras de todos os grandes artistas mexicanos dos últimos 400 anos e também abriga exposições regulares. Esportes. Na Cidade do México se alojam algumas das instituições esportivas mais importantes do país. É a sede do Comitê Olímpico Mexicano, da Escola Nacional de Educação Física e da Escola Nacional de Treinadores Esportivos. Conta com várias unidades esportivas, dentre elas a maior é a de La Magdalena Mixiuhca, construída no local em que habitou o povo de mesmo nome (em Iztacalco). Justamente nesse espaço que se encontram instalações como o Autódromo Hermanos Rodríguez, o Foro Sol, o Palacio de los Deportes, o Velódromo Olímpico e a Sala de Armas. Em outras partes da cidade se encontram uma Piscina e Ginásio Olímpicos (Benito Juárez), a Pista Olímpica de Canotaje (Xochimilco), assim como três estádios de futebol: o Azteca, o Azul e o Olímpico Universitário. A Cidade do México recebeu em 1968 os Jogos Olímpicos de Verão, nos quais a delegação esportiva nacional alcançou a melhor atuação de sua história, com nove medalhas no total; sendo até os Jogos Olímpicos de 2016 no Rio de Janeiro, além disso, a única cidade latino-americana a sediar os Jogos Olímpicos. Além do mais, foi a sede dos Jogos Pan-americanos em 1955 e 1975, dos Jogos Centroamericanos e do Caribe em 1926, 1954 e 1990; assim como da Universíada de 1979. A cidade sediou partidas das Copas do Mundo de 1970 e 1986, incluindo os dois jogos da final, sendo junto com Roma e Rio de Janeiro a única a sediar duas finais. A Cidade do México é a cidade com mais partidas de Copas do Mundo de Futebol, no total, 24. A Cidade do México é a sede de algumas equipes da primeira divisão da Liga mexicana de futebol: Club América, Cruz Azul, Club Universidad Nacional. O Estádio Azteca, sede do Club América e de sua filial, o Clube Socio Águila F.C, tem capacidade para até espectadores. A Cidade do México também é sede da melhor equipe da história da Liga Mexicana de Beisebol: os Diablos Rojos del México, que já ganharam 14 títulos e jogam no Foro Sol da Cidade Esportiva. A NASCAR organiza desde 2005 a competição anual "Busch Séries races" no Autódromo Hermanos Rodríguez, na cidade.
646
Claude Jade
Claude Jade Claude Jade (Dijon, 8 de outubro de 1948 — Boulogne-Billancourt, 1 de dezembro de 2006) foi uma actriz francesa. Biografia. Tornou-se conhecida principalmente devido à sua participação no ciclo de filmes de François Truffaut sobre Antoine Doinel: Beijos Roubados; Domicílio Conjugal e Amor em Fuga. Claude Jade estrelaria em um dos papéis principais, Christine Darbon. Christine agradou ao personagem, ao diretor e ao público, e a bela francesinha ia ganhando reconhecimento internacional. A actriz participou também no filme do inglês Alfred Hitchcock 'Topaz' (1969, interpretando o personagem de Michèle Picard, filha de um agente secreto e esposa de um periodista) e, nesse mesmo ano, contracenou com o cantor Jacques Brel em 'Mon Oncle Benjamin'. Com uma carreira internacional - em inúmeras produções francesas além de outros filmes belgas, italianos, japoneses (in 'Kita No Misaki' de Kei Kumai Claude Jade interpretou 1975 uma freira missionária suíça que se apaixona por um engenheiro japonês a bordo de um navio que faz a viagem entre Marselha e Yokohama). O casamento permitiu à jovem morar na Rússia (URSS, na época) e ter algumas oportunidades de trabalhar lá, como em "Lênin v Parizhe" e "Teheran 43". A actriz manteve-se activa nas duas décadas seguintes, interpretando personagens nos palcos e em televisão. Entrou na série que, em Portugal, recebeu o título de "A ilha dos trinta caixões" (de 1979). No mundo de língua portuguesa, seu papel ambivalente de Eleanore em "O Barco sobre a Grama" é bem conhecido. Quando esse filme foi apresentado no Brasil, ela conheceu seu futuro marido, Bernard Coste, no Rio de Janeiro. O filme foi exibido várias vezes em retrospectivas no Brasil, mais recentemente em 2011. O seu contributo para a cultura francesa foi reconhecido em 1998, quando foi agraciada com o título de Cavaleiro da Legião de Honra e em 2000 recebeu o prémio New Wave Award, do Festival de Cinema de Palm Beach, por ter "marcado uma tendência no mundo cinematográfico". O último trabalho de Claude Jade decorreu este Verão, numa peça de Jacques Rampal, intitulada 'Celimene e le Cardinal' (2006).
647
Ciência Animal
Ciência Animal
648
Concórdia
Concórdia Concórdia é um município brasileiro do estado de Santa Catarina. O município tem uma extensão territorial de 799 km² e população estimada em habitantes, conforme dados do IBGE de 2019. Foi eleita como a cidade com o melhor índice de desenvolvimento do Estado de Santa Catarina e a 6ª melhor do Brasil pelo IFDM (Índice Firjan de Desenvolvimento Municipal) em 2017. Foi fundado por colonizadores provenientes do Rio Grande do Sul, principalmente descendentes de italianos e alemães que haviam emigrado para o Brasil no século XIX. Concórdia situa-se na região do Oeste Catarinense, sendo a segunda maior cidade desta região do estado, após Chapecó. Fica a aproximadamente 450 km da capital Florianópolis. História. A colonização de Concórdia, como a do Meio Oeste e Oeste de Santa Catarina, passou a ser intensificada após a Guerra do Contestado, especialmente nos anos de 1920 e 1930. Nesta época os governos estadual e federal estimularam a venda de pequenas propriedades rurais aos colonos gaúchos. Até então, a região era habitada somente por caboclos. Ao contrário do que algumas pessoas divulgam, a denominação "Concórdia" não se deve a nenhum acordo de paz para o fim da Guerra do Contestado, que aconteceu no início do século passado na região Meio Oeste de Santa Catarina. Isso pelo simples fato de que não houve qualquer acordo de paz, já que os caboclos foram dizimados pelo Exército Brasileiro e pelas forças policiais do Paraná e Santa Catarina. Ao que tudo indica, o nome Concórdia surgiu em função da necessidade de se estabelecer uma nova denominação para a vila, até então chamada de Queimados, em razão do riacho que corta seu centro. "Queimados" este sim seria um nome pouco charmoso para a cidade, enquanto Concórdia soa melhor e é mais simpático. O nome Concórdia pode estar associado sim ao espírito de pacificação que existia, sem, entretanto, que se fizesse qualquer coisa para a integração social dos caboclos que viviam na região. Devido ao grande crescimento da cidade, diversas etnias podem ser encontradas em Concórdia, mas sua população mantém as características originais, sendo predominantemente descendente de italianos, alemães e por alguns poloneses. Geografia. O município de Concórdia é banhado por vários rios da bacia hidrográfica do rio Uruguai. Além do próprio Uruguai, destacam-se o Jacutinga, Rancho Grande e o Queimados que passa pelo centro da cidade, além de inúmeros outros riachos que se destacam por suas belezas. Localizado na divisa com os municípios de Irani, Lindoia do Sul, Ipumirim, Arabutã e Itá, o rio Jacutinga recebe água de uma série de afluentes, com sérios riscos de contaminação com dejetos suínos. A preocupação é maior porque é dele que Companhia Catarinense de Águas e Saneamento (CASAN) capta cerca de 80% da água que é distribuída no município. A construção da Usina Hidrelétrica de Itá fez com que o curso do rio Uruguai em toda a extensão que banha o município de Concórdia, na divisa com o Rio Grande do Sul, se transformasse numa grande represa. O mesmo ocorreu com a parte final dos cursos de seus afluentes (incluindo Rancho Grande, Queimados e Jacutinga e o Lajeado Fragosos). Este lago possui mais de 80 km de extensão, com uma profundidade de mais de 70 metros e uma largura média superior a 500 metros. A bandeira do município é composta por três listras verticais vermelhas (as laterais) e verde (a central). No centro da bandeira há um losango branco, com o brasão do município. Economia. A economia de Concórdia se concentra na agroindústria e na agropecuária, principalmente com a criação de suínos e aves e plantações de milho e soja em minifúndios, além de ter um comércio bem desenvolvido e que atende também os municípios vizinhos. A região de Concórdia é berço de algumas das maiores empresas frigoríficas do país. A Sadia S.A. surgiu e tem sua matriz em Concórdia. No início denominada Sociedade Anônima Concórdia, o nome Sadia surgiu da junção do "S" de Sociedade, "A" de Anônima e "DIA" de Concórdia. Em 2009, a Sadia foi incorporada pela Perdigão S.A., quando fundiram-se e passaram a ser uma única empresa, a Brasil Foods S.A., atual BRF. Cultura. Aniversário e festas. O aniversário do município é comemorado em 29 de julho, tendo em vista a emancipação político-administrativa do município ter ocorrido nesta data, em 1934. As comemorações em geral envolvem uma grande exposição de animais, indústria e comércio, shows, e um festival gastronômico baseado em carne suína. Como parte da festa do município, são oferecidos à população um bolo e uma mortadela com o comprimento, em metros, igual a idade que a cidade comemora. Outras grandes festas que acontecem no município, são: Festa Nacional do Leitão Assado (FENAL), que acontece em julho; Expo Concórdia, que acontece de dois em dois anos em novembro; Concórdia Kerb Fest, que é uma festa estilo alemã, com muita música e comida, realizado em novembro. Festa do Vizinho. É realizada todos os anos, tendo iniciado em 1997 com algumas ruas. Hoje, mais de 500 ruas participam da festa, reunindo mais de 30 mil pessoas. Nesta festa, vizinhos se reúnem e confraternizam durante um almoço, geralmente churrasco, na própria rua, que é totalmente decorada. A festa inicia-se logo de manhã e vai até o anoitecer, e normalmente são realizadas gincanas, brincadeiras e jogos. Geralmente a festa é apoiada pelas emissoras de rádio da cidade, que transmitem informações a respeito da organização da festa e distribuem brindes. Ensino superior. O ensino superior é outro segmento que cresceu muito nos últimos anos em Concórdia. Hoje são pelo menos 10 instituições que oferecem cursos superiores no município:
650
Camille Pissarro
Camille Pissarro Jacob Abraham Camille Pissarro (Charlotte Amalie, ilha de São Tomás nas Índias Ocidentais Dinamarquesas, hoje Ilhas Virgens Americanas, 10 de julho de 1830 — Paris, 13 de novembro de 1903) foi um pintor francês, co-fundador do impressionismo, e o único que participou nas oito exposições do grupo (1874-1886). Biografia. Infância e juventude. O seu pai, Abraham Frederic Gabriel Pissarro, era português criptojudeu de Bragança, que, no final do século XVIII, quando ainda pequeno, emigrara com a sua família para Bordéus, onde na altura existia uma comunidade significativa de judeus portugueses refugiados da Inquisição. A mãe dele era crioula e tinha o nome Rachel Manzano-Pomie. Com 11 anos Camille Pissarro foi enviado a Paris para estudar num colégio interno. Voltou para a ilha São Tomás, a fim de tomar conta do negócio da família. Algum tempo depois, a sua paixão pela pintura fê-lo mudar de vida: fez em 1852 amizade com o pintor dinamarquês, Fritz Melbye e a oportunidade de concretizar seu sonho surgiu com um convite para acompanhar uma expedição do Fritz Melbye, enviado pelo governo das Antilhas Dinamarquesas, para estudar a fauna e a flora da Venezuela, onde passou dois anos. Pissarro conquistou sua liberdade aos 23 anos. Em 1855, ele já estava em Paris com ajuda de Anton Melbye, tentando iniciar sua carreira. O jovem antilhano fascinou-se com as telas de Camille Corot e travou amizade com Paul Cézanne, Claude Monet, Charles-François Daubigny, entre outros pintores impressionistas. Com Monet passou a sair para pintar ao ar livre, em Pontoise e Louvenciennes. Em 1861 casou com Julie Vellay, com quem teve oito filhos. Faleceu em 13 de novembro de 1903. Encontra-se sepultado no Cemitério do Père-Lachaise, Paris na França. Vida profissional. No decorrer da guerra franco-prussiana (1870-1871), na qual praticamente todos os seus quadros foram destruídos, residiu em Inglaterra. Quando voltou, começou a pintar na companhia de Cézanne. Com o objectivo de descobrir novas formas de expressão, Pissarro foi um dos primeiros impressionistas a recorrer à técnica da divisão das cores através da utilização de manchas de cor isoladas – o seu quadro "The Garden of Les Mathurins at Pontoise" (1876) é um exemplo. Em 1877 pintou "Les toits rouges, coin du village, effet d'hiver". Durante os anos 1880 juntou-se a uma nova geração de impressionistas, os "neo-impressionistas", como Georges Seurat e Paul Signac, pintando em 1881 "Jeune fille à la baguette, paysanne assise" e experimentou com o pontilhismo. A partir de 1885, militou nas correntes anarquistas, criticando severamente a sociedade burguesa francesa, deixando-nos "Turpitudes Sociales" (1889), um álbum de desenhos. Nos anos 1890 abandonou gradualmente o "neo-impressionismo", preferindo um estilo mais flexível que melhor lhe permitisse captar as sensações da natureza, ao mesmo tempo que explorou a alteração dos efeitos da luz, tentando também exprimir o dinamismo da cidade moderna, de que são exemplos os vários quadros que pintou com vistas de Paris ("Le Boulevard Montmartre, temps de pluie, après-midi", 1897), Dieppe, Le Havre e Ruão. A obra de Pissarro se caracterizou por uma paleta de cores cálidas e pela firmeza com que consegue captar a atmosfera, por meio de um trabalho preciso da luz. Seu material predileto foi o óleo, mas também fez experiências com aquarelas e pastel. A estrutura dos quadros de Pissarro encontra total correspondência na obra de Cézanne, já que foi mútua a influência entre ambos. Como professor teve como alunos Paul Gauguin e seu filho Lucien Pissarro. Ao jovem Gauguin aconselhou a utilização das cores - esses conselhos surtiram efeito e Gauguin começa a utilizar a cor no seu estado puro. Durante seus últimos anos, realizou várias viagens pela Europa, em busca de novos temas. Hoje é considerado um dos paisagistas mais importantes do século XIX. Os seus trabalhos mais conhecidos são "Le Verger", "Les châtaigniers à Osny" e "Place du Théâtre Français". Camille Pissarro morreu a 13 de novembro de 1903 em Paris.
651
Conquista de Ceuta
Conquista de Ceuta A Conquista de Ceuta, cidade islâmica no Norte de África, por tropas portuguesas sob o comando de João I de Portugal, deu-se a 21 de Agosto de 1415 e encerrou-se em 22 de Agosto de 1415. Motivos. As causas e origens da conquista de Ceuta não são hoje suficientemente claras: uma das razões, a "Causa Bélica", teria sido a oportunidade dos infantes (D. Duarte, D. Pedro e D. Henrique) serem armados cavaleiros por um feito de guerra. Outra, a "Causa Religiosa", defendida por historiadores como Joaquim Bensaúde (1859-1951), viram na figura do infante D. Henrique um símbolo do espírito de cruzada, defendendo ter havido na génese da expansão um zelo religioso; Outra, a "Causa Política", talvez a ameaça castelhana constante sobre a cidade, defendida por historiadores como Jaime Cortesão (1884-1960), que realçava o desejo da antecipação a Castela na expansão para o norte de África. Estes motivos não são incompatíveis com a "Causa Económica", defendida por António Sérgio (1883-1969) e, mais recentemente, Vitorino Magalhães Godinho (1918-2011) - Ceuta era uma cidade rica e teriam sido levados pela burguesia comercial, que queria canalizar para Lisboa o tráfego do Mediterrâneo ocidental feito por aquela cidade. Para se informar de todos os pormenores da cidade, D. João I enviou à Sicília dois embaixadores com o pretexto de pedirem a mão da rainha para o infante D. Pedro; estes na passagem colheram todas as informações sobre Ceuta. Estas são consideradas as principais razões da conquista de Ceuta: A conquista. Um exército de cerca de a cavaleiros e soldados portugueses, ingleses, galegos e biscainhos havia largado de Lisboa a 25 de Julho de 1415, embarcado em 212 navios de transporte e vasos de guerra (59 galés, 33 naus e 120 embarcações pequenas). Na expedição seguia a fina flor da aristocracia portuguesa do , incluindo os príncipes Duarte (o herdeiro), Pedro, Duque de Coimbra e Henrique, Duque de Viseu, além do condestável Nuno Álvares Pereira. Após uma escala em Lagos e Tavira, fundearam diante de Ceuta a 21 de Agosto, tendo efectuado o desembarque sem encontrar resistência por parte dos mouros. A guarnição da cidade de Ceuta correu a fechar as portas da cidade, mas as tropas portuguesas foram rápidas a impedir o estabelecimento de defesas adequadas. Na manhã de 22 de Agosto, Ceuta estava em mãos portuguesas. Segundo Azurara, nessa altura, foi pedido a João Vasques de Almada que hasteasse a bandeira de Ceuta, que é idêntica à bandeira de Lisboa mas na qual foi acrescentado o brasão de armas do Reino de Portugal ao centro, símbolo que perdura até hoje. Depois a mesquita foi consagrada e, na primeira missa lá realizada, os três príncipes da "Ínclita geração" presentes foram feitos cavaleiros pelo seu pai. A conquista foi conseguida com poucas baixas, pois apenas um fidalgo português - Vasco Fernandes de Ataíde, governador da casa do Infante D. Henrique - faleceu no ataque, morto por uma grande pedra lançada das muralhas da cidade, que o atingiu na cabeça. Uma inscrição em Latim, relativa a este evento, "parece ser...o único vestígio subsistente da permanência dos Portugueses em Ceuta". Ceuta seria a primeira possessão portuguesa em África, estratégica para a exploração Atlântica que começava a ser efectuada. A conquista foi recordada como: Deixando ficar o conde de Viana, D. Pedro de Meneses, o rei, os infantes e o resto da frota regressaram a Lisboa em Setembro, tendo permanecido durante treze dias em Ceuta. Os marroquinos não se conformaram e atacaram a cidade duas vezes, em 1418 e em 1419, sem sucesso. Manter a cidade constituía-se em um problema logístico: era necessário enviar suprimentos, armas e munições; a maior parte dos soldados era recrutada à força, recorrendo-se a condenados e criminosos a quem o rei comutava a pena desde que fossem para Ceuta e ainda recompensar generosamente os nobres que ocupavam postos de chefia. Julgaram consegui-lo, quando do desastre português de Tânger, pedindo como resgate do infante de D. Fernando a cidade de Ceuta. Mas D. Fernando faleceu no cativeiro e a cidade continuou portuguesa (1443). Ceuta teve que se aguentar sozinha, durante 43 anos, até que a posição da cidade ser consolidada com a tomada de Alcácer Seguer (1458), Arzila e Tânger (1471). A cidade foi reconhecida como possessão portuguesa pelo Tratado de Alcáçovas (1479) e pelo Tratado de Tordesilhas (1494). Quando da Dinastia Filipina, Ceuta manteve a administração portuguesa do Reino de Portugal, assim como Tânger e Mazagão. Todavia, quando da Restauração Portuguesa, não aclamou o Duque de Bragança, como rei de Portugal, mantendo-se espanhola. A situação foi oficializada em 1668 com a assinatura do Tratado de Lisboa entre os dois países, e que pôs fim à guerra da Restauração. O fracasso de Ceuta. As expectativas relacionadas aos benefícios da conquista de Ceuta não se confirmaram a longo prazo. Sob a ótica econômica, pode-se afirmar que o domínio português sobre a cidade se revelou um completo fracasso. As rotas comerciais que chegavam ou passavam por Ceuta foram desviadas para outras localidades. Além disso, o permanente estado de guerra comprometia o cultivo dos campos e a produção de cereais. Os muçulmanos chegaram a sequestrar o Infante D. Fernando (considerado santo a partir deste episódio) e outras pessoas, para exigir Ceuta de volta, mas Portugal não cedeu e os prisioneiros acabaram por ser torturados e morrer. A situação agravou-se em função das elevadas despesas militares necessárias à manutenção da praça africana. Os membros da corte chegaram a cogitar o abandono da cidade. O Infante D. Pedro, em carta ao seu irmão, afirmava mais tarde:
652
Crisópolis
Crisópolis Crisópolis é um município brasileiro no interior do estado da Bahia. Fundada em 1962 a uma altitude de 149 metros. A população estimada em 2021 era de 21 219 habitantes, de acordo com o IBGE. Trabalho e Rendimento. Em 2015, o salário médio mensal era de 1,9 salários mínimos. A proporção de pessoas ocupadas em relação à população total era de 5,1%. Na comparação com os outros municípios do estado, ocupava as posições 93 de 417 e 359 de 417, respectivamente. Já na comparação com cidades do país todo, ficava na posição 2500 de 5570 e 5114 de 5570, respectivamente. Considerando domicílios com rendimentos mensais de até meio salário mínimo por pessoa, tinha 58.1% da população nessas condições, o que o colocava na posição 11 de 417 dentre as cidades do estado e na posição 128 de 5570 dentre as cidades do Brasil. Educação. Em 2015, os alunos dos anos inicias da rede pública da cidade tiveram nota média de 4,9 no IDEB. Para os alunos dos anos finais, essa nota foi de 3,7. Na comparação com cidades do mesmo estado, a nota dos alunos dos anos iniciais colocava esta cidade na posição 56 de 417. Considerando a nota dos alunos dos anos finais, a posição passava a 85 de 417. A taxa de escolarização (para pessoas de 6 a 14 anos) foi de 96m1 em 2010. Isso posicionava o município na posição 337 de 417 dentre as cidades do estado e na posição 4499 de 5570 dentre as cidades do Brasil. Economia. Em 2014, tinha um PIB per capita de R$ 6.141,77. Na comparação com os demais municípios do estado, sua posição era de 279 de 417. Já na comparação com cidades do Brasil todo, sua colocação era de 4964 de 5570. Em 2015, tinha 95% do seu orçamento proveniente de fontes externas. Em comparação às outras cidades do estado, estava na posição 135 de 417 e, quando comparado a cidades do Brasil todo, ficava em 862 de 5570. Saúde. A taxa de mortalidade infantil média na cidade é de 19.76 para 1.000 nascidos vivos. As internações devido a diarreias são de 1.4 para cada 1.000 habitantes. Comparado com todos os municípios do estado, fica nas posições 139 de 417 e 200 de 417, respectivamente. Quando comparado a cidades do Brasil todo, essas posições são de 1253 de 5570 e 1967 de 5570, respectivamente. Território e Ambiente. Apresenta 5,8% de domicílios com esgotamento sanitário adequado, 61,9% de domicílios urbanos em vias públicas com arborização e 6,8% de domicílios urbanos em vias públicas com urbanização adequada (presença de bueiro, calçada, pavimentação e meio-fio). Quando comparado com os outros municípios do estado, fica na posição 328 de 417, 241 de 417 e 173 de 417, respectivamente. Já quando comparado a outras cidades do Brasil, sua posição é 4729 de 5570, 3586 de 5570 e 3178 de 5570, respectivamente.
653
Criciúma (gramínea)
Criciúma (gramínea)
654
C (linguagem de programação)
C (linguagem de programação) C é uma linguagem de programação compilada de propósito geral, estruturada, imperativa, procedural, padronizada pela Organização Internacional para Padronização (ISO), criada em 1972 por Dennis Ritchie na empresa AT&T Bell Labs para desenvolvimento do sistema operacional Unix (originalmente escrito em Assembly). C é uma das linguagens de programação mais populares e existem poucas arquiteturas para as quais não existem compiladores para C. C tem influenciado muitas outras linguagens de programação (por exemplo, a linguagem Java), mais notavelmente C++, que originalmente começou como uma extensão para C. A linguagem C encontra-se na versão/padrão internacional C17 (ISO/IEC 9899:2018) lançada em junho de 2018, substituindo a versão C11 (ISO/IEC 9899:2011), disponível em ISO e IEC e com suporte para GCC8 e Clang LLVM6. História. O desenvolvimento inicial de C ocorreu no AT&T Bell Labs entre 1969 e 1973. De acordo com Ritchie, o período mais criativo ocorreu em 1972. A linguagem foi chamada "C", porque suas características foram obtidas a partir de uma linguagem anteriormente chamada de "B", que de acordo com Ken Thompson era a versão reduzida da linguagem de programação BCPL. A versão original PDP-11 do sistema Unix foi desenvolvido em Assembly. Em 1973, com a adição dos tipos codice_1, a linguagem C tornou-se poderosa o suficiente para que a maior parte do "kernel" do Unix fosse reescrito em C. Este foi um dos primeiros núcleos de sistemas operacionais implementados numa linguagem diferente da linguagem "Assembly". Em 1977, foram feitas novas mudanças por Ritchie e Stephen C. Johnson para facilitar a portabilidade do sistema operacional Unix. O "Portable C Compiler" de Johnson serviu de base para várias implementações de C em novas plataformas. C K&R. A linguagem C não teve um sucesso imediato após a sua criação e o seu uso ficou restrito a alguns laboratórios, mas em 1978 Brian Kernighan e Dennis Ritchie lançam o livro "The C Programming Language" que serviu de tutorial e mudou a história da programação em C. De fato essa primeira versão da linguagem é conhecida como "C Kernighan e Ritchie" ou apenas "C K&R". Esse livro, conhecido pelos programadores de C como "K&R", serviu durante muitos anos como uma especificação informal da linguagem. A versão da linguagem C que ele descreve é usualmente referida como "K&R C". A segunda edição do livro cobriu o padrão posterior, o "ANSI C". K&R C introduziu as seguintes características na linguagem: K&R C é frequentemente considerado a parte mais básica da linguagem, cujo suporte deve ser assegurado por um compilador de C. Durante muitos anos, mesmo após a introdução do padrão ANSI C, K&R C foi considerado o "menor denominador comum", em que programadores de C se apoiavam quando uma portabilidade máxima era desejada, já que nem todos os compiladores eram actualizados o suficiente para suportar o padrão ANSI C. Nos anos que se seguiram à publicação do K&R C, algumas características "não oficiais" foram adicionadas à linguagem, suportadas por compiladores da AT&T e de outros vendedores. Estas incluíam: ANSI C e ISO C. Durante os finais da década de 1970, a linguagem C começou a substituir a linguagem BASIC como a linguagem de programação de microcomputadores mais usada. Durante a década de 1980, foi adaptada para uso no PC IBM, e a sua popularidade começou a aumentar significativamente. Ao mesmo tempo, Bjarne Stroustrup, juntamente com outros nos laboratórios Bell, começou a trabalhar num projecto onde se adicionavam extras para programação orientada por objectos à linguagem C. A linguagem que eles produziram, chamada C++, é nos dias de hoje a linguagem de programação de aplicações mais comum no sistema operativo Windows da companhia Microsoft. A linguagem C permanece a mais popular no mundo Unix. Em 1983, o instituto norte-americano de padrões (ANSI) formou um comité, X3J11, para estabelecer uma especificação do padrão da linguagem C. Após um processo longo e árduo, o padrão foi completo em 1989 e ratificado como ANSI X3.159-1989 "Programming Language C". Esta versão da linguagem é frequentemente referida como ANSI C. Em 1990, o padrão ANSI C, após sofrer umas modificações menores, foi adotado pela Organização Internacional para Padronização (ISO) que cria o grupo de trabalho para cuidar da especificação da linguagem, denominado WG14, assim foi renomeada para ISO/IEC 9899:1990, também conhecido como C89 e C90. Um dos objetivos do processo de padronização ANSI C foi o de produzir um sobreconjunto do K&R C, incorporando muitas das características não oficiais subsequentemente introduzidas. Entretanto, muitos programas tinham sido escritos e que não compilavam em certas plataformas, ou com um certo compilador, devido ao uso de bibliotecas de funções não padrão e ao fato de alguns compiladores não aderirem ao ANSI C. C99. Após o processo da padronização ANSI, as especificações da linguagem C permaneceram relativamente estáticas por algum tempo, enquanto a linguagem C++ continuou a evoluir. (em 1995, a "Normative Amendment 1" criou uma versão nova da linguagem C mas esta versão raramente é tida em conta.) Contudo, o padrão foi submetido a uma revisão nos finais da década de 1990, levando à publicação da norma ISO 9899:1999 em 1999. Este padrão é geralmente referido como "C99" e foi adoptado como um padrão ANSI em março de 2000. As novas características do C99 incluem: O interesse em suportar as características novas de C99 parece depender muito das entidades. Apesar do GCC e vários outros compiladores suportarem grande parte das novas características do C99, os compiladores mantidos pela Microsoft e pela Borland suportam pouquíssimos recursos do C99, e estas duas companhias não parecem estar muito interessadas em adicionar tais funcionalidades, ignorando por completo as normas internacionais. A Microsoft parece preferir dar mais ênfase ao C++. C11. Em 2007, se iniciou o trabalho em antecipação de outra revisão do padrão de C, informalmente chamada de C11 ou C1X. O comité dos padrões de C adotou regras para limitar a inserção de novos recursos que não tenham ainda sido testados por implementações existentes. Em dezembro de 2011 foi publicada a versão estável da especificação, como ISO/IEC 9899:2011. C17. Em 2017 começou a ser desenvolvida uma nova revisão do padrão C, informalmente chamada de C17, substituindo o C11. Esta revisão visou melhorar a revisão anterior sem introduzir nova funcionalidades na linguagem. Em junho de 2018 foi publicada a versão estável da especificação, como ISO/IEC 9899:2018. Como foi publicada em 2018, também é informalmente chamada de C18. C2X. Atualmente está sendo desenvolvida a nova revisão do padrão C, que pretende incorporar novas funcionalidades à linguagem. Informalmente denominada C2x, deve ser finalizada em 2023 e se tornar C23. Visão geral. C é uma linguagem imperativa e procedural para implementação de sistemas. Seus pontos de design foram para ele ser compilado, fornecendo acesso irrestrito à memória e baixos requerimentos do hardware. Também foi desenvolvido para ser uma linguagem de alto nível, para maior reaproveitamento do código. C foi útil para muitas aplicações que foram codificadas originalmente em Assembly. Essa propriedade não foi acidental; a linguagem C foi criada com o objectivo principal em mente: facilitar a criação de programas extensos com menos erros recorrendo ao paradigma da programação procedural mas sobrecarregando menos o autor do compilador, cujo trabalho complica-se ao ter de realizar as características complexas da linguagem. Para este fim, a linguagem C possui as seguintes características: Algumas características úteis, que faltam em C, podem ser encontradas em outras linguagens, que incluem: Apesar da lista de características úteis que C possui não ser longa, isso não tem sido um impedimento à sua aceitação, pois isso permite que novos compiladores de C sejam escritos rapidamente para novas plataformas, e também permite que o programador permaneça sempre em controle do que o programa está a fazer. Isto é o que por várias vezes permite o código de C correr de uma forma mais eficiente que muitas outras linguagens. Tipicamente, só código de Assembly "afinado à mão" é que corre mais rapidamente, pois possui um controle completo da máquina, mas avanços na área de compiladores juntamente com uma nova complexidade nos processadores modernos permitiram que a diferença tenha sido rapidamente eliminada. Uma consequência da aceitação geral da linguagem C é que frequentemente os compiladores, bibliotecas e até interpretadores de outras linguagens sejam implementados em C. C tem como ponto forte a sua eficiência, e é a linguagem de programação preferida para o desenvolvimento de sistemas e softwares de base, apesar de também ser usada para desenvolver programas de computador. É também muito usada no ensino de ciência da computação, mesmo não tendo sido projetada para estudantes e apresentando algumas dificuldades no seu uso. Outra característica importante de C é o seu código resultante em Assembly ter funcionamento idêntico ao código fonte, que permite que um projetista seja capaz de fazer algumas previsões de como o software irá se comportar ao ser executado. O ponto negativo de C está na possibilidade do programador cometer erros graças a liberdade que a linguagem oferece. Por exemplo é possível acessar área de memória que não pertence a um vetor ao acessar um índice maior que seu tamanho, possibilitando que ocorra um buffer overflow. Isto acontece em C porque o dever de controlar a memória está nas mãos do programador. O motivo de C dar total controle para o programador é porque a linguagem foi projetada para programar o sistema operacional UNIX, onde havia a necessidade desse controle sobre a forma como o sistema iria funcionar. Tipos de dados. C tem um sistema de tipos semelhante ao de alguns descendentes da linguagem ALGOL, tais como Pascal. Possui tipos para números inteiros de vários tamanhos com e sem sinal, números de ponto flutuante, caracteres e estruturas (codice_1s). C usa extensivamente ponteiros, um tipo muito simples de referência que guarda o endereço de memória da variável. O ponteiro pode ser "desreferenciado", uma operação que busca o objeto que se encontra na morada da memória que o ponteiro possui, morada essa que pode ser manipulada através de aritmética de ponteiros. Durante o tempo de execução, o ponteiro é simplesmente uma morada de máquina tais como aquelas manipuladas em "Assembly", mas em tempo de compilação possui um tipo complexo que indica o tipo do objecto para onde ele aponta, permitindo que se verifique o tipo de expressões, incluindo ponteiros. O tipo "string" (cadeia ou linha de texto) de C é simplesmente um ponteiro para um vetor de caracteres e alocação dinâmica de memória, descrita abaixo, é efetuada através de ponteiros. Os ponteiros em C possuem um valor reservado especial, codice_27, que indica que não estão a apontar para uma morada. O uso desse valor como morada é muito útil na construção de várias estruturas de dados, mas causa comportamento não definido (possivelmente uma falha de sistema) ao ser desreferenciado. Um ponteiro que possui o valor codice_27 é chamado "ponteiro nulo". Os ponteiros são declarados (e desreferenciados) com um * (asterisco), portanto o tipo "int*" denota um ponteiro para variável(eis) que comporta(m) número(s) inteiro(s). A linguagem C também fornece um tipo especial de ponteiros, o "void*", que se traduz num ponteiro que aponta para um objeto de tipo desconhecido. A linguagem C também tem apoio em nível de linguagem para vetores estáticos (de dimensão fixa) de tipos. As disposições de tipos podem parecer ter mais que uma dimensão apesar de serem tecnicamente disposições de disposições de tipos. Em memória, tais estruturas são posicionadas com as linhas uma depois da outra (a alternativa seria armazenar os dados em colunas, usado em outras linguagens). O acesso a disposições de tipos é feito através de ponteiros e aritmética de ponteiros; o nome da disposição é tratado como se fosse um ponteiro que aponta para o início da disposição. Em certas aplicações não é razoável usarem-se disposições de tipos de dimensão fixa e por isso a alocação dinâmica de memória pode ser usada para criar disposições de tipos de dimensão variável. Como a linguagem C é regularmente usada em programação de baixo-nível de sistemas, há casos em que é necessário tratar um número inteiro como sendo um ponteiro, um número de ponto flutuante como sendo um número inteiro ou um tipo de ponteiro como sendo outro. Para estes casos, a linguagem C fornece a capacidade de "moldagem" (também denominado "conversão de tipo" ou "casting"), uma operação que, caso seja possível, força a conversão de um objeto de um tipo para outro. Apesar de ser por vezes necessário, o uso de conversões de tipo sacrifica alguma segurança oferecida pelo sistema de tipos. O tipo de dado int (inteiro) serve para armazenar valores numéricos inteiros. Existem vários tipos de inteiros, cada um de um tamanho diferente (dependendo do sistema operacional e/ou arquitetura do processador): Todos estes tipos de inteiros podem ainda ser declarados precedidos da cláusula "unsigned", o que faz com que só suporte números positivos. Isto faz com que, com o mesmo tamanho, uma variável suporte mais números positivos do que um "signed" (todos os inteiros são signed por omissão). O tipo char ocupa 1 byte, e serve para armazenar caracteres ou inteiros. Isso significa que o programa reserva um espaço de 8 bits na memória RAM ou em registradores do processador para armazenar um valor (char de tamanho maior que 8 bits é permitido pela linguagem, mas os casos são raros). Com vetores do tipo char é possível criar cadeias de caracteres (strings). O tipo de dado float serve para armazenar números de ponto flutuante, ou seja, com casas decimais. O padrão mais utilizado nos últimos 10 anos é o IEEE 754-1985. O tipo de dado double serve para armazenar números de ponto flutuante de dupla precisão, normalmente tem o dobro do tamanho do float e portanto o dobro da capacidade. O padrão mais adotado também é o IEEE 754-1985. Em C podem ser usadas estruturas (chamados de registos em outras linguagens de programação). As estruturas são grupos de variáveis organizadas arbitráriamente pelo programador. Uma estrutura pode criar um novo tipo de variável caso typedef seja usado em sua declaração. Relações com C++. A linguagem de programação C++ foi originalmente derivada do C para suportar programação orientada a objetos. À medida que as linguagens C e C++ foram evoluindo independentemente, a divisão entre as duas veio a aumentar. O padrão C99 criou um número de características que entram em conflito. Hoje, as principais diferenças entre as duas linguagens são: Algumas características originalmente desenvolvidas em C++ também apareceram em C. Entre elas encontram-se: Exemplos. Programa Olá Mundo. A seguinte aplicação foi publicada na primeira edição de C de K&R, e tornou-se no programa de introdução padrão da maior parte dos livros sobre C. O programa envia o texto "Olá, Mundo!" para a saída padrão, que é normalmente o console, mas que também pode ser um ficheiro (ou arquivo), um outro dispositivo qualquer, ou até mesmo um "bit bucket", dependendo de como a saída-padrão é mapeada na altura em que o programa é executado. int main(void) puts("Olá, Mundo!"); Apesar do programa acima correr corretamente, atualmente origina algumas mensagens de aviso quando compilado como C ANSI. Essas mensagens podem ser eliminadas efectuando umas pequenas alterações no programa original: int main(void) puts("Olá, Mundo!"); return 0; /* Retorna 0, pois `main` retorna um `int` */ /* Nova linha após fechar a chave principal */ A primeira linha do programa é uma diretiva de pré-processamento codice_39, que causa com que o pré-processador substitua aquela linha pela totalidade do conteúdo do arquivo qual diretiva se refere. Neste caso o arquivo padrão codice_40 (que contém protótipos de funções para trabalho com entrada e saída) irá substituir a linha. Os caracteres codice_41 e codice_42 indicam que o arquivo stdio.h encontra-se no local em que, quando da configuração do compilador, se definiu como padrão para localização dos ficheiros de inclusão ("header files", geralmente com a extensão ".h"). A linha (não vazia) seguinte indica que uma função denominada "main" será definida. A função "main" tem um significado especial nos programas em C, pois é a função que é inicialmente executada (em inglês, "entry point"). Os caracteres codice_43 e codice_44 delimitam a extensão da função. O termo codice_29 define a função "main" como sendo uma função que retorna um número inteiro. O termo codice_12 indica que a função não aceita parâmetros. A função "main", normalmente aceita parâmetros, que são passado pela linha de comando. Os compiladores e sistemas operacionais atuais reconhecem as seguintes declarações de main: int main(); int main(void); int main(int argc, char *argv[]); int main(int argc, char **argv); A linha seguinte "chama", ou executa uma função chamada codice_47; o arquivo incluído, codice_40, contém a informação que descreve a forma como a função codice_47 deve ser chamada. Nesta chamada, é passado à função codice_47 um único argumento, a linha de texto constante "Olá, Mundo!". A função codice_47 retorna um valor, um codice_29, mas como não é usado, é descartado pelo compilador. O comando codice_53 retorna o valor 0 para o sistema, que é interpretado pelo mesmo como que a função main() foi executada e encerrada com sucesso (sem erros). Por fim, o caracter codice_44 indica o fim da função codice_55. Note-se que texto rodeado por codice_56 e codice_57 (comentários de texto) é ignorado pelo compilador. Os compiladores que obedecem à norma C99 também aceitam como comentários as linhas de texto que são precedidos por codice_23. Pode ser compilado e executado com o seguinte comando (considerando que o GCC está instalado): $ gcc hello.c -o hello $ ./hello Algoritmo de Trabb Pardo-Knuth. double f(double t) return sqrt(fabs(t)) + 5 * pow(t, 3); int main(void) double a[11] = {0}, y; for (int i = 0; i < 11; i++) scanf("%lf", &a[i]); for (int i = 10; i >= 0; i--) { y = f(a[i]); if (y > 400) printf("%d TOO LARGE\n", i); else printf("%d %.16g\n", i, y); Pode ser compilado e executado com o seguinte comando: $ gcc -lm tpk.c -o tpk $ ./tpk codice_59 instrui o "linker" a juntar o módulo de matemática ("libm"). Estruturas de dados. No exemplo seguinte, é criada uma estrutura composta por 3 membros de tipos diferentes. Os membros podem ser acessados com a seguinte sintaxe: codice_60. struct Pessoa char nome[32]; char rg[14]; // 13 caracteres + '\0' uint8_t idade; int main(void) struct Pessoa p1 = { .nome = "Fulano", .rg = "00.000.000-00", .idade = 27, printf(" Nome: %s\n", p1.nome); printf(" RG: %s\n", p1.rg); printf("Idade: %u\n", p1.idade); Ou, equivalente: typedef struct char nome[32]; char rg[14]; // 13 caracteres + '\0' uint8_t idade; } Pessoa; int main(void) Pessoa p1 = { .nome = "Fulano", .rg = "00.000.000-00", .idade = 27, printf(" Nome: %s\n", p1.nome); printf(" RG: %s\n", p1.rg); printf("Idade: %u\n", p1.idade); É possível omitir os nomes dos membros durante a inicialização: Pessoa p1 = { "Fulano", "00.000.000-00", 27 };
655
Célula animal
Célula animal A célula animal é uma célula eucariótica, ou seja, uma célula que apresenta o núcleo delimitado pela membrana nuclear (carioteca). Como todas as células eucarióticas, a célula animal é delimitada pela membrana plasmática. Possui organelas citoplasmáticas como o ribossomo, responsável pela síntese proteica; o lisossomo, que atua na digestão; as mitocôndrias, que participam da produção de energia e respiração celular; entre outros. A palavra célula (que vem da palavra "cella", que significa "pequena cavidade") foi usada pela primeira vez em 1665, pelo inglês Robert Hooke (1635-1703). Com um microscópio rudimentar, ele observou pedaços de cortiça, e percebeu que esta era formada por compartimentos vazios que ele chamou de células. Matthias Schleiden e Theodor Schwann, após muitos anos de observações, propuseram a teoria celular. Essa teoria afirma que todo ser vivo é formado por células. Em 1855, o pesquisador alemão Rudholph Virchow deu um passo adiante, afirmando que todas as células surgem de outras células preexistentes. Na célula animal não há celulose nas suas paredes nem clorofila no seu interior, diferentes da célula vegetal. Ou seja é uma célula sem cloroplastos. Outros componentes celulares:
659
D.C.
D.C.
660
Doença de Creutzfeldt-Jakob
Doença de Creutzfeldt-Jakob A doença de Creutzfeldt–Jakob (DCJ), também denominada encefalopatia espongiforme subaguda, é uma doença neurodegenerativa fatal. Os sintomas iniciais mais comuns são perda de memória, alterações no comportamento, falta de coordenação e perturbações visuais Entre os sintomas mais tardios estão demência, movimentos involuntários, perda de visão, fadiga e coma. Em cerca de 70% dos casos a pessoa morre no prazo de um ano após o diagnóstico. A DCJ é causada por proteínas denominadas priões. Os priões são proteínas mal enoveladas que fazem com que proteínas corretamente enoveladas se tornem elas próprias desenoveladas. Cerca de 85% dos casos ocorrem por razões desconhecidas, enquanto cerca de 7,5% dos casos são herdados de um dos progenitores de forma autossómica dominante. A doença pode também ser transmitida por exposição ao cérebro ou tecidos da medula espinal de uma pessoa infetada. Não há evidências de que possa ser transmitida entre pessoas por contacto normal ou transfusão de sangue. O diagnóstico da doença requer que sejam descartadas outras potenciais causas e pode ser complementado por electroencefalograma, punção lombar ou ressonância magnética. Não existe tratamento específico para a DCJ. A dor pode ser aliviada com opioides, enquanto o clonazepam ou o valproato de sódio podem ajudar com os movimentos involuntários. A DCJ afeta cerca de uma por cada milhão de pessoas por ano. A doença tem geralmente início por volta dos 60 anos de idade. Foi descrita pela primeira vez em 1920. É um tipo de encefalopatia espongiforme transmissível. A DCJ hereditária corresponde a cerca de 10% dos casos de doenças causadas por priões. A DCJ esporádica é diferente da encefalopatia espongiforme bovina (doença das vacas loucas) e da doença de Creutzfeldt–Jakob variante.
661
Democracia
Democracia Democracia é um regime político em que os cidadãos no aspecto dos direitos políticos participam igualmente — diretamente ou através de representantes eleitos — na proposta, no desenvolvimento e na criação de leis, exercendo o poder da governação através do sufrágio universal. Ela abrange as condições sociais, econômicas e culturais que permitem o exercício livre e igual da autodeterminação política. O termo é do grego antigo δημοκρατία ("dēmokratía" ou "governo do povo"), que foi criado a partir de δῆμος ("demos" ou "povo") e κράτος ("kratos" ou "poder") no século V a.C. para denotar os sistemas políticos então existentes em cidades-Estados gregas, principalmente Atenas; o termo é um antônimo para ἀριστοκρατία ("aristokratia" ou "regime de uma aristocracia" como seu nome indica). Embora, teoricamente, estas definições sejam opostas, na prática, a distinção entre elas foi obscurecida historicamente. No sistema político da Atenas Clássica, por exemplo, a cidadania democrática abrangia apenas homens, filhos de pai e mãe atenienses, livres e maiores de 21 anos, enquanto estrangeiros, escravos e mulheres eram grupos excluídos da participação política. Em praticamente todos os governos democráticos em toda a história antiga e moderna, a cidadania democrática valia apenas para uma elite de pessoas, até que a emancipação completa foi conquistada para todos os cidadãos adultos na maioria das democracias modernas através de movimentos por sufrágio universal durante os séculos XIX e XX. O sistema democrático contrasta com outras formas de governo em que o poder é detido por uma pessoa — como em uma monarquia absoluta — ou em que o poder é mantido por um pequeno número de indivíduos — como em uma oligarquia. No entanto, essas oposições, herdadas da filosofia grega, são agora ambíguas porque os governos contemporâneos têm misturado elementos democráticos, oligárquicos e monárquicos em seus sistemas políticos. Karl Popper definiu a democracia em contraste com ditadura ou tirania, privilegiando, assim, oportunidades para as pessoas de controlar seus líderes e de tirá-los do cargo sem a necessidade de uma revolução. Diversas variantes de democracias existem no mundo, mas há duas formas básicas, sendo que ambas dizem respeito a como o corpo inteiro de todos os cidadãos no exercício dos direitos políticos executam a sua vontade. Uma das formas de democracia é a democracia direta, em que todos os cidadãos no exercício dos direitos políticos têm participação direta e ativa na tomada de decisões do governo. Na maioria das democracias modernas, todo o corpo de cidadãos no exercício dos direitos políticos permanece com o poder soberano, mas o poder político é exercido indiretamente por meio de representantes eleitos, o que é chamado de democracia representativa. No Brasil a soberania popular é exercida de forma indireta, por meio de representantes eleitos (CF/88, art. 1º, parágrafo único), e de forma direta, na forma da lei, mediante plebiscito, referendo e iniciativa popular (CF/88, art. 1º, parágrafo único, e art. 14, caput, I a III), O conceito de democracia representativa surgiu em grande parte a partir de ideias e instituições que se desenvolveram durante períodos históricos como a Idade Média europeia, a Reforma Protestante, o Iluminismo e as revoluções Americana e Francesa. Características. Não existe consenso sobre a forma correta de definir a democracia, mas a igualdade, a liberdade e o Estado de direito foram identificadas como características importantes desde os tempos antigos. Estes princípios são refletidos quando todos os cidadãos elegíveis são iguais perante a lei e têm igual acesso aos processos legislativos. Por exemplo, em uma democracia representativa, cada voto tem o mesmo peso, não existem restrições excessivas sobre quem quer se tornar um representante, além da liberdade de seus cidadãos elegíveis ser protegida por direitos legitimados e que são tipicamente protegidos por uma constituição. Uma teoria sustenta que a democracia exige três princípios fundamentais: 1) a soberania reside nos níveis mais baixos de autoridade; 2) igualdade política e 3) normas sociais pelas quais os indivíduos e as instituições só consideram aceitáveis atos que refletem os dois primeiros princípios citados. O termo "democracia" às vezes é usado como uma abreviação para a democracia liberal, que é uma variante da democracia representativa e que pode incluir elementos como o pluralismo político, a igualdade perante a lei, o direito de petição para reparação de injustiças sociais; devido processo legal; liberdades civis; direitos humanos; e elementos da sociedade civil fora do governo. Roger Scruton afirma que a democracia por si só não pode proporcionar liberdade pessoal e política, a menos que as instituições da sociedade civil também estejam presentes. Em muitos países, como no Reino Unido onde se originou o Sistema Westminster, o princípio dominante é o da soberania parlamentar, mantendo a independência judicial. Nos Estados Unidos, a separação de poderes é frequentemente citada como um atributo central de um regime democrático. Na Índia, a maior democracia do mundo, a soberania parlamentar está sujeita a uma constituição que inclui o controle judicial. Outros usos do termo "democracia" incluem o da democracia direta. Embora o termo "democracia" seja normalmente usado no contexto de um Estado político, os princípios também são aplicáveis a organizações privadas. O regime da maioria absoluta é frequentemente considerado como uma característica da democracia. Assim, o sistema democrático permite que minorias políticas sejam oprimidas pela chamada "tirania da maioria" quando não há proteções legais dos direitos individuais ou de grupos. Uma parte essencial de uma democracia representativa "ideal" são eleições competitivas que sejam justas tanto no plano material, quanto processualmente. Além disso, liberdades como a política, de expressão e de imprensa são consideradas direitos essenciais que permitem aos cidadãos elegíveis serem adequadamente informados e aptos a votar de acordo com seus próprios interesses. Também tem sido sugerido que uma característica básica da democracia é a capacidade de todos os eleitores de participar livre e plenamente na vida de sua sociedade. Com sua ênfase na noção de contrato social e da vontade coletiva de todos os eleitores, a democracia também pode ser caracterizada como uma forma de coletivismo político, porque ela é definida como uma forma de governo em que todos os cidadãos elegíveis têm uma palavra a dizer de peso igual nas decisões que afetam as suas vidas. Enquanto a democracia é muitas vezes equiparada à forma republicana de governo, o termo "república" classicamente abrangeu democracias e aristocracias. Algumas democracias são monarquias constitucionais muito antigas, como é o caso de países como o Reino Unido e o Japão. História. Origens na antiguidade. O termo "democracia" apareceu pela primeira vez no antigo pensamento político e filosófico grego na cidade-Estado de Atenas durante a antiguidade clássica. Liderados por Clístenes, os atenienses estabeleceram o que é geralmente tido como a primeira experiência democrática em 508-507 a.C. Clístenes é referido como "o pai da democracia ateniense". A democracia ateniense tomou a forma de uma democracia direta e tinha duas características distintivas: a seleção aleatória de cidadãos comuns para preencher os poucos cargos administrativos e judiciais existentes no governo e uma assembleia legislativa composta por todos os cidadãos atenienses. Todos os cidadãos elegíveis eram autorizados a falar e votar na assembleia, que estabelecia as leis da cidade-Estado. No entanto, a cidadania ateniense excluía mulheres, escravos, estrangeiros (μέτοικοι, "metoikoi"), os que não eram proprietários de terras e os homens com menos de 20 anos de idade. Dos cerca de 200 a 400 mil habitantes de Atenas na época, havia entre 30 mil e 60 mil cidadãos. A exclusão de grande parte da população a partir do que era considerada cidadania está intimamente relacionada com a antiga compreensão do termo. Durante a maior parte da antiguidade, o benefício da cidadania era associado à obrigação de lutar em guerras. O sistema democrático ateniense não era apenas dirigido no sentido de que as decisões eram tomadas pelas pessoas reunidas na assembleia, mas também era mais direto no sentido de que as pessoas, através de assembleias e tribunais de justiça, controlavam todo o processo político e uma grande proporção dos cidadãos estavam envolvidos constantemente nos assuntos públicos. Mesmo com os direitos do indivíduo não sendo garantidos pela constituição ateniense no sentido moderno (os antigos gregos não tinham uma palavra para "direitos"), os atenienses gozavam de liberdades não por conta do governo, mas por viverem em uma cidade que não estava sujeita a outro poder e por não serem eles próprios sujeitos às regras de outra pessoa. A votação por pontos apareceu em Esparta já em 700 a.C. A Apela era uma assembleia do povo, realizada uma vez por mês. Nessa assembleia, os líderes espartanos eram eleitos e davam seu voto gritando. Todos os cidadãos do sexo masculino com mais 30 anos de idade podiam participar. Aristóteles chamava esse sistema de "infantil", em oposição a algo mais sofisticado, como a utilização de registros de voto em pedra, como os usados pelos atenienses. No entanto, em termos, Esparta adotou esse sistema de votação por causa da sua simplicidade e para evitar qualquer tipo de viés de votação. Mesmo que a República Romana tenha contribuído significativamente com muitos dos aspectos da democracia, apenas uma minoria dos romanos eram considerados cidadãos aptos a votar nas eleições para os representantes. Os votos dos poderosos tinham mais peso através de um sistema de "gerrymandering", enquanto políticos de alto gabarito, incluindo membros do senado, vinham de algumas famílias ricas e nobres. No entanto, muitas exceções notáveis ocorreram. Além disso, a República Romana foi o primeiro governo no mundo ocidental a ter uma república como um Estado-nação, apesar de não ter muitas características de uma democracia. Os romanos inventaram o conceito de "clássicos" e muitas obras da Grécia antiga foram preservadas. Além disso, o modelo romano de governo inspirou muitos pensadores políticos ao longo dos séculos e democracias representativas modernas imitam mais o modelo romano do que os gregos porque era um Estado em que o poder supremo era realizado pelo povo e por seus representantes eleitos, e que tinha um líder eleito ou nomeado. A democracia representativa é uma forma de democracia em que as pessoas votam em representantes que, em seguida, votam em iniciativas políticas; enquanto uma democracia direta é uma forma de democracia em que as pessoas votam em iniciativas políticas diretamente. Era contemporânea. As transições do século XX para a democracia liberal vieram em sucessivas "ondas" de democracia, diversas vezes resultantes de guerras, revoluções, descolonização e por circunstâncias religiosas e econômicas. A Primeira Guerra Mundial e a subsequente dissolução dos impérios Otomano e Austro-Húngaro resultou na criação de novos Estados-nação da Europa, a maior parte deles, pelo menos nominalmente, democráticos. Na década de 1920 a democracia floresceu, mas a Grande Depressão trouxe desencanto e a maioria dos países da Europa, América Latina e Ásia viraram-se para regimes autoritários. O fascismo e outros tipos de ditaduras floresceram na Alemanha nazista, na Itália, na Espanha e em Portugal, além de regimes não-democráticos terem surgidos nos países bálticos, nos Balcãs, no Brasil, em Cuba, na China e no Japão, entre outros. A Segunda Guerra Mundial trouxe uma reversão definitiva desta tendência na Europa Ocidental. A democratização dos setores estadunidense, britânico e francês da Alemanha ocupada (disputado), da Áustria, da Itália e do Japão ocupado pelos Aliados serviu de modelo para a teoria posterior de "mudança de regime". No entanto, a maior parte da Europa Oriental, incluindo o setor soviético da Alemanha, caiu sob a influência do bloco soviético não-democrático. A guerra foi seguida pela descolonização e, novamente, a maioria dos novos estados independentes tiveram constituições nominalmente democráticas. A Índia emergiu como a maior democracia do mundo e continua a sê-lo. Em 1960, a grande maioria dos Estados-nação tinham, nominalmente, regimes democráticos, embora a maioria das populações do mundo ainda vivesse em países que passaram por eleições fraudulentas e outras formas de subterfúgios (particularmente em nações comunistas e em ex-colônias). Uma onda posterior de democratização trouxe ganhos substanciais para a verdadeira democracia liberal para muitas nações. Espanha, Portugal (1974) e várias das ditaduras militares na América do Sul voltaram a ser um governo civil no final dos anos 1970 e início dos anos 1980 (Argentina em 1983, Bolívia e Uruguai em 1984, o Brasil em 1985 e o Chile no início de 1990). Isto foi seguido por nações do Extremo Oriente e do Sul da Ásia no final da década de 1980. O mal-estar econômico na década de 1980, juntamente com o ressentimento da opressão soviética, contribuiu para o colapso da União Soviética, o consequente fim da Guerra Fria e a democratização e liberalização dos antigos países do chamado bloco oriental. A mais bem-sucedida das novas democracias eram aquelas geográfica e culturalmente mais próximas da Europa Ocidental e elas são agora, em sua maioria, membros ou membros associados da União Europeia. Alguns pesquisadores consideram que a Rússia contemporânea não é uma verdadeira democracia e, em vez disso, se assemelha a uma forma de ditadura. A tendência liberal se espalhou para alguns países da África na década de 1990, sendo o exemplo mais proeminente a África do Sul. Alguns exemplos recentes de tentativas de liberalização incluem a Revolução Indonésia de 1998, a Revolução Bulldozer na antiga Iugoslávia, a Revolução Rosa na Geórgia, a Revolução Laranja na Ucrânia, a Revolução dos Cedros no Líbano, a Revolução das Tulipas no Quirguistão e da Revolução de Jasmim na Tunísia (parte da chamada "Primavera Árabe"). De acordo com a organização Freedom House, em 2007, havia 123 democracias eleitorais (acima das 40 registradas em 1972). De acordo com o Fórum Mundial sobre a Democracia, as democracias eleitorais agora representam 120 dos 192 países existentes e constituem 58,2 por cento da população mundial. Ao mesmo tempo, as democracias liberais, ou seja, os países que a Freedom House considera livre e que respeitam os direitos humanos fundamentais e o Estado de direito são 85 e representam 38 por cento da população global. Em 2010, as Nações Unidas declararam 15 de setembro o Dia Internacional da Democracia. É possível destacar ainda, que durante toda sua trajetória, mas principalmente na era contemporânea, a democracia tem uma relação direta com a educação, com a escola e com os modelos de ensino que determinada sociedade estabelece. Dessa forma a democracia moderna como conhecemos hoje, está intimamente vinculada com a educação dos territórios que a elegem enquanto forma de governo. Tipos. A democracia tem tomado diferentes formas de governo, tanto na teoria quanto na prática. Algumas variedades de democracia proporcionam uma melhor representação e maior liberdade para seus cidadãos do que outras. No entanto, se qualquer democracia não está estruturada de forma a proibir o governo de excluir as pessoas do processo legislativo, ou qualquer agência do governo de alterar a separação de poderes em seu próprio favor, em seguida, um ramo do sistema político pode acumular muito poder e destruir o ambiente democrático. Direta. Democracia direta refere-se ao sistema onde os cidadãos decidem diretamente cada assunto por votação. A democracia direta tornou-se cada vez mais difícil, e necessariamente se aproxima mais da democracia representativa, quando o número de cidadãos cresce. Historicamente, as democracias mais diretas incluem o encontro municipal de Nova Inglaterra (dentro dos Estados Unidos), e o antigo sistema político de Atenas. Nenhum destes se enquadraria bem para uma grande população (embora a população de Atenas fosse grande, a maioria da população não era composta de pessoas consideradas como cidadãs, que, portanto, não tinha direitos políticos; não os tinham mulheres, escravos e crianças). É questionável se já houve algum dia uma democracia puramente direta de qualquer tamanho considerável. Na prática, sociedades de qualquer complexidade sempre precisam de uma especialização de tarefas, inclusive das administrativas; e portanto uma democracia direta precisa de oficiais eleitos. (Embora alguém possa tentar manter todas as decisões importantes feitas por voto direto, com os oficiais meramente implementando essas decisões). Exemplos de democracia direta que costumavam eleger "Delegados" com mandato imperativo, revogável e temporário podem ser encontrados em sedições e revoluções de cunho anarquista como a Revolução Espanhola, a Revolução Ucraniana e no levante armado da EZLN, no estado de Chiapas. Contemporaneamente o regime que mais se aproxima dos ideais de uma democracia direta é a "democracia semidireta" da Suíça. Uma "democracia semidireta" é um regime de democracia em que existe a combinação de representação política com formas de Democracia direta (Benevides, 1991, p. 129). A Democracia semidireta, conforme Bobbio (1987, p. 459), é uma forma de democracia que possibilita um sistema mais bem-sucedido de democracia frente as democracias Representativa e Direta, ao permitir um equilíbrio operacional entre a representação política e a soberania popular direta. A prática desta ação equilibrante da democracia semidireta, segundo Bonavides (2003, p. 275), limita a “alienação política da vontade popular”, onde “a soberania está com o povo, e o governo, mediante o qual essa soberania se comunica ou exerce, pertence ao elemento popular nas matérias mais importantes da vida pública”. Representativa. Em democracias representativas, em contraste, os cidadãos elegem representantes em intervalos regulares, que então votam os assuntos em seu favor. Do mesmo modo, muitas democracias representativas modernas incorporam alguns elementos da democracia direta, normalmente referendo. Nós podemos ver democracias diretas e indiretas como os tipos ideais, com as democracias reais se aproximando umas das outras. Algumas entidades políticas modernas, como a Suíça ou alguns estados norte-americanos, onde é frequente o uso de referendo iniciada por petição (chamada referendo por demanda popular) ao invés de membros da legislatura ou do governo. A última forma, que é frequentemente conhecida por plebiscito, permite ao governo escolher se e quando manter um referendo, e também como a questão deve ser abordada. Em contraste, a Alemanha está muito próxima de uma democracia representativa ideal: na Alemanha os referendos são proibidos — em parte devido à memória de como Adolf Hitler usou isso para manipular plebiscitos em favor do seu governo. O sistema de eleições que foi usado em alguns países capitalistas de Estado, chamado centralismo democrático, pode ser considerado como uma forma extrema de democracia representativa, onde o povo elegia representantes locais, que por sua vez elegeram representantes regionais, que por sua vez elegiam a assembleia nacional, que finalmente elegia os que iam governar o país. No entanto, alguns consideram que esses sistemas não são democráticos na verdade, mesmo que as pessoas possam votar, já que a grande distância entre o indivíduo eleitor e o governo permite que se tornasse fácil manipular o processo. Outros contrapõem, dizendo que a grande distância entre eleitor e governo é uma característica comum em sistemas eleitorais desenhados para nações gigantescas (os Estados Unidos e algumas potências europeias, só para dar alguns exemplos considerados inequivocamente democráticos, têm problemas sérios na democraticidade das suas instituições de topo), e que o grande problema do sistema soviético e de outros países comunistas, aquilo que o tornava verdadeiramente não-democrático, era que, em vez de serem escolhidos pelo povo, os candidatos eram impostos pelo partido dirigente. Direito ao voto. O voto, também chamado de sufrágio censitário, é típico do Estado liberal (século XIX) e exigia que os seus titulares atendessem certas exigências tais como pagamento de imposto direto; proprietário de propriedade fundiária e usufruir de certa renda. No passado muitos grupos foram excluídos do direito de voto, em vários níveis. Algumas vezes essa exclusão é uma política bastante aberta, claramente descrita nas leis eleitorais; outras vezes não é claramente descrita, mas é implementada na prática por meios que parecem ter pouco a ver com a exclusão que está sendo realmente feita (p.ex., impostos de voto e requerimentos de alfabetização que mantinham afro-americanos longe das urnas antes da era dos direitos civis). E algumas vezes a um grupo era permitido o voto, mas o sistema eleitoral ou instituições do governo eram propositadamente planejadas para lhes dar menos influência que outros grupos favorecidos. Hoje, em muitas democracias, o direito de voto é garantido sem discriminação de raça, grupo étnico, classe ou sexo. No entanto, o direito de voto ainda não é universal. É restrito a pessoas que atingem uma certa idade, normalmente 18 (embora em alguns lugares possa ser 16— como no Brasil — ou 21). Somente cidadãos de um país normalmente podem votar em suas eleições, embora alguns países façam excepções a cidadãos de outros países com que tenham laços próximos (p.ex., alguns membros da Comunidade Britânica e membros da União Europeia). A prática do voto obrigatório remonta à Grécia Antiga, quando o legislador ateniense Sólon fez aprovar uma lei específica obrigando os cidadãos a escolher um dos partidos, caso não quisessem perder seus direitos de cidadãos. A medida foi parte de uma reforma política que visava conter a radicalização das disputas entre facções que dividiam a pólis. Além de abolir a escravidão por dívidas e redistribuir a população de acordo com a renda, criou também uma lei que impedia os cidadãos de se absterem nas votações da assembleia, sob risco de perderem seus direitos. Critérios. Muitas sociedades no passado negaram a pessoas o direito de votar baseadas no grupo étnico. Exemplo disso é a exclusão de pessoas com ascendência africana das urnas, na era anterior à dos direitos civis, e na época do "apartheid" na África do Sul. A maioria das sociedades hoje não mantêm essa exclusão, mas algumas ainda o fazem. Por exemplo, Fiji reserva um certo número de cadeiras no Parlamento para cada um dos principais grupos étnicos; essas exclusões foram adotadas para barrar a maioria dos indianos em favor dos grupos étnicos fijianos. Até o século XIX, muitas democracias ocidentais tinham propriedades de qualificação nas suas leis eleitorais, o que significava que apenas pessoas com um certo grau de riqueza podiam votar. Hoje essas leis foram amplamente abolidas. Outra exclusão que durou muito tempo foi a baseada no sexo. Todas as democracias proibiam as mulheres de votar até 1893, quando a Nova Zelândia se tornou o primeiro país do mundo a dar às mulheres o direito de voto nos mesmos termos dos homens. No Brasil, pela constituição de 1822 e suas emendas antes dessa data, permitiu-se o direito de voto feminino, desde que pertencesse à classe determinada dos fazendeiros e fosse alfabetizada. Isso aconteceu devido ao sucesso do movimento feminino pelo direito de voto, tanto na Nova Zelândia como no Brasil, sendo que houve participações parlamentares já no Brasil depois dessa época. Hoje praticamente todos os Estados permitem que mulheres votem; as únicas exceções são sete países muçulmanos do Oriente Médio: Arábia Saudita, Barém, Brunei, Catar, Emirados Árabes Unidos, Kuwait e Omã. O direito de voto normalmente é negado a prisioneiros. Alguns países também negam o direito a voto para aqueles condenados por crimes graves, mesmo depois de libertados. Em alguns casos (p.ex. em muitos estados dos Estados Unidos) a negação do direito de voto é automático na condenação de qualquer crime sério; em outros casos (p.ex. em países da Europa) a negação do direito de voto é uma penalidade adicional que a corte pode escolher por impor, além da pena do aprisionamento. Existem países em que os prisioneiros mantêm o direito de voto (por exemplo Brasil e Portugal). Problemas. Os pensadores italianos do Vilfredo Pareto e Gaetano Mosca (independentemente) argumentaram que a democracia era ilusória, e servia apenas para mascarar a realidade da regra de elite. Na verdade, eles argumentaram que a oligarquia da elite é a lei inflexível da natureza humana, em grande parte devido à apatia e divisão das massas (em oposição à unidade, a iniciativa e a unidade das elites), e que as instituições democráticas não fariam mais do que mudar o exercício do poder de opressão à manipulação. Como Louis Brandeis uma vez postulou, "Podemos ter democracia ou podemos ter riqueza concentrada nas mãos de uns poucos, mas não podemos ter as duas coisas". Hoje todos os partidos políticos no Canadá são cautelosos sobre as críticas de alto nível de imigração, porque, como observou "The Globe and Mail", "no início de 1990, o antigo Partido da Reforma foi marcado como 'racista' por sugerir que os níveis de imigração deveriam ser reduzidos de 250 mil a 150 mil.". Como o professor de Economia Don J. DeVoretz destacou: "Em uma democracia liberal como o Canadá, o seguinte paradoxo persiste. Mesmo que a maioria dos entrevistados respondendo sim à pergunta: 'Há muitas imigrantes chegando a cada ano?' números de imigrantes continuam a subir até que um conjunto crítico de custos econômicos apareçam'". A ideia de “crise da democracia” vem ganhando repercussão na Teoria Política Contemporânea. Desde a década de 1970, autores da vertente partipacionista associam a legitimidade dos regimes democráticos a fatores que vão além da mera possibilidade de exercício livre do voto. A demanda, nesse sentido, é por efetiva atuação na concepção das políticas públicas, o que causa resistência em agentes representativos receosos de compartilhar o poder que o "design" institucional moderno lhes conferiu.
666
Dilema do prisioneiro
Dilema do prisioneiro O dilema do prisioneiro faz referência a um problema da teoria dos jogos, sendo um exemplo claro, mas atípico, de um problema de soma não nula. Neste problema, como em muitos outros, supõe-se que cada jogador, de forma independente, quer aumentar ao máximo a sua própria vantagem sem lhe importar o resultado do outro jogador. As técnicas de análise da teoria de jogos padrão, como por exemplo determinar o equilíbrio de Nash, podem levar a que cada jogador escolha trair o outro, embora ambos os jogadores obtenham um resultado mais favorável se colaborarem. Infelizmente para os prisioneiros, cada jogador é incentivado individualmente a defraudar o próximo, mesmo após a promessa recíproca de colaboração. Este é o ponto-chave do dilema, ou seja, deverá ou não deverá o prisioneiro egoísta colaborar com o próximo sem o trair, para que a vantagem do grupo, equitativamente distribuída, possa ser maximizada? No dilema do prisioneiro iterado, a cooperação pode obter-se como um resultado de equilíbrio. Aqui joga-se repetidamente, e quando se repete o jogo, oferece-se a cada jogador a oportunidade de castigar o outro jogador pela não cooperação em jogos anteriores. Assim, num processo iterativo, o incentivo para defraudar pode ser superado pela ameaça do castigo, o que conduz a um resultado melhor, ou seja, mais cooperativo. O dilema do prisioneiro clássico. O dilema do prisioneiro foi originalmente formulado em 1950 por Merrill Flood e Melvin Dresher enquanto trabalhavam na RAND. Mais tarde, Albert W. Tucker fez a sua formalização com o tema da pena de prisão e deu ao problema geral o nome pelo qual é conhecido. O dilema do prisioneiro (DP), dito "clássico," funciona da seguinte forma: O fato é que pode haver dois vencedores no jogo, sendo esta última solução a melhor para ambos, quando analisada em conjunto. Entretanto, os jogadores confrontam-se com alguns problemas: confiam no cúmplice e permanecem negando o crime, mesmo correndo o risco de serem colocados numa situação ainda pior, ou confessam e esperam ser libertados, apesar de que, se o outro fizer o mesmo, ambos ficarão numa situação pior em comparação com aquela em que ambos permanecessem calados? Um experimento baseado no simples dilema encontrou que cerca de 40% de participantes cooperaram (ou seja, ficaram em silêncio). Em abstracto, não importa os valores das penas, mas o cálculo das vantagens de uma decisão cujas consequências estão atreladas às decisões de outros agentes, onde a confiança e traição fazem parte da estratégia em jogo. Casos como este são recorrentes na economia, na biologia e na estratégia. O estudo das táticas mais vantajosas num cenário onde esse dilema se repita é um dos temas da teoria dos jogos. O enunciado clássico do dilema do prisioneiro, acima exposto, pode resumir-se, do ponto de vista individual de um dos prisioneiros, na seguinte tabela (tabela de ganhos): Vamos supor que ambos os prisioneiros são completamente egoístas e a sua única meta é reduzir a sua própria estadia na prisão. Como prisioneiros têm duas opções: ou cooperar com o seu cúmplice e permanecer calado, ou trair o seu cúmplice e confessar. O resultado de cada escolha depende da escolha do cúmplice. Infelizmente, um não sabe o que o outro escolheu fazer. Incluso se pudessem falar entre si, não poderiam estar seguros de confiar mutuamente. Se se esperar que o cúmplice escolha cooperar com ele e permanecer em silêncio, a opção óptima para o primeiro seria confessar, o que significaria que seria libertado imediatamente, enquanto o cúmplice terá que cumprir uma pena de 10 anos. Se espera que seu cúmplice decida confessar, a melhor opção é confessar também, já que ao menos não receberá a pena completa de 10 anos, e apenas terá que esperar 5, tal como o cúmplice. Se ambos decidirem cooperar e permanecerem em silêncio, ambos serão libertados em apenas 6 meses. Confessar é uma estratégia dominante para ambos os jogadores. Seja qual for a eleição do outro jogador, podem reduzir sempre sua sentença confessando. Por desgraça para os prisioneiros, isto conduz a um resultado regular, no qual ambos confessam e ambos recebem longas condenações. Aqui se encontra o ponto chave do dilema. O resultado das interacções individuais produz um resultado que não é óptimo no sentido de Pareto; existe uma situação tal que a utilidade de um dos detidos poderia melhorar (ou mesmo a de ambos) sem que isto implique uma piora para o resto. Por outras palavras, o resultado no qual ambos os detidos não confessam domina o resultado no qual os dois escolhem confessar. Se se pensar pela perspectiva do interesse óptimo do grupo (dos dois prisioneiros), o resultado correcto seria que ambos cooperassem, já que isto reduziria o tempo total de pena do grupo a um total de um ano. Qualquer outra decisão seria pior para ambos se se considerar conjuntamente. Apesar disso, se continuarem no seu próprio interesse egoísta, cada um dos dos prisioneiros receberá uma dura pena. Se um jogador tiver uma oportunidade para castigar o outro jogador ao confessar, então um resultado cooperativo pode manter-se. A forma iterada de este jogo (mencionada mais abaixo) oferece uma oportunidade para este tipo de castigo. Nesse jogo, se o cúmplice trai e confessa uma vez, pode-se castigá-lo traindo-o na próxima. Assim, o jogo iterado oferece uma opção de castigo que está ausente no modo clássico do jogo. Este jogo possui como solução do ponto de vista Ótimo de Pareto a estratégia: Este jogo possui como Equilíbrios de Nash a estratégia: Um jogo similar. O cientista cognitivo Douglas Hofstadter (ver as referências abaixo) sugeriu uma vez que as pessoas encontram muitas vezes problemas como o dilema do prisioneiro mais fáceis de entender quando são apresentados como um simples jogo ou intercâmbio. Um dos exemplos que usou foi o de duas pessoas que se encontrem e troquem malas fechadas, com o acordo de que uma delas contenha dinheiro e a outra contenha um objecto que está sendo comprado. Cada jogador pode escolher seguir o acordo pondo na sua mala o que acordou, ou pode enganar oferecendo uma mala vazia. Neste jogo de intercâmbio, ao contrário do dilema do prisioneiro, o engano é sempre a melhor opção. Matriz de ganhos do dilema do prisioneiro. No mesmo artigo, Hofstadter também observou que a matriz de ganhos do dilema do prisioneiro pode, de facto, tomar múltiplos valores, sempre que se adira ao seguinte princípio: onde T é a tentação para trair (isto é, o que se obtém quando se deserta e o outro jogador coopera); R é a recompensa pela cooperação mútua; C é o castigo pela deserção mútua; e P é a "paga do ingénuo" (isto é, o que se obtém quando um jogador coopera e o outro deserta). A matriz de ganhos seria: O dilema do prisioneiro cumpre a fórmula: 0 > -0,5 > -5 > -10 (em negativo porquanto os números representam anos de cárcere). Costuma também cumprir-se (T + C)/2 < R, e isto é exigido no caso iterado. As fórmulas anteriores asseguram que, independentemente dos números exactos em cada parte da matriz de ganhos, é sempre "melhor" para cada jogador desertar, faça o que fizer o outro. Seguindo este princípio, e simplificando o dilema do prisioneiro ao cenário da troca de malas anterior (ou a um jogo de dois jogadores tipo Axelrod — ver mais abaixo), obteremos a seguinte matriz de ganhos canónica para o dilema do prisioneiro, isto é, a que se costuma mostrar na literatura sobre este tema: Em terminologia "ganho-ganho" a tabela seria semelhante a esta: Exemplos na vida real. Estes exemplos em concreto em que intervêm prisioneiros, troca de malas e coisas parecidas podem parecer rebuscados, mas existem, de facto, muitos exemplos de interacções humanas e interacções naturais nas quais se obtém a mesma matriz. O dilema do prisioneiro é só por si de interesse para as ciências sociais, como a economia, a ciência política e sociologia, além das ciências biológicas como a etologia e a biologia evolutiva. Em ciência política, por exemplo, o cenário do dilema do prisioneiro usa-se para ilustrar o problema dos estados envolvidos nas corridas às armas. Ambos concluíram que têm duas opções: ou incrementar os gastos militares, ou chegar a um acordo para reduzir o seu armamento. Nenhum dos dois estados pode estar seguro de que o outro acatará o acordo; deste modo, ambos se inclinam para a expansão militar. A ironia está em que ambos os estados parecem actuar racionalmente, mas o resultado é completamente irracional. Outro interessante exemplo tem a ver com um conceito conhecido das corridas no ciclismo, por exemplo, na Volta à França. Considerem-se dois ciclistas a metade da corrida, com o pelotão a grande distância. Os dois ciclistas trabalham em cooperação mútua, compartindo a pesada carga da posição dianteira, donde não se podem refugiar do vento. Se nenhum dos ciclistas faz um esforço para permanecer adiante, o pelotão alcançá-los-á rapidamente ("deserção mútua"). Um exemplo visto com frequência é que um ciclista faz sozinho todo o seu trabalho, mantendo ambos longe do pelotão. No final, isto levará provavelmente a uma vitória do segundo ciclista, que teve uma corrida mais fácil graças o trabalho do primeiro corredor. Por último, a conclusão teórica do dilema do prisioneiro é a razão pela qual, em muitos países, se proíbem os acordos judiciais. Frequentemente aplica-se precisamente o cenário do dilema do prisioneiro: é do interesse de ambos os suspeitos ou confessar ou testemunhar contra o outro prisioneiro/suspeito, mesmo que ambos sejam inocentes do suposto crime ou actividade ilícita. Pode-se dizer que o pior caso dá-se quando apenas um deles é culpado: não é provável que o inocente confesse, enquanto o culpado tenderá a confessar e a testemunhar contra o inocente. O dilema do prisioneiro iterado (DPI). No seu livro "A evolução da cooperação: o dilema do prisioneiro e a teoria de jogos" (1984), Robert Axelrod estudou uma extensão ao cenário clássico do dilema do prisioneiro que denominou dilema do prisioneiro iterado (DPI). Aqui, os participantes devem escolher uma e outra vez a sua estratégia mútua, e têm memória dos seus encontros prévios. Axelrod convidou colegas académicos de todo o mundo a conceber estratégias automatizadas para competir num torneio de DPI. Os programas que participaram variavam amplamente na complexidade do algoritmo: hostilidade inicial, capacidade de perdão e similares. Axelrod descobriu que quando se repetem estes encontros durante um longo período de tempo com muitos jogadores, cada um com distintas estratégias, as estratégias "egoístas" tendiam a ser piores a longo prazo, enquanto que as estratégias "altruístas" eram melhores, julgando-as unicamente com respeito ao interesse próprio. Usou isto para mostrar um possível mecanismo que explicasse o que antes tinha sido um difícil ponto na teoria da evolução: como pode evoluir um comportamento altruísta a partir de mecanismos puramente egoístas na selecção natural? Descobriu-se que a melhor estratégia determinista era a de "olho por olho" ("tit for tat"), que foi desenvolvida e apresentada no torneio por Anatol Rapoport. Era o mais simples de todos os programas apresentados, contendo apenas quatro linhas de BASIC, e foi o que ganhou o concurso. A estratégia consiste simplesmente em cooperar na primeira iteração do jogo, e depois de isso escolher o que o oponente escolheu na ronda anterior. Uma estratégia ligeiramente melhor é ""Tit for Tat" com capacidade de perdão". Quando o oponente deserta, na seguinte ronda coopera-se por vezes com ele com uma pequena probabilidade (de 1% a 5%). Isto permite a recuperação ocasional de ficar encerrado num círculo vicioso de deserções. A probabilidade exacta depende do alinhamento dos oponentes. ""Tit for Tat" com capacidade de perdão" é a melhor estratégia quando se introduzem problemas de comunicação no jogo. Isto significa que às vezes a jogada é transmitida incorrectamente ao oponente: coopera-se mas o oponente crê que se desertou. "Tit for Tat" funcionava, segundo Axelrod, por dois motivos. O primeiro é que é "amável", isto é, começa cooperando e apenas deserta como resposta à deserção de outro jogador, e assim nunca é o responsável por iniciar um ciclo de deserções mútuas. O segundo é que pode ser provocado, ao responder sempre o que faz o outro jogador. Castiga imediatamente o outro jogador se este deserta, mas igualmente responde adequadamente se cooperam de novo. Este comportamento claro e directo significa que o outro jogador entende facilmente a lógica por trás das acções de "Tit for Tat", e pode portanto encontrar uma forma de trabalhar com ele produtivamente. Não é uma coincidência que a maioria das estratégias que funcionaram pior no torneio de Axelrod fossem as que não estavam desenhadas para responder às escolhas dos outros jogadores. Contra esse tipo de jogador, a melhor estratégia é desertar sempre, já que nunca se pode assegurar ter estabelecido uma cooperação mútua fiável. Para o DPI, nem sempre é correcto dizer que uma certa estratégia é a melhor. Por exemplo, considere-se uma população onde todos desertam sempre, excepto um único indivíduo que continua a estratégia "Tit for Tat". Este indivíduo tem uma pequena desvantagem porque perde a primeira ronda. Numa população com um certa percentagem de indivíduos que desertam sempre e outros que continuam a estratégia "Tit for Tat", a estratégia óptima para um indivíduo depende da percentagem, e da duração do jogo. Realizaram-se simulações de populações, onde morrem os indivíduos com pontuações baixas e se reproduzem aqueles com pontuações altas. A mistura de algoritmos na população final depende da mistura na população inicial. Se um DPI vai ser iterado exactamente N vezes, para alguma constante conhecida N, há outro dato interessante. O equilíbrio de Nash é desertar sempre. Isto prova-se facilmente por indução: Pode-se desertar a última ronda, já que o oponente não terá oportunidade de castigar. Por isso, ambos desertarão na última ronda. Então, pode-se desertar a ronda anterior, já que o oponente desertará na última faça-se o que se fizer. E continua-se deste modo. Para que a cooperação continue atractiva, o futuro deve ser indeterminado para ambos os jogadores. Uma solução consiste em fazer aleatório o número total de rondas N. Outro caso especial é "jogar eternamente" o dilema do prisioneiro. O jogo repete-se um número infinito de rondas, e a pontuação é a média. O jogo do dilema do prisioneiro é fundamental para entender certas teorias de cooperação e confiança humana. Na suposição de que as transacções entre duas pessoas que exijam confiança podem ser modeladas pelo dilema do prisioneiro, o comportamento cooperativo em populações pode ser modelado por uma versão para vários jogadores e iterada do jogo. Por isso tem fascinado muitos estudiosos ao longo dos anos. Uma estimativa não demasiado actualizada ("Grofman and Pool", 1975) situa o número de artigos dedicados ao mesmo acima dos 2.000. Ao analisar as estratégias que conseguiram melhor pontuação, Axelrod estabeleceu várias condições necessárias para que uma estratégia tivesse êxito: A condição mais importante é a de que a estratégia deve ser "amável", ou seja, não desertar antes que o opositor o faça. Quase todas as estratégias melhor pontuadas eram amáveis; daí uma estratégia puramente egoísta não fará "batota" com o oponente, principalmente por razões puramente utilitárias. Todavia, notou Axelrod, a estratégia vencedora não pode ser optimista cega. De vez em quando tem de retaliar. Um exemplo de uma estratégia não retaliadora é a de "colaborar sempre". É uma escolha muito má, pois estratégias oportunistas ou maldosas irão explorar essa fraqueza sem piedade. Uma qualidade das estratégias vencedoras é que são capazes de perdoar. Embora retaliem, tornam a cooperar logo que o opositor não continue a desertar. Isto evita grandes sequências de vinganças em círculo vicioso, maximizando os pontos. A última qualidade é não serem invejosas, ou seja, não tentarem fazer mais pontos que os opositores (impossível para uma estratégia "amável", isto é, uma estratégia "amável" nunca pode fazer mais pontos que o opositor). Assim, Axelrod atinge a conclusão talvez utópica de que os indivíduos egoístas pelo seu próprio egoísmo tenderão a ser amáveis e colaborantes, indulgentes e não invejosos. Uma das mais importantes conclusões do estudo de Axelrod's quanto a este problema é que os indivíduos "amáveis" acabam com as melhores classificações. Sociedades secretas no dilema do prisioneiro iterado. No vigésimo aniversário da competição do dilema do prisioneiro iterado (2004), a equipe da Universidade de Southampton ganhou as primeiras posições, vencendo, entre os demais competidores, algoritmos modelo tit-for-tat e seus derivados. A competição era da variante do dilema do prisioneiro iterado com problemas de comunicação (isto é, algumas vezes não se comunicavam bem os movimentos ao outro jogador). Nessa edição apresentaram-se 223 competidores, dos quais 60 foram inscritos por Southampton. Todos eram variantes de um mesmo algoritmo, e nas primeiras 5 a 10 iterações do dilema do prisioneiro utilizavam as suas respostas como "saudação secreta" para se identificarem entre si. Então, identificavam-se ao outro jogador como pertencentes à "sociedade", e alguns algoritmos estavam desenhados para sacrificar-se colaborando sempre, de modo que os outros, traindo-os sempre, pudessem conseguir uma pontuação máxima. Se não identificavam o outro algoritmo como pertencente à sociedade, após ver as suas jogadas iniciais, todas as variantes o traíam sempre para baixar tanto quanto possível a sua pontuação. Essa estratégia, embora de discutível correspondência com o espírito do jogo, já que requer uma comunicação inicial entre os participantes da "sociedade" para decidir o formato da "saudação", ajusta-se às regras da competição. seguindo-a, Southampton conseguiu que três de seus participantes ocupassem as três primeiras posições, mas à custa de muitos dos seus outros algoritmos terem ficado entre os de pior pontuação. Psicologia da aprendizagem e teoria dos jogos. Quando os jogadores aprendem a estimar a probabilidade de deserção dos outros, o seu próprio comportamento é influenciado pela sua experiência desse comportamento externo. Estatísticas simples mostram que jogadores sem experiência são mais propensos a ter globalmente interacções invulgarmente boas ou más com os outros. Se agem na base dessas experiências (desertando ou cooperando mais do que fariam em outros casos) é mais provável que sofram em transacções futuras. Ao ganhar experiência consegue-se uma impressão mais verdadeira da probabilidade de deserção e o jogo torna-se mais favorável. As transacções iniciais feitas por jogadores imaturos poderão ter maior efeito no jogo futuro do que as que o são por jogadores já experientes. Este princípio explicará porque experiências formativas de jovens são tão influentes e porque é que estes são particularmente vulneráveis a violências psicológicas como o bullying, por vezes tornando-se eles próprios abusadores. A probabilidade de traição/deserção numa população pode ser reduzida pela experiência da cooperação em anteriores jogos permitindo a construção de uma relação de confiança. Daí o comportamento de auto-sacrifício poderá, em alguns casos, aumentar a coesão moral de um grupo. Se o grupo for pequeno o comportamento positivo é mais provável de retornar de forma mútua, encorajando os indivíduos no grupo para que continuem a cooperar. Estes processos são preocupações de relevo no estudo do altruísmo recíproco, selecção de grupo, selecção de parentesco e filosofia moral. Variantes. Existem algumas variantes do jogo, com diferenças sutis mas importantes nas matrizes de ganhos, que se mostram de seguida. Galinha. Outro importante jogo de soma não nula chama-se "galinha". Neste caso, se o teu oponente deserta, te beneficias mais se cooperas, e este é o teu melhor resultado. A deserção mútua é o pior resultado possível (e por isso um equilíbrio instável), enquanto que no dilema do prisioneiro o pior resultado possível é a cooperação enquanto o outro jogador deserta (assim a deserção mútua é um equilíbrio estável). Em ambos os jogos, a "cooperação mútua" é um equilíbrio instável. Uma matriz de ganhos típica seria: Chama-se "galinha" devido ao jogo de corridas de carros homónimo. Dois jogadores correm um contra o outro para uma aparente colisão frontal: o primeiro a desviar-se da trajectória é o galinha. Ambos os jogadores evitam o choque (cooperam) ou continuam com a trajectória (desertam). Outro exemplo é dado quando dois fazendeiros usam o mesmo sistema de irrigação nos seus campos. O sistema pode ser mantido adequadamente por uma pessoa, mas ambos os fazendeiros beneficiam disso. Se um fazendeiro não contribui para a sua manutenção, continua sendo do interesse do outro fazendeiro fazê-lo, porque beneficiará faça o que fizer o outro. Assim, se um fazendeiro pode estabelecer-se como o desertor dominante — isto é, se seu hábito ficar tão enraizado que o outro faz todo o trabalho de manutenção — seguramente continuará com esse comportamento. Jogo de confiança. Um jogo de confiança tem uma estrutura similar ao dilema do prisioneiro, excepto que a recompensa pela cooperação mútua é maior que a outorgada pela deserção mútua. Uma matriz de vitórias típica seria: O jogo de confiança é potencialmente muito estável, já que dá a máxima recompensa a jogadores que estabelecem um hábito de cooperação mútua. Apesar disto, existe o problema de que os jogadores não sejam conscientes de que está em seu interesse cooperar. Podem, por exemplo, crer incorrectamente que estão a jogar um jogo de dilema do prisioneiro ou galinha, e escolher a sua estratégia de acordo com ela. Amigo ou inimigo. "Amigo ou inimigo" ("Friend or Foe") é um jogo emitido na televisão, no canal de cabo e satélite estado-unidense "Game Show Network". É um exemplo do jogo do dilema do prisioneiro provado em pessoas reais, mas num ambiente artificial. No concurso, competem três pares de pessoas. Quando cada par é eliminado, jogam a um jogo do dilema do prisioneiro para determinar como se repartem seus ganhos. Se ambos cooperam ("amigo"), compartem benefícios em 50%. Se um coopera e o outro deserta ("inimigo"), o desertor leva todos os ganhos e o cooperador nenhum. Se ambos desertam, ninguém leva nada. Adverte-se que a matriz de ganhos é ligeiramente diferente do padrão dado anteriormente, já que os ganhos de "ambos desertam" e o de "eu coopero e o outro deserta" são idênticos. Isto faz que "ambos desertam" seja um equilíbrio neutral, comparado com o dilema do prisioneiro padrão. Se sabes que o teu oponente vai votar "inimigo", então a escolha não afecta os ganhos. De certo modo, "amigo ou inimigo" encontra-se entre o dilema do prisioneiro e a galinha. A matriz de ganhos é: "Amigo ou inimigo" é útil para alguém que queira fazer uma análise do dilema do prisioneiro aplicado à vida real. Fixe-se em que apenas se pode jogar uma vez, sendo que todos os conceitos que implicam jogos repetidos não se apresentam, e não se pode desenvolver a estratégia da vingança. Em "amigo ou inimigo", cada jogador pode fazer um comentário para convencer o outro quanto à sua amizade antes de fazer a decisão em segredo de cooperar ou desertar. Um possível modo de "ganhar ao sistema" seria dizer ao rival: "Vou escolher 'inimigo'. Se confias em que te dê a metade dos benefícios depois, escolhe 'amigo'. De outro modo, iremos ambos embora sem nada." Uma versão mais egoísta disto seria: "Vou escolher 'inimigo'. Vou dar-te X% e ficarei com (100-X)% do prémio total. Assim que (é "pegar ou largar"), ambos levamos algo ou nenhum de nós leva nada." Agora o truque está em minimizar X de modo que o outro concorrente continue escolhendo 'amigo'. Basicamente, deve-se saber o limiar no qual a utilidade (benefícios potenciais) que o opositor ganha ao ver-nos a nada receber ultrapassa a utilidade que ele ganha no caso de alinhar no jogo cooperativo. Todavia, nos seus contratos, os jogadores tiveram de acordar que no caso em que ambos vencem, nada podem dar ao parceiro, ou arriscam o prémio inteiro. Esta aproximação não foi tentada no jogo: é possível que os juízes não a permitissem. A "tragédia dos comuns". A chamada "tragédia dos comuns" (dos pastos comunitários) é um caso de dilema do prisioneiro que envolve muitos agentes e que parece referir-se a situações reais. Na formulação que popularizou Garrett Harding, cada vizinho de uma comunidade campestre prefere alimentar o seu gado em pastos comunitários que em outros próprios de pior qualidade; se o número de vizinhos que satisfaz esta preferência superar certo limite, os pastos comunitários ficam esgotados, e é a isto precisamente que conduz a solução do jogo. Para que algum vizinho beneficie dos pastos, outros devem pagar o custo de renunciar, ou cada um deve renunciar em parte; mas o equilíbrio está na situação onde cada qual utiliza os pastos sem se preocupar com os demais. Traduzindo a situação no esquema de Hofstadter, cada vizinho tem aqui a tentação "T" de beneficiar dos pastos sem pagar o custo; a recompensa "R" pela cooperação mútua consiste em negociar quantos hão-de deixar de beneficiar dos pastos comunitários para os conservar em boas condições; o castigo "C" é para todos, quando cada um cede à tentação, e é a ruína dos pastos; a perda P é a de que ao não se aproveitar dos pastos comunitários, se permita que outros o venham a fazer. Estas possibilidades combinam-se como no dilema do prisioneiro bipessoal, fazendo que perante o risco de receber P, a "paga do ingénuo", todos cedam à tentação de não cooperar e provoquem a situação de castigo. A mesma estrutura pode aplicar-se a qualquer dinâmica de esgotamento de recursos por sobre-exploração, e parece estar no origem da contaminação ambiental – onde uma atmosfera não contaminada poderia desempenhar o papel dos pastos comunitários -, e o automóvel privado o papel do gado-. Interpretou-se que evitar soluções sub-óptimas como estas passa pela privatização dos bens de acesso público, limitando em função da renda o número de pessoas que podem cair na tentação. Para o filósofo inglês Derek Parfit, são os jogos de muitos agentes, como a "tragédia dos comuns" – e não os jogos bipessoais ou os jogos iterados -, os que têm mais interesse para estudar a lógica do dilema do prisioneiro: por um lado, a situação que os provoca não depende de ganhos desenhados externamente - por um experimentador ou uma instituição-, mas da simples concorrência de múltiplos agentes; por outro, quantos mais sejam os participantes, mais irracional é abandonar unilateralmente a solução sub-óptima que leva a C – mais improvável são os benefícios de não ceder à tentação T -, e menos peso têm as soluções que se postulam em contextos artificiais de iteração. Em suma, o grande número de participantes é para Parfit tanto causa como garantia de que a não cooperação seja uma solução estável, e fá-la permanente e inevitável (para agentes racionais que procurem satisfazer o seu próprio interesse). Paula Casal afirma que a capacidade secular das comunidades indígenas para manter em bom estado os pastos comunitários desmente a inevitabilidade de C, graças "à educação, aos costumes, aos conselhos dos anciãos ou a outras instituições sociais". Parece então que o dilema se supera graças à paradoxal receita que admite Parfit: o próprio interesse prescreve que, para chegar a soluções óptimas de Pareto estáveis, os indivíduos devem ser educados em teorias morais contrárias à satisfação do próprio interesse.
667
Dodô
Dodô (nome científico: Raphus cucullatus) é uma espécie extinta de ave da família dos pombos que era endêmica de Maurício, uma ilha no Oceano Índico a leste de Madagascar. Era incapaz de voar e não tinha medo de seres humanos, pois evoluiu isolado e sem predadores naturais na ilha que habitava. Foi descoberto em 1598 por navegadores holandeses, e totalmente exterminado menos de cem anos mais tarde. A ave era caçada para servir de alimento para os marinheiros, e depois sofreu com o desmatamento e introdução de animais exóticos. Essa trágica história tornou o dodô um verdadeiro ícone da extinção. É considerado o mais famoso animal extinto em tempos históricos, com notável presença na cultura popular. O dodô tinha cerca de um metro de altura e podia pesar mais de 20 kg na natureza. Sua aparência externa é conhecida apenas por pinturas e textos escritos no século XVII, e, por conta da escassez dessas descrições, ainda é um mistério; assim como pouco se sabe sobre seu habitat e comportamento. Foi descrito com plumagem cinza-acastanhada, patas amarelas, um tufo de penas na cauda, cabeça cinza sem penas, e o bico preto, amarelo e verde. A moela ajudava a ave a digerir os alimentos, incluindo frutas, e acredita-se que o principal habitat tenha sido as florestas costeiras nas áreas mais secas da ilha. Presume-se que o dodô tenha deixado de voar devido à facilidade de se obter alimento e a relativa inexistência de predadores em Maurício. As primeiras menções conhecidas de dodôs foram feitas por marinheiros holandeses em 1598. Nos anos seguintes, a ave foi predada pelas tripulações famintas e seus animais domésticos, além de sofrer com a competição com espécies invasoras introduzidas. Estima-se que apenas onze dodôs levados de Maurício chegaram vivos aos seus destinos na Europa e no Oriente. A última ocasião aceita em que a ave foi vista data de 1662. A extinção não foi imediatamente noticiada e houve quem o considerasse uma criatura mítica. Por muito tempo, os únicos restos de dodô conhecidos foram de quatro exemplares incompletos do século XVII, até que a partir de 1860 uma grande quantidade de ossos fósseis começou a ser descoberta em Maurício, a maioria do pântano Mare aux Songes. A extinção do dodô em apenas cerca de um século após seu descobrimento chamou a atenção para um problema previamente desconhecido da humanidade: o desaparecimento por completo de diversas espécies. A ave geneticamente mais próxima do dodô foi o também extinto solitário-de-rodrigues; juntos, eles compõem a subfamília Raphinae, dentro da família Columbidae, que engloba todos os pombos. Seu "primo" vivo mais próximo é o pombo-de-nicobar. Durante algum tempo, pensou-se erroneamente que existisse um dodô branco na vizinha ilha de Reunião, sabe-se hoje que essa ave na verdade é o íbis-terrestre-de-reunião. O dodô ficou amplamente conhecido por ser um dos personagens de "Alice no País das Maravilhas". Aparece em animações, séries de TV e filmes, e na cultura popular é frequentemente usado como símbolo de extinção e obsolescência. O dodô virou mascote de Maurício, e sua imagem já estampou moedas locais. Taxonomia. As primeiras descrições de cientistas retratavam o dodô de diversas maneiras: um pequeno avestruz, um frango-d'água, um tipo de albatroz e até mesmo uma espécie de abutre. Em 1842, o zoólogo dinamarquês Johannes Reinhardt propôs que os dodôs eram pombos terrestres, baseado no estudo de um crânio de dodô descoberto por ele mesmo na coleção real dinamarquesa em Copenhague. Esta ideia foi considerada ridícula a princípio, mas posteriormente recebeu apoio de Hugh Strickland e Alexander Melville na monografia deles publicada em 1848 — "The Dodo and Its Kindred" — na qual tentaram separar o que era mito e o que era realidade sobre a ave. Após dissecarem a cabeça e um pé preservados do espécime do Museu da Universidade de Oxford, e comparar com vestígios do também extinto solitário-de-rodrigues ("Pezophaps solitaria"), descobriram grandes semelhanças entre essas espécies. Strickland constatou que não eram idênticas, mas compartilhavam muitas características peculiares nos ossos das pernas, então conhecidas apenas em pombos. A anatomia do dodô era parecida com a dos pombos em muitos aspectos. Strickland e Melville observaram que apenas uma pequena parte na extremidade do longo bico da ave é queratinizada, sendo a porção basal maior, delgada e pouco protegida. Pombos têm pele sem penas na região ao redor dos olhos e próxima ao bico, assim como os dodôs. A fronte era alta em relação ao bico, e a narina tinha uma localização baixa no meio do bico, sendo circundada por pele, uma combinação de características compartilhada somente com pombos. As pernas do dodô eram de um modo geral mais parecidas com as dos pombos terrestres do que com as de outras aves, tanto em relação às escamas como ao esqueleto. Representações de grandes papos sugerem parentesco com pombos, nos quais esses órgãos são bem desenvolvidos. A maioria dos pombos possuem ninhadas muito pequenas, e acredita-se que as fêmeas de dodô punham um único ovo por vez. Assim como os pombos, o dodô não tinha o osso vômer nem o septo das narinas, e compartilhava detalhes na mandíbula, no osso zigomático, no palato e no hálux. O dodô diferia de pombos principalmente pelo pequeno tamanho da asa e o grande bico em proporção ao resto do crânio. Ao longo do século XIX, várias espécies foram classificadas como congêneres do dodô, incluindo o solitário-de-rodrigues e o íbis-terrestre-de-reunião, batizados respectivamente como "Didus solitarius" e "Raphus solitarius" ("Didus" e "Raphus" foram nomes de gêneros propostos para o dodô e eram usados por diferentes autores da época). Uma atípica descrição do século XVII sobre um dodô e um esqueleto encontrado na ilha Rodrigues, que atualmente se sabe que pertence a um solitário-de-rodrigues, levou Abraham Dee Bartlett a nomear uma nova espécie, "Didus nazarenus", em 1852. Como foi baseado em vestígios de solitários, o termo é atualmente um sinônimo para esta espécie. Desenhos simples de outra ave endêmica, a galinhola-vermelha-de-maurício, também foram erroneamente interpretados como espécies de dodôs: "Didus broeckii" e "Didus herberti". Etimologia. Um dos primeiros nomes que o dodô recebeu foi "Walghvogel", em holandês. Este termo foi usado pela primeira vez no diário de bordo do vice-almirante Wybrand van Warwijck, que visitou Maurício durante a Segunda Expedição Holandesa à Indonésia em 1598. "Walghe" quer dizer "sem gosto", "insípido" ou "desagradável", e "vogel" significa "pássaro". O nome foi traduzido para o idioma alemão como "Walchstök" ou "Walchvögel", por Jakob Friedlib. O relatório holandês original, intitulado "Waarachtige Beschryving", foi perdido; mas sua tradução para o inglês sobreviveu: "À esquerda deles havia uma pequena ilha a qual deram o nome de ilha Hemskerk, e a uma baía nela chamaram baía Warwick (...). Ali permaneceram por 12 dias para descansar, encontrando neste lugar grande quantidade de aves duas vezes maiores que cisnes, as quais chamaram de "Walghstocks" ou "Wallowbirdes", sendo muito boa sua carne. Mas quando encontraram pombos e papagaios em abundância, desdenharam de comer mais dessas grandes aves, chamando-as "Wallowbirds", que quer dizer pássaro enjoativo ou repugnante. Dos referidos pombos e papagaios, os encontraram em abundância, tendo a carne muito gordurosa e saborosa; esses pássaros podem ser facilmente capturados e mortos com pequenas varas: eles são tão mansos assim porque a ilha não é habitada, também porque nenhuma criatura que vive ali é acostumada a avistar homens." Outro relato daquela viagem, talvez o primeiro a mencionar o dodô, afirma que os portugueses se referiam àquelas aves como pinguins, mas o termo pode não ter se originado de pinguim (pois o idioma português da época tratava tal ave como "sotilicário"), e sim de "pinion", uma alusão às pequenas asas. A tripulação do navio holandês "Gelderland" chamou a ave de "dronte" (que significa "inchado") em 1602, palavra até hoje usada em algumas línguas. Esta tripulação também se referia aos dodôs como "griff-eendt" e "kermisgans", em referência às aves domésticas engordadas para um tradicional festival (quermesse) em Amsterdã, realizado no dia seguinte ao ancoramento deles na ilha Maurício. A origem da palavra dodô não está clara. Alguns a atribuem a "dodoor", que em holandês quer dizer "preguiçoso", porém é mais provável que venha de "Dodaars", que pode significar "traseiro gordo" ou "nó no traseiro", referindo-se ao "nó" de penas na parte de trás do animal. O primeiro registro da palavra "Dodaars" está no diário do capitão Willem Van West-Zanen de 1602. O historiador inglês Thomas Herbert foi o primeiro a usar a palavra dodô na imprensa, em 1634, no seu livro de viagens, alegando que foi referido como tal pelos portugueses, que tinham visitado Maurício em 1507. Outro inglês, Emmanuel Altham, usou a palavra numa carta de 1628, na qual ele também alegou a origem na língua portuguesa. O nome "dodar" foi introduzido em inglês, ao mesmo tempo que dodô, mas só foi utilizado até o século XVIII. Pelo que se sabe atualmente, os portugueses nunca mencionaram a ave. No entanto, algumas fontes ainda afirmam que a palavra dodô deriva da palavra "doudo" em português antigo (atualmente "doido"). Também tem sido sugerido que "dodô" é uma aproximação onomatopoeica do canto da ave, um som de duas notas parecido com o emitido por um pombo, e que se assemelharia a "doo-doo". O termo em latim "cucullatus" ("bordado") foi utilizado pela primeira vez por Juan Eusebio Nieremberg em 1635 como "Cygnus cucullatus", em referência a uma representação de dodô feita por Carolus Clusius em 1605. Em sua obra clássica do século XVIII, "Systema Naturae", Carlos Lineu usou o nome específico "cucullatus", mas combinou com o nome do gênero "Struthio" (avestruz). Mathurin Jacques Brisson cunhou o nome do gênero "Raphus" (referindo-se às abetardas) em 1760, resultando no nome atual: "Raphus cucullatus". Em 1766, Lineu criou um novo nome binominal: "Didus ineptus" (que significa "dodô inepto"), mas posteriormente este termo veio a ser sinônimo do nome anterior em razão da prioridade nomenclatural. Evolução. Durante muitos anos o dodô e o solitário-de-rodrigues foram catalogados numa família só deles, a Raphidae (antes denominada Dididae), já que o parentesco com outros pombos não estava suficientemente esclarecido. Depois, cada um foi classificado em sua própria família monotípica (Raphidae e Pezophapidae, respectivamente), pois acreditava-se que haviam desenvolvido suas características similares de forma independente. Informações osteológicas e moleculares levaram à dissolução da família Raphidae, e tanto o dodô como o solitário-de-rodrigues estão hoje alocados numa única subfamília, Raphinae, dentro da família Columbidae, que engloba todos os pombos modernos. A comparação do citocromo b mitocondrial e das sequências 12S de RNA ribossomal, isolados de um tarso de dodô e de um fêmur de solitário-de-rodrigues, confirmou o parentesco próximo entre essas duas aves, bem como sua classificação dentro da família Columbidae. A interpretação dessas evidências genéticas mostrou que o "primo" vivo mais próximo do dodô é o pombo-de-nicobar, que habita o sudeste asiático, seguido pelas gouras da Nova Guiné e pelo "Didunculus strigirostris" de Samoa. O nome do gênero deste último, "Didunculus", significa "pequeno dodô" em latim; a ave foi chamado pelo famoso naturalista Richard Owen de "dodlet". O cladograma a seguir, formulado por Beth Shapiro e colaboradores em 2002, mostra as relações do dodô com outros pombos dentro da família Columbidae. Um cladograma similar, publicado em 2007, inverte os lugares da goura e do "Didunculus", além de incluir o "Otidiphaps nobilis" e o "Trugon terrestris" na base do clado. Após estudar evidências comportamentais e morfológicas, Jolyon C. Parish propôs que o dodô e o solitário-de-rodrigues devem ser alocados na subfamília Gourinae junto com as pombas gouras e outras espécies, em acordo com os dados genéticos. Em 2014, a análise do DNA do único exemplar que restou do "Caloenas maculata" mostrou que ele é um parente próximo do pombo-de-nicobar, e, sendo assim, também é "primo" do dodô e do solitário-de-rodrigues. Um estudo de 2002 indicou que os ancestrais do dodô e do solitário divergiram em torno do limite Paleogeno-Neogeno. As ilhas Mascarenhas (Maurício, Reunião e Rodrigues) são de origem vulcânica e têm menos de 10 milhões de anos de idade. Portanto, os antepassados de ambas as aves provavelmente permaneceram capazes de voar por um tempo considerável após a separação de suas linhagens. Os ancestrais dos Raphinae podem ter se espalhado a partir do sudeste asiático por salto de dispersão entre ilhas. A falta de mamíferos herbívoros competindo pelos recursos dessas ilhas permitiu que o solitário e o dodô perdessem a capacidade de voar e aumentassem muito de tamanho, fenômeno chamado de gigantismo insular. Outro pombo grande e incapaz de voar, o "Natunaornis gigoura", foi descrito em 2001 a partir de material fóssil coletado em Fiji. Ele era apenas um pouco menor do que o dodô e o solitário-de-rodrigues, e também acredita-se que pode ter parentesco com os pombos coroados do gênero "Goura". Descrição. Como não restou nenhum exemplar completo de dodô, é difícil determinar com exatidão como era sua aparência externa, incluindo sua cor e plumagem. Ilustrações e relatos escritos de encontros com dodôs no período entre sua descoberta e extinção (1598 a 1662) são as evidências mais confiáveis sobre a aparência da ave. De acordo com a maioria das representações, o dodô tinha uma plumagem acinzentada ou acastanhada, com penas primárias mais claras e um tufo de penas leves encaracoladas na extremidade do traseiro. A cabeça era cinza e nua, o bico verde, preto e amarelo, e as pernas eram robustas e amareladas, com garras pretas. A ave apresentava dimorfismo sexual: machos eram maiores e possuíam bicos proporcionalmente mais longos. O bico media até 23 centímetros de comprimento e tinha uma parte em forma de gancho. Fósseis achados em Maurício e restos dos dôdos levados para a Europa no século XVII mostram que eram animais muito grandes, tinham um metro de altura e, possivelmente, pesavam até 23 kg. Os maiores pesos foram atribuídos às aves em cativeiro; estima-se que na natureza pesavam na faixa 10,6 a 21,1 kg. Uma estimativa posterior apontou um peso médio mais baixo, de apenas 10,2 kg. Este dado tem sido questionado e ainda há controvérsias. Especialistas acreditam ainda que o peso do dodô variava conforme a estação do ano: eles seriam gordos durante as estações frias, mas nem tanto durante as quentes. Um estudo das poucas penas remanescentes na cabeça do exemplar de Oxford mostrou que elas eram penáceas em vez de plumáceas, e muito semelhantes as de outros pombos. Muitas das características do esqueleto que distinguem o dodô e o solitário-de-rodrigues, seu parente mais próximo, de outros pombos têm sido atribuídas a sua incapacidade de voar. Os elementos pélvicos eram mais densos do que os dos pombos voadores; assim, o dodô e solitário-de-rodrigues podiam suportar um peso corporal maior. Além disso, a região peitoral e as pequenas asas eram pedomórficas, ou seja, durante a evolução, foram retidas na idade adulta algumas características típicas do período juvenil. O crânio, tronco e membros pélvicos eram peramórficos, o que significa que eles mudavam consideravelmente com a idade. O dodô compartilhava vários outros traços com o solitário-de-rodrigues, como características do crânio, pelve e esterno, bem como um porte grande. É diferente em outros aspectos, sendo mais robusto e mais curto do que o solitário-de-rodrigues, tendo crânio e bico maiores, a porção superior do crânio arredondada e órbitas menores. O pescoço e as pernas do dodô eram proporcionalmente mais curtos, e a ave de Maurício não dispunha de um equivalente à calosidade presente nos punhos do solitário-de-rodrigues. Descrições contemporâneas. A maioria das descrições contemporâneas do dodô são encontradas em diários de bordo e documentos de navios da Companhia Holandesa das Índias Orientais que atracaram em Maurício no século XVII, na época governada pelo Império Holandês. Esses registros foram utilizados como guias para as viagens seguintes. Poucos relatos sobre o dodô são confiáveis: boa parte parece basear-se em descrições prévias, e nenhum deles foi escrito por cientistas. Um dos primeiros registros sobre a fauna de Maurício, do diário de van Warwijck de 1598, descreve o dodô da seguinte maneira: Papagaios azuis são muito numerosos por lá, bem como outras aves; entre as quais há uma espécie, conspícua pelo seu tamanho, maior do que os nossos cisnes, com enormes cabeças cobertas apenas a metade com pele, como se vestida com um capuz. Estas aves não possuem asas, no lugar das quais 3 ou 4 penas enegrecidas se sobressaem. A cauda consiste de algumas penas moles e encurvadas, que são de cor cinza. Costumávamos chama-las de 'Walghvogel', porque quanto mais cozinhávamos, menos macia e mais insípida a carne delas ficava. Não obstante, sua barriga e peito eram de um sabor agradável e facilmente mastigáveis. Uma das descrições mais detalhadas foi feita pelo historiador inglês Thomas Herbert na obra "A Relation of Some Yeares Travaille into Afrique and the Greater Asia", datada de 1634: Apenas aqui e em Dygarrois [ilha Rodrigues, provavelmente referindo-se ao solitário] nasce o dodô, que por forma e raridade pode antagonizar a fênix da Arábia: seu corpo é redondo e gordo, poucos pesam menos de 50 libras. Serve mais para admirar do que como comida, estômagos fortes podem aceitá-lo, mas para os delicados são ofensivos e sem serventia como alimento. Sua fisionomia revela melancolia, como se consciente do insulto da natureza em conceber um corpo tão grande para ser guiado com asas tão pequenas e impotentes, que servem apenas para provar que é uma ave. A metade de sua cabeça é nua, parecendo estar coberta com um fino véu, seu bico é encurvado para baixo, no meio dele fica a narina, daí até a extremidade é verde-claro, misturado com uma coloração amarela-pálida; seus olhos são pequenos e lembram diamantes redondos; suas plumas macias, sua cauda tem três pequenas plumas, curtas e desproporcionais, suas pernas se adaptaram ao corpo, suas garras afiadas, seu apetite forte e voraz. Pedras e ferro são digeridos, cuja descrição será mais bem exprimida em sua representação. Representações contemporâneas. O diário de bordo do navio holandês "Gelderland" (1601-1603), redescoberto na década de 1860, contém os únicos esboços conhecidos de dodôs, vivos ou recém-mortos, desenhados em Maurício. A autoria foi atribuída ao artista profissional Joris Joostensz Laerle, que também desenhou outras aves já extintas da ilha, e a um segundo artista menos refinado. Além destes desenhos, não se sabe quantas ilustrações de dôdos foram feitas usando como modelo animais vivos ou empalhados, o que afeta sua confiabilidade. Como os dodôs são conhecidos apenas por alguns poucos restos físicos e descrições, as obras de arte contemporâneas são importantes para reconstruir sua aparência em vida. Embora tenha havido um esforço desde meados do século XIX para listar todas as ilustrações históricas da espécie, representações antes desconhecidas continuam sendo descobertas ocasionalmente. Todas as representações feitas após o ano de 1638 parecem ser baseadas em imagens anteriores, na medida em que menções ao dodô em relatos de viagem tornavam-se cada vez mais raros. As diferenças nas ilustrações levaram autores como Anthonie Cornelis Oudemans e Masauji Hachisuka a especular sobre dimorfismo sexual, traços ontogênicos, variação sazonal, e até mesmo a existência de espécies diferentes de dodôs, mas essas hipóteses não são aceitas atualmente. Certos detalhes, como as marcas do bico, a forma das penas da cauda e a cor do animal, variam de relato para relato, o que torna impossível determinar a morfologia exata dessas características, se elas sinalizam idade ou sexo, ou mesmo se refletem a realidade. O especialista em dodôs Julian Hume acredita que as narinas do dodô vivo tinham o formato de fenda, como visto nos desenhos do "Gelderland", de Cornelis Saftleven, da Galeria de Arte Crocker e do indiano Ustad Mansur. De acordo com esse raciocínio, as narinas abertas, frequentemente vistas em pinturas, indicam que espécimes empalhados foram utilizados como modelos. A imagem tradicional do dodô é de uma ave muito gorda e desajeitada, mas esta perspectiva pode ser exagerada. A opinião geral dos cientistas hoje é a de que muitas representações europeias antigas foram baseadas em aves cativas superalimentadas, ou em espécimes empalhados grosseiramente. Também foi sugerido que as imagens podem mostrar dodôs com penas bufantes, como parte do comportamento de exibição. O pintor holandês Roelant Savery foi o ilustrador mais influente e prolífico do dodô. Ele fez pelo menos dez representações, muitas vezes mostrando a ave no canto inferior das telas. Uma famosa pintura sua, datada de 1626, agora chamada "Edward's Dodo" por ter pertencido ao ornitólogo George Edwards, tornou-se a imagem padrão do animal. A pintura, atualmente guardada no Museu de História Natural de Londres, mostra uma ave particularmente gorda e serviu como inspiração para muitas outras ilustrações de dodôs. Uma pintura mogol redescoberta em São Petersburgo na década de 1950 mostra um dodô junto a aves indianas. A gravura retrata uma ave acastanhada e mais esbelta que a dos desenhos europeus. Tanto seu descobridor, A. Iwanow, como o especialista em dodôs Julian Hume, a consideram como uma das representações mais precisas de um dodô vivo; as aves ao redor são claramente identificáveis e representados com uma coloração adequada. Acredita-se ser do século XVII e a autoria foi atribuída ao artista Ustad Mansur. O exemplar retratado provavelmente viveu no zoológico do imperador mogol Jahangir, localizado em Surat, onde o viajante inglês Peter Mundy também afirmou ter visto dodôs. Em 2014, uma outra ilustração indiana de um dodô foi encontrada, mas descobriu-se que foi derivada de uma ilustração alemã de 1836. Comportamento e ecologia. Pouco se sabe sobre o comportamento do dodô, pois a maioria das descrições da época são muito breves. Com base em estimativas de peso, acredita-se que o macho pudesse chegar a 21 anos de idade, e as fêmeas 17. Estudos de cantiléver da força de seus ossos da perna indicam que ele poderia correr muito rápido. Ao contrário do solitário-de-rodrigues, não há nenhuma evidência de que o dodô usasse suas asas em combate com outros indivíduos da mesma espécie. Embora alguns ossos tenham sido encontrados com fraturas curadas, tinha músculos peitorais fracos e asas mais reduzidas em comparação com o solitário-de-rodrigues. O dodô pode sim ter usado seu grande bico encurvado em disputas territoriais. Uma vez que Maurício recebe mais chuva e tem menor variação sazonal do que Rodrigues, o que afeta a disponibilidade de recursos nesta ilha, os dodôs teriam menos motivos para evoluir para um comportamento territorial agressivo. O solitário-de-rodrigues foi, portanto, provavelmente o mais agressivo dos dois. O habitat preferido do dodô é desconhecido, mas as descrições antigas sugerem que habitavam as florestas sobre as áreas costeiras mais secas do sul e oeste da ilha. Esta opinião é corroborada pelo fato de que o pântano Mare aux Songes fica perto do mar no sudeste de Maurício. Tal distribuição limitada na ilha poderia muito bem ter contribuído para a sua extinção. O mapa de 1601 do diário de bordo do navio "Gelderland" mostra uma pequena ilha ao longo da costa de Maurício, onde dodôs foram capturados. Julian Hume sugeriu esta ilha era a ilha Benitiers, na baía Tamarin, costa oeste de Maurício. Ossos fósseis também foram encontrados dentro de cavernas em regiões mais altas, indicando que o animal poderia habitar as montanhas. O trabalho no pântano Mare aux Songes mostrou que seu habitat era dominada por árvores tambalacoques e do gênero "Pandanus", além de palmeiras endêmicas. Muitas espécies endêmicas de Maurício foram extintas após a chegada dos seres humanos, de modo que o ecossistema da ilha está atualmente muito danificado e difícil de ser reconstruído. Antes da chegada dos colonos, Maurício era inteiramente coberta por florestas, da qual muito pouco resta hoje devido ao desmatamento. A fauna endêmica sobrevivente ainda está seriamente ameaçada. O dodô viveu ao lado de outras aves da ilha Maurício recém-extintas, como a galinhola-vermelha-de-maurício, papagaio-de-bico-largo, papagaio-cinzento-de-maurício, pombo-azul-de-maurício, coruja-de-maurício, "Fulica newtonii" (uma carqueja), "Alopochen mauritiana" (um ganso), "Anas theodori" (um pato), e "Nycticorax mauritianus" (um socó). Répteis extintos de Maurício incluem as duas espécies de tartarugas-gigantes endêmicas ("Cylindraspis inepta" e "C. triserrata"), o lagarto "Leiolopisma mauritiana", e a jiboia-da-ilha-round. A "Pteropus subniger" e o caracol "Tropidophora carinata" viveram na ilha Maurício e ilha da Reunião, mas desapareceram de ambas as ilhas. Algumas plantas, como a "Casearia tinifolia" e a "Angraecum palmiforme", também se tornaram extintas. Dieta. Um documento holandês de 1631, redescoberto em 1887 mas agora perdido, é o único relato sobre a dieta do dodô. Ele também menciona que a ave usava seu bico para se defender: Esses maiores são soberbos e orgulhosos. Mostram-se para nós com caras duras e severas, e bocas escancaradas. De marcha desenvolta e audaz, eles dificilmente movem um pé diante de nós. Sua arma de guerra era a boca, com a qual podem bicar ferozmente; sua alimentação era de frutos; eles não eram muito bem emplumados, mas abundantemente cobertos com gordura. Muitos deles foram trazidos a bordo, para o deleite de todos nós. Além de frutos caídos, o dodô provavelmente subsistiu com nozes, sementes, bulbos e raízes. Também foi sugerido que o dodô pudesse comer caranguejos e mariscos, como seus parentes pombos coroados. Seus hábitos alimentares devem ter sido versáteis, uma vez que provavelmente foram dadas a espécimes cativos uma grande variedade de comida nas longas viagens pelo mar. Anthonie Oudemans sugeriu que como Maurício tem estações seca e chuvosa bem definidas, o dodô provavelmente engordava comendo frutos maduros no fim da estação chuvosa para sobreviver à estação seca, quando a comida era escassa; relatos contemporâneos descrevem o apetite "ganancioso" da ave. France Staub sugeriu que eles eram alimentados principalmente com frutos de palmeiras, e ele tentou correlacionar o ciclo de engorda do dodô com o regime de frutificação desses vegetais. Várias fontes da época afirmam que o dodô usava pedras na moela para auxiliar na digestão. O escritor Inglês Sir Hamon L'Estrange testemunhou um exemplar ao vivo em Londres e descreveu-o da seguinte maneira: Em 1638, enquanto eu caminhava pelas ruas de Londres, vi uma imagem de um pássaro de aparência estranha pendurada numa cobertura e eu, em companhia de mais um ou dois, entrei para vê-lo. Era mantido numa câmara, e era uma ave grande, um pouco maior que um peru macho, com pernas e pés parecidos, porém mais grossos e robustos e de forma mais ereta, colorido na parte da frente como o peito de um faisão macho jovem, e na traseira com uma tonalidade amarelo-acinzentada. O tratador o chamava de dodô, e na câmara havia um recipiente com pedras de seixos, as quais deu várias à ave na nossa frente, algumas tão grande como uma noz, e o tratador nos contou que a ave as comia (para ajudar na digestão), e embora eu não lembre se o tratador foi questionado sobre mais detalhes, estou seguro de que depois ela botava tudo pra fora novamente. Não se sabe como os filhotes eram alimentados, mas os pombos, "primos" dos dodôs, fornecem leite de papo a suas crias. Representações da época mostram a ave com um grande papo, que provavelmente era usado tanto para armazenar o alimento ingerido como para a produção do leite de papo. Especialistas acreditam que o tamanho máximo que os dodôs e solitários-de-rodrigues atingiam era limitado pela quantidade de leite de papo que pudessem produzir para os filhotes durante seu crescimento inicial. Em 1973, cientistas propuseram que o tambalacoque, também conhecido como árvore-dodô, estava desaparecendo de Maurício, ilha na qual é endêmico. Havia supostamente apenas 13 exemplares restantes, todos com idade estimada em cerca de 300 anos. Stanley Temple formulou a hipótese de que a árvore dependia do dodô para sua propagação, e que suas sementes somente germinavam depois de passar pelo aparelho digestivo da ave. Ele alegou que o tambalacoque estava praticamente co-extinto por causa do desaparecimento do dodô. Porém, Temple não viu relatos da década de 1940 que diziam que sementes da árvore germinaram, embora muito raramente, sem serem submetidas à digestão. Outros contestaram sua hipótese e sugeriram que o declínio da árvore foi exagerado, ou que as sementes também eram disseminadas por outros animais extintos, como as tartarugas "Cylindraspis", morcegos-da-fruta ou o papagaio-de-bico-largo. De acordo com Wendy Strahm e Anthony Cheke, dois especialistas na ecologia das ilhas Mascarenhas, a árvore, apesar de rara, germinou desde o desaparecimento do dodô em números de várias centenas, e não 13, como reivindicado por Temple, portanto, desacreditam da visão dele quando afirma que o dodô era um único responsável pela sobrevivência da árvore. O ornitólogo brasileiro Carlos Yamashita sugeriu em 1997 que o papagaio-de-bico-largo pode ter dependido de dodôs e de tartarugas "Cylindraspis" para comer frutos de palmeiras e excretar as suas sementes, para então virar alimento para os papagaios. Araras do gênero "Anodorhynchus" necessitavam da mesma forma da agora extinta megafauna sul-americana, mas agora dependem de gado domesticado para este serviço. Reprodução. Como era uma ave terrestre e incapaz de voar, e por não haver mamíferos predadores nem outros tipos de inimigos naturais em Maurício, o dodô provavelmente construía seus ninhos sobre o solo. O relato de François Cauche, em 1651, é a única descrição do ovo e do som emitido pelo animal: Tenho visto em Maurício aves maiores que um cisne, sem penas no corpo, o qual é coberto por uma penugem preta; a parte posterior é redonda, o traseiro adornado com penas encaracoladas em quantidade proporcional à idade do pássaro. No lugar das asas eles têm penas como estas últimas, pretas e curvas, sem tramas. Eles não têm línguas, o bico é grande, curvando-se um pouco para baixo; suas pernas são longas, escamosas, com apenas três dedos em cada pé. Tem um grito parecido com o de um ganso, e em hipótese alguma são tão saborosos para comer como os flamingos e patos dos quais falamos há pouco. Eles põe apenas um ovo, que é branco e do tamanho de um rolo de moedas, ao lado do qual colocam uma pedra branca do tamanho de um ovo de galinha. Eles assentam-se sobre a grama que coletaram, e fazem seus ninhos nas florestas; se alguém mata um filhote, uma pedra cinzenta é encontrada na moela. Chamamos-lhes de Ave de Nazaré. A gordura é excelente para relaxar músculos e nervos. O relato de Cauche é problemático, uma vez que também menciona que a ave que ele descrevia tinha três dedos no pé e não tinha língua, ao contrário do dodô. Isso levou alguns cientistas a acreditar que Cauche estava descrevendo uma nova espécie de dodô ("Didus nazarenus"). A descrição foi provavelmente misturada com a de um casuar, e as narrações de Cauche tem outras inconsistências. Uma menção de um "jovem avestruz" levado a bordo de um navio em 1617 é a única outra referência a um possível dodô jovem. Um ovo, que se alega ser de dodô, está armazenado no museu de East London, na África do Sul. Foi doado por Marjorie Courtenay-Latimer, cuja tia-avó tinha recebido de um capitão que alegou tê-lo encontrado em um pântano em Maurício. Em 2010, o curador do museu propôs o uso de estudos genéticos para determinar a sua autenticidade. O material pode, no entanto, tratar-se de um ovo aberrante de avestruz. Devido à provável ninhada de um único ovo e ao grande tamanho da ave, foi proposto que o dodô era do tipo K-selecionado, ou seja, ele produzia um baixo número de descendentes altriciais, o que exigia cuidados dos pais até que os filhotes se desenvolvessem. Algumas evidências, incluindo o tamanho grande e o fato de que aves tropicais e frugívoras têm taxas de crescimento mais lentas, indicam que a ave pode ter tido um período de desenvolvimento prolongado. O fato de nenhum dodô jovem ter sido encontrado no pântano Mare aux Songes, onde a maioria dos restos de dodô foram escavados, pode indicar que a ave produzia pouca prole, que amadurecia rapidamente, que as áreas de reprodução eram longe do pântano, ou que o risco de atolamento era sazonal. Relação com humanos. Maurício já havia sido visitado por embarcações árabes na Idade Média e navios portugueses entre 1507 e 1513, mas não foi colonizado por nenhum dos dois. Não há registros conhecidos de dodôs por estes visitantes, embora o nome português para Maurício, ilha do Cerné (cisne), pode ter sido uma referência aos dodôs. O Império Holandês adquiriu Maurício em 1598, renomeando-o em homenagem a Maurício de Nassau, e daí em diante a ilha foi utilizada para o abastecimento de navios mercantes da Companhia Holandesa das Índias Orientais. Os relatos mais antigos conhecidos do dodô foram fornecidos por viajantes holandeses durante a Segunda Expedição Holandesa à Indonésia, liderada pelo almirante Jacob van Neck em 1598. O animal aparece em documentos divulgados em 1601, que também contêm a mais antiga ilustração publicada da ave. Uma vez que os marinheiros que chegavam em Maurício estavam no mar por um longo tempo, seu interesse por estas aves de grande porte era principalmente culinário. O diário de bordo escrito por Willem Van West-Zanen do navio "Bruin-Vis", publicado em 1602, menciona que 24 a 25 dodôs foram caçados para servir de alimento, os quais eram tão grandes que dois dificilmente poderiam ser consumidos na hora de uma das refeições, sendo seus restos preservados por salga. Foi feita uma ilustração para a versão publicada em 1648 desta diário. A imagem mostra a morte de dodôs, um dugongo, e, possivelmente, um papagaio-cinzento-de-maurício; a legenda era um poema em holandês que mencionava que os marinheiros caçavam e comiam dodôs. Alguns dos primeiros viajantes acharam o sabor da carne do dodô desagradável, e preferiram comer papagaios e pombos, já outros a descreveram como dura, mas boa. Alguns dodôs foram caçados apenas pela sua moela, considerada a parte mais deliciosa da ave. Eles eram fáceis de pegar, mas os caçadores tinham que ter cuidado para não serem mordidos por seus bicos robustos. A semelhança do dodô com a galinhola-vermelha-das-maurícias (também já extinta) levou Peter Mundy a especular, 230 anos antes da teoria da evolução de Charles Darwin: Duas dessas espécies de aves que mencionei, pelo que sabemos, não podem ser encontradas fora dessa ilha, a qual se encontra a 100 léguas de St. Lawrence. Uma questão pode ser levantada, porque elas estão justamente aqui e não em outro lugar, estando tão longe de outra terra e sem saber voar ou nadar; até que ponto uma mistura de espécies produz formas estranhas e monstruosas, ou a natureza do clima, antiguidade e o mundo alterando as primeiras formas durante um longo tempo, ou como. Dodôs exportados. O dodô foi considerado interessante o suficiente para que exemplares vivos fossem levados para a Europa e para o Oriente. O número exato de dodôs transportados nos navios e que atingiram seus destinos vivos é incerto. Também não se sabe como suas representações da época estão relacionadas com os poucos restos não-fósseis que ainda existem em museus europeus. Baseando-se na combinação de antigos relatos, pinturas e espécimes, Julian Hume estimou que pelo menos onze dodôs transportados chegaram vivos a seus destinos. A descrição de Hamon L'Estrange de um dodô que ele viu em Londres, em 1638, é o único relato que menciona especificamente um espécime vivo na Europa. Em 1626, Adriaen van de Venne desenhou um dodô que ele alegou ter visto em Amsterdã, mas não mencionou se estava vivo, e sua representação é uma reminiscência do dodô de Edwards de Savery. Dois espécimes vivos foram vistos por Peter Mundy em Surat, Índia, entre 1628 e 1634, um dos quais pode ter sido o indivíduo pintado por Ustad Mansur em torno de 1625. Em 1628, Emmanuel Altham visitou a ilha Maurício e enviou uma carta ao seu irmão na Inglaterra: Amado irmão, recebemos ordens para ir para uma ilha chamada Maurício, que encontra-se a 20 graus de latitude sul, onde chegamos em 28 de maio; esta ilha tem muitas cabras, porcos e vacas, e aves muito estranhas, chamadas de dodôs, que são muito raras, em todo o mundo só são encontradas aqui, eu enviei uma através do senhor Perce, que chegou com o navio William nesta ilha em 10 de junho. [Na margem da carta] Do senhor Perce você deve receber gengibre para a minha irmã, algumas pérolas para meus primos e suas filhas, e um pássaro chamado dodô, se tiver vivo. Não se sabe se esse dodô sobreviveu à longa viagem, e a carta foi destruída pelo fogo no século XIX. A imagem mais antiga conhecida de um espécime de dodô na Europa data de cerca de 1610 numa coleção de pinturas que retratavam os animais do zoológico real do imperador Rodolfo II, em Praga. Esta coleção inclui também pinturas de outros animais de Maurício, incluindo a galinhola-vermelha-de-maurício. O dodô, que pode ter sido um filhote, parece ter sido seco ou embalsamado, e provavelmente viveu no jardim zoológico do imperador por um tempo junto com os outros animais. Os dodôs inteiros empalhados que existiam na Europa naquela época indicam que eles tinham sido trazidos vivos e morreram em solo europeu; é improvável que taxidermistas estavam a bordo dos navios que visitaram Maurício, e o formol ainda não era usado para preservar espécimes biológicos. A maioria dos exemplares tropicais foram preservados como cabeças e pés secos. Um dodô teria sido enviado à cidade de Nagasaki, no Japão, em 1647, mas por muito tempo não se soube se ele realmente chegou a seu destino. Documentos da época publicados em 2014 confirmam a história e mostram que o animal chegou com vida. Foi levado como um presente, e, apesar de sua raridade, foi considerado de valor igual a um veado branco e uma pedra bezoar. É o último registro de um dodô vivo em cativeiro. Extinção. Como muitos animais que evoluíram isolados e sem predadores significativos, o dodô não tinha medo de seres humanos. Este destemor e sua incapacidade de voar tornava-o presa fácil para os marinheiros. Embora alguns relatos dispersos descrevessem matanças em massa de dodôs para provisões de bordo, as investigações arqueológicas fornecem escassas evidências de predação humana. Ossos de pelo menos dois dodôs foram encontrados em cavernas de Baie du Cap, local que servia de refúgio para condenados e escravos fugitivos no século XVII e que não teria sido facilmente acessível para os dodôs por causa do terreno alto e acidentado. A população humana em Maurício (que tem uma área de km2) nunca excedeu 50 pessoas no século XVII, mas esses primeiros colonos introduziram outros animais, incluindo cães, porcos, gatos, ratos e macacos-do-mato, que saqueavam ninhos de dodô e competiram pelas limitadas fontes de alimento. Ao mesmo tempo, os humanos destruíram florestas que eram o habitat da ave. O impacto destes animais introduzidos, especialmente os porcos e macacos, sobre a população de dodôs é atualmente considerado mais grave do que a caça. Os ratos não foram, talvez, uma ameaça muito grande aos ninhos, uma vez que os dodôs estavam acostumados a lidar com os caranguejos terrestres locais. Foi sugerido que o dodô já era raro ou ocupava uma área bastante restrita antes da chegada dos seres humanos em Maurício, uma vez que teria sido improvável que tivesse se extinguido tão rapidamente se ocupasse todas as partes remotas da ilha. Uma expedição em 2005 encontrou restos fósseis de dodôs e outros animais mortos por uma enchente. Tais mortes em massa teria prejudicado ainda mais uma espécie já em perigo de extinção. Há algumas controvérsias envolvendo a data da extinção. O último registro amplamente aceito de um avistamento de dodô é o relato feito em 1662 pelo marinheiro náufrago Volkert Evertsz do navio holandês "Arnhem", que descreveu aves capturadas em uma pequena ilhota de Maurício (atualmente acredita-se que seja a ilha Âmbar): Estes animais, quando nos aproximamos deles, fixaram-nos o olhar e permaneceram imóveis no local, sem saber se tinham asas para voar ou pernas para fugir, e permitindo-nos aproximar tão perto quanto quiséssemos. Entre essas aves estavam aquelas que na Índia são chamadas de "Dod-aersen" (sendo uma espécie de ganso grande); estas aves são incapazes de voar, e em vez de asas, elas têm apenas alguns pequenos "pinos", mas podem correr muito rapidamente. Conseguimos agrupa-las num só lugar, de tal maneira que foi possível pegá-las com as mãos, e quando agarramos uma pela perna, ela fez um grande barulho, e as outras todas de repente vieram correndo o mais rápido que podiam para tentar socorre-la, e por causa disso foram capturadas e feitas prisioneiras também. Os dodôs nesta ilhota não foram, necessariamente, os últimos membros da espécie. O último avistamento reivindicado de um dodô foi relatado nos registros de caça de Isaac Johannes Lamotius em 1688. A análise estatística desses registros feita por Roberts e Solow dá uma nova data de extinção estimada de 1693, com um intervalo de confiança de 95% de 1688 a 1715. Os autores também assinalaram que, devido a última observação antes de 1662 ter sido a de 1638, o dodô provavelmente já era bastante raro na década de 1660, e, portanto, um relato controverso datado de 1674 feito por um escravo fugido não pode ser posto de lado. Anthony Cheke apontou que algumas descrições pós 1662 usam os nomes "Dodo" e "Dodaers" quando se referem à galinhola-vermelha-de-maurício, indicando que os termos haviam sido transferidos para essa outra ave após o desaparecimento do próprio dodô. Cheke, portanto, aponta a descrição de 1662 como a última observação credível. Um relato de 1668 feito pelo viajante inglês John Marshall, que usou os nomes "Dodo" e "galinha vermelha" alternadamente para a galinhola-vermelha, mencionou que a carne era "dura", o que ecoa a descrição da carne no relato de 1681. Até mesmo a menção de 1662 tem sido questionada por Errol Fuller, pois a vocalização em situação de perigo coincide com a que foi descrita para a galinhola-vermelha. Até essa explicação ser proposta, acreditava-se que uma descrição de "dodôs" de 1681 era o último relato da espécie. Ainda assim, essa data ainda tem defensores. Manuscritos holandeses recentemente acessíveis indicam que nenhum dodô foi visto por colonos entre 1664 e 1674. Em 2020, Cheke e o pesquisador britânico Jolyon C. Parish sugeriram que todas as menções de dodôs depois de meados do século XVII se referiam a galinholas-vermelhas, e que o dodô havia desaparecido devido à predação por porcos selvagens durante um hiato na colonização das ilhas Maurício (1658–1664). A extinção do dodô, portanto, não foi percebida no momento em que aconteceu, uma vez que os novos colonos não tinham visto dodôs reais, mas, como esperavam ver aves que não voavam, se referiram às galinholas-vermelhas com esse nome. Como as galinholas provavelmente tinham ninhadas maiores do que os dodôs, seus ovos podiam ser incubados mais rápidos e seus ninhos talvez estivessem escondidos, elas provavelmente se reproduziam com mais eficiência e eram menos vulneráveis aos porcos. É improvável que este problema seja resolvido algum dia, a menos que relatórios antigos citando o nome da ave ao lado de um descrição física da mesma sejam redescobertos. A Lista Vermelha da União Internacional para a Conservação da Natureza e dos Recursos Naturais aceita a justificativa de Cheke para escolher a data de 1662, acreditando que todos os avistamentos subsequentes se referem a galinholas-vermelhas. Em qualquer caso, o dodô foi provavelmente extinto em 1700, cerca de um século depois de sua descoberta em 1598. Os holandeses deixaram Maurício em 1710, mas até essa data o dodô e a maioria dos grandes vertebrados terrestres da ilha já haviam se tornado extintos. Ainda que a raridade do dodô já tivesse sido relatada no século XVII, sua extinção não foi reconhecida até o século XIX. Isto aconteceu em parte porque, por motivos religiosos, não se acreditava que a extinção fosse possível até ser provada mais tarde por Georges Cuvier, e em parte porque vários cientistas duvidavam de que o dodô realmente tivesse existido. Parecia uma criatura estranha por demais, e muitos achavam que não passava de um mito. A ave foi usada pela primeira vez como um exemplo de extinção provocada pelo homem na "Penny Magazine" em 1833. Restos físicos. Espécimes do século XVII. Os únicos vestígios de dodôs levados para a Europa no século XVII são: uma cabeça e um pé, ambos secos, do Museu de História Natural da Universidade de Oxford; um pé que estava guardado no Museu Britânico, mas que foi perdido; um crânio do Museu Zoológico da Universidade de Copenhague; e um maxilar superior e ossos da perna no Museu Nacional de Praga. Os dois últimos foram redescobertos e identificados como restos de dodô em meados do século XIX. Vários dodôs empalhados foram também mencionados em antigos inventários de museus, mas não se sabe de nenhum que tenha resistido até os dias atuais. Além desses restos, um pé seco, que pertenceu ao professor holandês Pieter Pauw, foi mencionado por Carolus Clusius em 1605. Sua origem é desconhecida, e agora está perdido, mas pode ter sido coletado durante a viagem de van Neck. As únicas amostras de tecido mole que persistiram ao tempo, a cabeça (espécime OUM 11605) e o pé de Oxford, pertenceram ao último dodô empalhado que se tem notícia. Esse exemplar foi mencionado pela primeira vez como parte da coleção de Tradescant em 1656, sendo transferido três anos mais tarde, em 1659, para o Ashmolean Museum. Acredita-se que podem ser os restos da ave que Hamon L'Estrange viu em Londres. Muitas fontes afirmam que o museu queimou o dodô empalhado por volta de 1755 por causa da grave deterioração da peça, salvando apenas a cabeça e uma perna. O estatuto 8 do museu diz "que como qualquer coisa envelhece e perece, o mantenedor pode removê-lo em um dos armários ou outro repositório. E alguns outros serem substituídos". Hoje acredita-se que a simples destruição deliberada da amostra é um mito; ela foi, na verdade, removida do local de exposição para preservar o que lhe restou. Este tecido mole de dodô foi ainda mais degradado depois; a cabeça teve a pele separada do crânio em duas metades na dissecação feita por Strickland e Melville. O pé está em estado esquelético, com apenas pedaços de pele e tendões. Muito poucas penas permanecem na cabeça. Provavelmente era uma fêmea, já que o pé é 11% menor e mais delicado que o do espécime de Londres, e parece ser um indivíduo já totalmente crescido. O pé seco de Londres, mencionado pela primeira vez em 1665, e transferido para o Museu Britânico no século XVIII, foi exibido ao lado da pintura de dodô feita Edwards de Savery até a década de 1840. Também foi dissecado por Strickland e Melville. Não foi colocado numa postura ereta, o que sugere que foi separado de uma amostra fresca, e não de uma montada. Em 1896, foi mencionado como estando sem seus integumentos, e acredita-se que só os ossos permanecem até hoje, apesar de seu paradeiro atual ser desconhecido. O crânio de Copenhagen (espécime ZMUC 90-806) é conhecido por ter sido parte da coleção de Bernardus Paludanus em Enkhuizen até 1651, quando foi transferido para o museu no castelo de Gottorf, em Schleswig. Depois que o castelo foi ocupado por tropas dinamarquesas em 1702, o acervo do museu foi assimilado na coleção real dinamarquesa. O crânio foi redescoberto por J. T. Reinhardt em 1840. Com base nessa história, pode ser o resquício mais antigo já conhecido da sobrevivência de um dodô trazido para a Europa no século XVII. É 13 milímetros mais curto que o crânio de Oxford, e pode ter pertencido a uma fêmea. Ele foi mumificado, mas a pele pereceu. A parte da frente de um crânio (espécime NMP P6V-004389) e alguns ossos da perna no Museu Nacional de Praga foram encontrados em 1850, entre os restos do Museu Böhmisches. Pode ser o que restou de um dos dodôs empalhados que viviam no zoológico do imperador Rodolfo II, possivelmente, o espécime pintado lá por Hoefnagel ou Savery. Espécimes fósseis. Por muito tempo, os únicos restos de dodô conhecidos foram os quatro exemplares incompletos do século XVII. Até que em 1860 o botânico inglês Philip Burnard Ayres encontrou os primeiros ossos fósseis, posteriormente enviados para Richard Owen no Museu Britânico, que não publicou os achados. Três anos depois, em 1863, Owen pediu ao bispo Vincent Ryan para divulgar na ilha que ele deveria ser informado caso algum osso de dodô fosse descoberto. Em 1865, George Clark, um professor da pequena cidade de Mahébourg, finalmente encontrou fósseis de dodô em grande quantidade. O material estava no pântano Mare aux Songes, no sul da ilha Maurício, e o achado foi fruto de uma pesquisa de 30 anos inspirada na monografia de Strickland e Melville. No ano seguinte, Clark explicou na "Ibis", uma revista científica de ornitologia, como obteve sucesso em sua busca: ele orientou seus "coolies" a caminhar no meio do pântano, para sentir os ossos com os pés. No início encontraram poucos ossos, até que removeram a vegetação que cobria a camada mais profunda do pântano, e então encontraram muitos fósseis. Do local foram retirados restos de mais de 300 dodôs, mas muito poucos crânios e ossos das asas, possivelmente porque as partes superiores das aves foram "varridas" pela água, enquanto a porção inferior do corpo estava presa. Um cenário semelhante a muitos achados de restos de moas em pântanos da Nova Zelândia. A maioria dos ossos de dodô retirados do Mare aux Songes tem uma coloração marrom médio a escuro. Os relatos de Clark sobre as descobertas reacenderam o interesse pela ave. Tanto Richard Owen como Alfred Newton queriam ser o primeiro a descrever a anatomia pós-craniana do dodô, e Owen comprou um carregamento de ossos originalmente destinada a Newton, o que gerou rivalidade entre os dois. Owen descreveu os ossos na obra "Memoir on the Dodo", em outubro de 1866, mas errou ao basear sua reconstrução na pintura "Edwards' Dodo" feita por Savery, fazendo com que a ave parecesse muito atarracada e obesa. Em 1869 ele recebeu mais ossos e corrigiu sua representação, deixando-a mais ereta. Newton, por sua vez, direcionou seu foco para o solitário-de-reunião. Os ossos restantes, que não foram vendidos nem para Owen nem para Newton, foram leiloados ou doados a museus. Em 1889, Theodor Sauzier foi contratado para explorar as "lembranças históricas" da ilha Maurício e encontrar mais restos de dodô no Mare aux Songes. Não só alcançou esses objetivos como também encontrou resquícios de outras espécies extintas. Louis Etienne Thirioux, um naturalista amador de Port Louis, também encontrou muitos ossos de dodô em vários locais da ilha por volta do ano 1900. Suas descobertas incluem o único resto de um exemplar juvenil, um tarsometatarso, posteriormente perdido; e o primeiro espécime articulado, que é também o único dodô fóssil encontrado fora da região do Mare aux Songes. Este último foi encontrado em 1904 num caverna perto da montanha Le Pouce, e é o único esqueleto completo de um mesmo dodô. Thirioux o doou ao Museu Desjardins (hoje Museu de História Natural de Maurício), onde ainda está em exibição. Os herdeiros de Thrioux venderam um segundo esqueleto (composto por ossos de pelo menos dois indivíduos, com a maior parte do crânio reconstruído) ao Durban Museum of Natural Science, na África do Sul, em 1918. Juntos, esses dois esqueletos representam os resquícios mais completos, incluindo elementos ossos anteriormente não registrados (como patelas e vários ossos da asa). Embora alguns escritores contemporâneos tenham notado a importância dos espécimes de Thrioux, eles não foram estudados cientificamente e ficaram esquecidos até 2011, quando foram examinados por um grupo de pesquisadores. Em 2014, tais amostras foram a base para a primeira reconstrução 3D de um esqueleto completo de dodô, que utilizou tecnologia de varredura a laser em três dimensões. A reconstrução foi exibida em Berlim, na 74ª Reunião Anual da Sociedade de Paleontologia de Vertebrados. Em outubro de 2005, depois de cem anos de negligência, uma parte do pântano Mare aux Songes foi escavada por uma equipe internacional de pesquisadores. Para prevenir a malária, os britânicos haviam coberto o pântano com núcleo duro durante o seu domínio sobre Maurício, que teve de ser removido. Muitos restos mortais foram encontrados, incluindo ossos de pelo menos 17 dodôs em vários estágios de maturidade (embora não juvenis), e vários ossos, obviamente, a partir do esqueleto de uma ave individual, que foram preservados na sua posição natural. Esses achados foram tornados públicos em dezembro de 2005 no museu Naturalis em Leiden. 63% dos fósseis encontrados no pântano pertencia a tartarugas do gênero Cylindraspis, já extinto, e 7,1% pertenciam a dodôs, que haviam sido depositados dentro de vários séculos, há anos. Escavações posteriores sugeriram que dodôs e outros animais ficaram atolados no Mare aux Songes ao tentar chegar a água durante um longo período de seca severa cerca de anos atrás. Além disso, as cianobactérias prosperaram nas condições criadas pelos excrementos de animais se reuniram em torno do pântano, que morreram de intoxicação, desidratação, atropelamento, e afundando. Apesar de muitos pequenos elementos do esqueleto foram encontrados durante as recentes escavações do pântano, poucos foram encontrados durante o século 19, provavelmente devido ao emprego de métodos de coleta menos refinados. Em junho de 2007, os aventureiros que exploravam uma caverna na ilha Maurício descobriram o esqueleto de dodô mais completo e mais bem preservado já encontrado. O espécime foi apelidado de "Fred", após o achado. Em todo o mundo, 26 museus possuem quantidades significativas de material de dodô, quase todos encontrados no Mare aux Songes. O Museu de História Natural de Londres, Museu Americano de História Natural, Museu de Zoologia da Universidade de Cambridge, Museu Senckenberg, dentre outros, têm esqueletos quase completos, montados a partir de restos fósseis de vários indivíduos. Em 2011, uma caixa de madeira contendo ossos de dodô da era eduardiana foi redescoberta no Grant Museum da University College London, durante os preparativos para uma mudança. Eles haviam sido armazenadas junto com ossos de crocodilo. "Dodô branco". O suposto "dodô branco" (ou "solitário") da ilha Reunião é hoje considerado uma conjectura errada baseada em relatos de avistamentos do íbis-terrestre-de-reunião e pinturas do século XVII de aves brancas parecidas com o dodô feitas por Pieter Withoos e Pieter Holsteyn, e que vieram à tona no século XIX. A confusão começou quando Willem Bontekoe, após visitar Reunião por volta de 1619, mencionou aves gordas e incapazes de voar, às quais se referiu como "Dod-eersen" em seu diário de bordo, embora sem mencionar de que cor eram. Quando o diário foi publicado em 1646, o relato foi acompanhado por uma gravura de um dodô da "Crocker Art Gallery sketch" de Savery. Uma ave branca, encorpada e que não voava foi mencionada pela primeira vez como parte da fauna de Reunião pelo oficial-chefe J . Tatton em 1625. Menções esporádicas foram posteriormente feitas por Sieur Dubois e outros escritores da época. O barão Edmond de Sélys Longchamps cunhou o nome "Raphus solitarius" para estas aves em 1848, pois acreditava que os relatos se referiam a uma espécie de dodô. Quando pinturas do século XVII de dodôs brancos foram redescobertas por naturalistas do século XIX, acreditou-se que elas retratavam essas aves. Anthonie Cornelis Oudemans sugeriu que a discrepância entre as pinturas e as antigas descrições aconteceu porque os desenhos mostravam as fêmeas, e que a espécie tinha, portanto, dimorfismo sexual. Alguns autores também acreditavam que os animais descritos eram de uma espécie semelhante ao solitário-de-rodrigues, sendo por isso também chamados de "solitários", ou mesmo que havia espécies brancas tanto de dodô como de solitários na ilha. A pintura de Pieter Withoos, descoberta primeiro, parece ter sido baseada numa pintura anterior de Pieter Holsteyn, e sabe-se que existiram três versões dela. De acordo com Hume, Cheke e Valledor de Lozoya, parece que todas as representações de dodôs brancos foram baseadas na pintura "Landscape with Orpheus and the animals" de 1611, feita por Roelant Savery, ou em cópias da mesma. A pintura mostra um espécime esbranquiçado e aparentemente foi feita com base num exemplar empalhado em Praga; um "walghvogel" descrito como tendo um "coloração esbranquiçada suja" foi mencionado em um inventário de espécimes na coleção de Praga do Sacro Imperador Romano Rodolfo II, que contratou Savery na época (1607-1611). Várias imagens posteriores de Savery mostram sempre aves acinzentadas, possivelmente porque ele viu outro exemplar. Cheke e Hume acreditam que o espécime pintado era branco devido ao albinismo. Valledor de Lozoya, por sua vez, sugeriu que a plumagem clara pode ser um traço juvenil, resultado do branqueamento de exemplares taxidermizados antigos, ou simplesmente licença artística. Em 1987, cientistas descreveram fósseis de uma espécie de íbis recentemente extinta originária da ilha Reunião com um bico relativamente curto, "Borbonibis latipes", antes de uma conexão com os relatos do solitário-de-rodrigues ter sido feita. Cheke sugeriu a um dos autores, Francois Moutou, que os fósseis podem ter sido do íbis-de-reunião, e esta sugestão foi publicada em 1995. O íbis foi transferido para o gênero "Threskiornis", agora combinado com o epíteto específico "solitarius" do binomial "R. solitarius". As aves deste gênero são também brancas e pretas com bicos finos, se enquadrando assim com as antigas descrições do íbis-de-reunião. Nenhum fóssil de animais parecidos com o dodô jamais foi encontrado na ilha. Relevância cultural. A importância do dodô como um dos mais famosos animais extintos e sua aparência singular levou à sua utilização na literatura e na cultura popular como um símbolo de um conceito ou objeto desatualizado. Na língua inglesa, a expressão "dead as a dodo" ("morto como um dodô") quer dizer uma coisa inquestionavelmente morta ou obsoleta. Da mesma forma, a frase "to go the way of the dodo" ("seguindo o caminho do dodô") significa tornar-se extinto ou obsoleto, cair fora do uso ou da prática comum, ou virar uma coisa do passado. Embora sejam expressões de uso frequente, uma pesquisa da ONG internacional WWF publicada em 2015 mostrou que um em cada quatro britânicos acredita que os dodôs ainda existem. Em 2009, uma ilustração holandesa inédita de um dodô, datada do século XVII, foi colocada à venda na Christie's e esperava-se que fosse vendida por libras esterlinas. Não se sabe se a ilustração foi baseada em um espécime ou em uma imagem anterior. Foi arrematada por libras. Mesmo antes de sua extinção, o dodô era frequentemente destacado na literatura europeia, além de ser usado como símbolo para terras exóticas e para a gula, devido a sua aparência obesa. Em 1865, mesmo ano em que George Clark começou a publicar relatórios sobre fósseis escavados de dodô, a ave recém vindicada virou um personagem de Alice no País das Maravilhas, obra-prima do escritor inglês Lewis Carroll. Acredita-se que ele incluiu o dodô porque se identificou com a ave e adotou o nome como apelido para si mesmo por causa de sua gagueira, o que o fez acidentalmente apresentar-se como "Do-do-dodgson", seu sobrenome oficial. A popularidade do livro fez do dodô um famoso ícone da extinção. Atualmente, o dodô aparece em obras de ficção popular, como animações, séries de TV e filmes. É usado como mascote para muitos tipos de produtos, especialmente em Maurício. O dodô aparece como um defensor no brasão de armas de Maurício. É também usado como uma marca d'água em notas da moeda local, a rupia maurícia. Um dodô sorridente é o símbolo da Brasseries de Bourbon, uma popular marca de cerveja da ilha Reunião, cujo emblema mostra a espécie branca que se pensava ter vivido lá. A ave também é usada para promover a proteção de espécies ameaçadas de extinção por muitas organizações ambientais, como a Durrell Wildlife Conservation Trust, o Durrell Wildlife Park, e o Center for Biological Diversity, que oferece anualmente o irônico prêmio "Rubber Dodo", uma "honraria" dada àqueles que mais contribuíram para extinguir espécies ameaçadas. Em 2011, uma espécie de aranha da família Nephilidae − "Nephilengys dodo" – que habita as mesmas florestas que os dodôs viviam, foi nomeada em homenagem à ave com o intuito de aumentar a conscientização sobre a necessidade urgente de proteção da biota de Maurício. O termo dodô também foi imortalizado por cientistas através da nomeação de elementos genéticos, lembrando sua incapacidade de voar. Um gene da mosca-das-frutas situado numa região de um cromossomo necessário para a capacidade de voar foi batizado de "dodo". Além disso, um elemento de transposição defeituoso de "Phytophthora infestans" foi nomeado DodoPi, uma vez que continha mutações que eliminaram a capacidade do elemento de saltar para novos locais num cromossomo. O poeta Hilaire Belloc incluiu um poema sobre o dodô na sua obra "The Bad Child's Book of Beasts", de 1896:
671
Debian
Debian Debian (), anteriormente chamado Debian GNU/Linux e hoje apenas Debian, é um sistema operacional composto majoritariamente de software livre e mantido oficialmente pelo Projeto Debian. O projeto recebe, ainda, apoio de outros indivíduos e organizações de todo o mundo. O grupo distribui núcleos Unix-like, como o Debian GNU/kFreeBSD e o Debian GNU/Hurd. O Debian é especialmente conhecido pelo seu sistema de gestão de pacotes, chamado APT, que permite atualizações relativamente fáceis a partir de versões anteriores, a instalação quase sem esforço de novos pacotes e a remoção limpa de pacotes antigos. O nome Debian vem dos nomes dos seus fundadores, Ian Murdock e sua esposa Debra. O projeto Debian é mantido por meio de doações à organização sem fins lucrativos Software in the Public Interest (SPI). O Debian "Stable" procura sempre manter os pacotes mais estáveis, e sendo assim, o Gnome e KDE, por exemplo, são mantidos em versões mais antigas do que muitas outras distribuições GNU/Linux usam por padrão. O fato dele conter pacotes mais antigos garante maior estabilidade e faz com que ele seja muito usado para servidores, bem como por usuários que desejam estabilidade em estações de trabalho ou "desktops" domésticos. Várias distribuições comerciais baseiam-se (ou basearam-se) no Debian, incluindo: Linspire (antigo Lindows), Xandros, Knoppix, Kurumin, BrDesktop e Ubuntu. Características. O Debian possui acesso a repositórios online que contêm mais de 59.000 pacotes, fazendo desta uma das maiores compilações de software. Oficialmente, o Debian contém apenas softwares livres, porém softwares não-livres também integram seu repertório, e podem ser baixados e instalados. O Debian suporta programas populares, como LibreOffice, Firefox, K3b, VLC Media Player, GIMP e Evince. História. O Debian foi lançado em 16 de agosto de 1993 por Ian Murdock, à época estudante universitário. Ele escreveu o "Manifesto Debian," que sugeria a criação de uma distribuição GNU/Linux a ser mantida de uma maneira livre, segundo o espírito do GNU. O Projeto Debian cresceu lentamente e lançou suas versões 0.9x em 1994 e 1995, quando o dpkg ganhou notoriedade. Os primeiros ports para outras arquiteturas começaram em 1995, e a primeira versão 1.x do Debian aconteceu em 1996. Bruce Perens substituiu Ian Murdock como líder do projeto. Ele iniciou a criação de vários documentos importantes (o contrato social e o free software guidelines) e a legítima umbrella organization (SPI), bem como liderou o projeto através dos lançamentos das versões da ELF/libc5 (1.1, 1.2, 1.3). Bruce Perens deixou o projeto em 1998 antes do lançamento da primeira versão Debian baseada em glibc, a 2.0. O projeto continuou elegendo novos líderes e fazendo mais duas versões 2.x, cada qual incluindo mais ports e mais pacotes. A APT foi lançada durante este tempo e o Debian GNU/Hurd também passou a ser desenvolvido. O ano de 1999 trouxe as primeiras distribuições GNU/Linux baseadas em Debian, Corel Linux e Stormix's Storm Linux, hoje descontinuadas, mas que deram início ao que é hoje uma notável tendência nas distribuições baseadas em Debian. Próximo ao ano 2000, o projeto passou a usar repositórios de pacotes e a distribuição "testing", alcançando um marco maior no que se refere a arquivos e o gerenciamento de lançamentos. Em 2001, os desenvolvedores iniciaram conferências anuais, "Debconf", com conversas, "workshops" e a recepção aos usuários técnicos. A versão 3.0 de 2002 incluiu mais do que o dobro do número de pacotes da versão anterior e estava disponível para cinco novas arquiteturas. O Debian celebrou o seu décimo aniversário em 16 de agosto de 2003, com muitas festas de aniversário em todo o mundo. Logomarca. A logomarca "redemoinho" do Debian foi criada por Raul Silva em 1999 como parte de um concurso para substituir a logomarca semioficial que estava sendo usada. O vencedor do concurso ganhou um endereço de email "@debian.org" e um conjunto de CDs de instalação do Debian 2.1 para a arquitetura de sua escolha. Não houve nenhuma declaração oficial do projeto Debian sobre o significado da logomarca, mas no momento da sua eleição, sugeriu-se que representasse a magic smoke (fumaça cáustica produzida pela queima de circuitos ou componentes eletrônicos) que faz computadores funcionarem. Uma teoria sobre a origem da logomarca do Debian é que Buzz Lightyear — o personagem escolhido para o nome do primeiro lançamento do Debian — tem um redemoinho em seu queixo. Stefano Zacchiroli, um dos desenvolvedores da distribuição, também sugeriu que esse redemoinho do personagem tivesse relação com o Debian 1.1. Versões do Debian. O ciclo de desenvolvimento das versões do Debian passa por três fases: Quando as versões estão na fase testes, elas são identificadas por codinomes inspirados nos personagens do filme Toy Story. Ao se tornarem estáveis, as versões recebem um número de versão (ex: 5.0). A versão de testes atual é a "Bookworm". A versão instável sempre leva o nome de Sid, personagem que quebrava os brinquedos de Toy Story, em alusão aos "bugs" que podem ocorrer. Há ainda uma sigla usada pela equipe que justifica o uso desse nome: S"till In Development" ("ainda em desenvolvimento", em português). O Debian não prioriza apenas uma interface gráfica. Ele suporta igualmente todas as interfaces conhecidas do servidor gráfico X11: GNOME, KDE, XFCE, LXDE (atualmente LXQt), Cinnamon, MATE, Fluxbox, etc, bem como as baseadas em "tiling", como i3, Awesome, Xmonad e bspwm. Anteriormente, o ambiente GNOME vinha incluso no primeiro CD, já que estes são ordenados pelos pacotes mais usados. Hoje, com o aumento de tamanho dos pacotes que compõem o GNOME, o primeiro CD vem com o XFCE por definição. Já a versão em DVD vem com outros ambientes. Caso o usuário escolha por baixar o DVD, o primeiro já inclui os outros ambientes que podem ser escolhidos no ato da instalação. Somente o primeiro DVD é necessário para a instalação. Os demais contêm pacotes adicionais que também podem ser baixados pelo sistema instalado. São pacotes que já se encontram nos repositórios, mais úteis para quem tem uma internet limitada em termos de velocidade. Caso não seja escolhido nenhum ambiente gráfico no ato da instalação, manter as opções que estão pré-selecionadas como "Ambiente da área de trabalho do Debian" fará com que seja instalado o GNOME como a única interface, já que os pacotes são listados por ordem de popularidade no Debian. Mais de um ambiente gráfico pode ser escolhido durante o processo de instalação. Atualmente, o servidor gráfico Wayland vem instalado por padrão apenas com o ambiente GNOME, assim como em muitas distribuições que usam esse ambiente gráfico já fazem, mas devido à política de estabilidade do Debian e ao Wayland ser ainda relativamente novo, o servidor X11 está definido como padrão mesmo no GNOME e nos outros ambientes. Para utilizar o Wayland, baixa selecioná-lo no "login". Em outros ambientes, ele deve ser instalado. Organização do projeto. O projeto Debian é uma organização voluntária com três documentos de fundação: Os programadores do Debian elegem um líder para o projeto entre os seus colegas todos os anos. O líder do projeto Debian tem vários poderes especiais, mas o seu poder não é absoluto. Ele pode ser contatado e a sua eleição revertida através dos votos dos programadores, de acordo com o processo da "General Resolution" ("Resolução Geral," em português). Na prática, isto ocorre com alguma frequência (normalmente, apenas a eleição do líder do projeto Debian ocorre no âmbito da "General Resolution", mas isso já ocorreu várias vezes). O líder do projeto Debian é empossado para delegar a sua autoridade, e a vários programadores são confiadas responsabilidades especiais delegadas pelo líder, como por exemplo, a equipe "Debian System Administration" ("Administração do Sistema Debian", que possui a senha do "root" das máquinas do projeto) e o "Release Manager" ("Gerente de Lançamentos"), que decide as metas dos "releases" de distribuição, supervisiona o processo e toma a decisão final de quando liberar uma nova versão. Muitos dos delegados mantêm-se nas suas posições durante vários mandatos de diferentes líderes; as posições mais importantes são mantidas por membros de grande confiança e há muito tempo ativos no projeto, e há poucas alterações nisso mesmo quando o líder do projeto muda. Uma lista das posições mais importantes do Projeto Debian está disponível em The Debian Organization. Muitas, mas não todas as posições são delegadas pelo líder do projeto. Recrutamento de programadores, motivação e demissão. O projeto Debian tem um fluxo constante de pessoas que desejam ser programadores. Estas pessoas devem passar por um processo onde é estabelecida a identidade, motivação e conhecimento dos objetivos do projeto (definido no Contrato Social), além da competência técnica. Os programadores do Debian juntam-se ao projeto pelos mais diversos motivos. No passado já foram citados vários, que incluem: Os programadores do Debian podem pedir demissão de suas posições a qualquer momento, comunicando a intenção ao grupo privado do projeto (ou apenas aos "Debian System Administrators", caso queiram ser mais discretos). Suas contas serão então apagadas e as suas chaves criptográficas removidas do "project keyring" ("chaveiro do projeto", que permite o upload de pacotes assinados por eles para que sejam inseridos no arquivo). Ciclo de vida dos pacotes Debian. Cada pacote Debian tem um mantenedor (tipicamente, apenas um, mas ocasionalmente pequenas equipes de programadores supervisionam peças de software particularmente complexas). É da responsabilidade dos mantenedores manter o ritmo de acordo com as (caso existam) versões definidas pelos autores do software (o que se chama de "upstream"), garantir a portabilidade do pacote com as arquiteturas que o Debian suporta, garantir que o pacote é compatível com a política técnica do Debian, corrigir defeitos no pacote relatados pelos usuários (que também podem ser outros programadores Debian), e melhorias aos pacotes criados pelos autores que os deixem mais fáceis de utilizar, configurar, mais seguro etc. Periodicamente, um mantenedor de pacotes faz o "release" de um pacote enviando-o para a pasta "incoming" do arquivo de pacotes do Debian (ou usando uma fila de envios, que periodicamente transmite em "batch" os pacotes para o directório "incoming"). Após um intervalo (um dia, atualmente), o diretório "incoming" é verificado por um processo automático que garante que o upload está bem formado (todos os arquivos obrigatórios devem estar na pasta) e que o pacote tem a assinatura digital — produzida por software compatível com o OpenPGP — do programador Debian. Todos os programadores Debian têm chaves públicas. Os pacotes são assinados devido a dois motivos: 1) para permitir verificar se pacotes não assinados, que podem ter sido enviados de forma hostil, não serão processados no futuro; e 2) para permitir a contabilização caso um pacote contenha um defeito sério, uma violação de política ou código malicioso. Se o novo pacote é validado como corretamente assinado e bem formado, ele será instalado em uma área chamada "pool". Inicialmente, todos os envios de pacotes aceitos no arquivo são disponibilizados somente na versão instável, que contém a versão mais recente de cada pacote. No entanto, o novo código também é código não experimentado, por isso os pacotes são mantidos nesta área de desenvolvimento/QA durante vários dias (a duração exata depende da urgência do envio). Para um pacote passar da área de desenvolvimento/QA para a versão de testes — ou seja, o grupo de pacotes que são candidatos a fazer parte da próxima "release" da distribuição Debian — tem de cumprir vários critérios: Desta forma, como é de esperar, um bug "release-critical" num pacote de que vários pacotes dependam, como por exemplo uma "shared library", pode impedir muitos pacotes de entrarem na área de testes, porque essa biblioteca é considerada deficiente. Periodicamente, o "Release Manager", que é um delegado do "Debian Project Leader", em concordância com as linhas mestras anunciadas aos programadores alguns meses antes, decide fazer um "release". Isto ocorre quando todo o software importante está razoavelmente atualizado na versão "release-candidate" para todas as arquiteturas para as quais está planejado o "release," e quando todos os outros objetivos definidos pelo "Release Manager" foram atingidos. Nesta altura, todos os pacotes na "release-candidate" passam a fazer parte do "release". Não é possível que um pacote — particularmente um antigo, estável e alterado frequentemente — pertença a mais do que uma versão ao mesmo tempo. As versões são apenas coleções de apontadores para a "pool" de pacotes acima mencionada.
672
Direito
Direito Em sua acepção mais restrita, o direito, em seu sentido objetivo, é o sistema de normas que regula as condutas humanas por meio de direitos e deveres. Esse sistema se impõe em praticamente todos os âmbitos das relações sociais e, como tal, exerce um papel de enorme importância mas também de grande ambiguidade, visto que seu conteúdo e aplicação são influenciados por numerosos fenômenos, como a religião, a política, a economia, a cultura, a moral e a linguagem. Sua natureza precisa, incluindo suas condições de validade e os fundamentos de sua normatividade, é objeto de um antigo e complexo debate, em que se destacam as correntes juspositivista e jusnaturalista e suas múltiplas ramificações. O conteúdo do direito é articulado a partir de fontes hierarquizadas em ordenamentos jurídicos. Como o direito é um fenômeno inerente ao processo civilizatório e, em certa medida, particular a cada sociedade, a formação, hierarquia e importância de cada fonte variam significativamente em cada Estado. No mundo todo prevalecem os ordenamentos jurídicos da família romano-germânica de direitos, nos quais as leis escritas são mais amplamente utilizadas e constituem a principal fonte do direito, e da família da "common law", fundados principalmente em decisões precedentes. Outras famílias de direitos comuns pelo mundo incluem a dos direitos consuetudinários e a da xaria, dentre outras, sendo comuns ordenamentos mistos, que incorporam elementos de uma ou mais famílias. Apesar dessas diferenças, diversos processos históricos, políticos e culturais têm ocasionado um movimento de aproximação dos direitos nacionais e, na Contemporaneidade, as fontes do direito tendem a ser articuladas de maneira semelhante. Quando criadas pelo Estado, por meio de uma assembleia com competência legislativa ou de uma autoridade com poder regulamentar, as normas jurídicas são formalizadas em leis, decretos, regulamentos e outros documentos. Estados também podem celebrar tratados entre si e com organizações com personalidade jurídica internacional, que criam regras com efeitos em âmbito externo e interno. Por sua vez, indivíduos e organizações podem celebrar contratos, que, subordinados às normas estabelecidas pelo Estado, criam regras juridicamente vinculantes. As normas jurídicas privadas e públicas são aplicadas, no âmbito de um processo, por tribunais e outros indivíduos com poder jurisdicional, normalmente com base em uma série de métodos interpretativos e à luz da doutrina jurídica, dos costumes e de decisões judiciais que formam a jurisprudência sobre o tema. Além do binômio direito interno e direito internacional, historicamente o direito tem sido dividido em dois domínios maiores, sobretudo nos países cujos ordenamentos pertencem à família romano-germânica de direitos, e em ramos que agregam normas e teorias que compartilham um mesmo objeto e outras características. Assim, enquanto o direito público diz respeito ao Estado e à sociedade, incluindo ramos como o direito administrativo e o direito penal, o direito privado lida com a relação entre indivíduos e organizações, em áreas como o direito civil e o direito agrário. Contudo, as transformações sociais produzidas desde a Modernidade têm tornado essa divisão crescentemente incapaz de afiliar ramos do direito nascidos de novas necessidades sociais, sobretudo quanto a interesses transindividuais, meta-individuais e coletivos. Etimologia. As origens e o processo de adoção da palavra "direito" são conhecidos apenas parcialmente, embora esteja claro que ambos estão conectados à Roma Antiga. Em latim clássico o termo usado para designar um direito era , que daria origem a "jurídico" e "justiça", dentre outros. Esse termo se originou da raiz sânscrita (que indica unir ou juntar, e, por extensão, o vínculo contido no direito) ou (que indica algo sagrado), e, em sua origem, indicava algo vinculante ou obrigatório e talvez possuidor de uma garantia divina. Contudo, diferentemente do uso moderno mais comum do termo "direito", que designa um conjunto de regras e, portanto, salienta a sua dimensão normativa, dentre os romanos o termo estava imediatamente associado à noção de e era entendido como "a arte de realizar a justiça". Assim, a despeito do caráter normativo do direito romano, esse povo não utilizava o termo em referência a esse seu aspecto, mas sim salientando a sua dimensão prática, isto é, a proclamação da justiça pelo juiz. O termo "direito", por sua vez, pode ser traçado até (latim medieval erudito) e (latim vulgar), e sua forma adjetiva , que indica algo "dirigido" ou "guiado" em linha direta, ou ainda "sem desvio". Esse adjetivo é particípio passado do verbo ("endireitar", "ajustar", "desenhar em linha reta", "alinhar"), que se originou do verbo latino ("governar", "guiar", "liderar") e, mais anteriormente, do adjetivo ("reto", "direto"). Essas palavras evoluíram do termo em língua protoindo-europeia -, que indica o ato de endireitar algo e está na origem do termo proto-germânico "rehtan", que mais tarde originou o inglês "right" (por meio do inglês antigo "riht") e o alemão "recht" (por meio do alto-alemão antigo "reht"); do grego antigo "orektos" (estendido, ereto); dos termos em persa antigo "rasta-" ("reto", "direto") e "aršta- (""retidão"); do galês "rhaith"; e do bretão "reiz" ("justo", "sábio"). Em relação à cronologia do seu uso pelos romanos, as línguas românicas contemporâneas invariavelmente comunicam o conceito de direito com termos que possuem uma mesma origem (o termo lusófono "direito" tem correspondência direta com "diritto", do italiano, "derecho", do espanhol, "droit", do francês, "dret", do catalão, "drech", do occitano e "drept", do romeno, dentre outros), e, portanto, parece claro que eles se difundiram anteriormente à queda do Império Romano do Ocidente. Quanto às circunstâncias da sua adoção, uma teoria amplamente conhecida se ampara no e em análises da simbologia relacionada ao direito para demonstrar que o uso desse termo tem uma correspondência com a cultura grega e seria uma referência à posição ereta do fiel da balança, esta última um símbolo de equilíbrio associado à ideia de justiça no Antigo Egito do século XX AEC. Na Grécia Antiga, entre os sécs. XII e X AEC, a balança e o ideal de justiça vieram a ser associados a Zeus, que julgava o Homem em função de sua própria lei e de sua própria vontade. Mais tarde, pelos tempos de Homero, Zeus foi substituído, como símbolo da justiça, pela deusa Têmis, mas com a diferença que essa deusa julgava os homens em função da lei de Zeus; a deusa Têmis, portanto, era uma encarnação secundária do direito, pois seu julgamento era delimitado por uma lei externa a si mesma, estabelecida por um terceiro, Zeus. Por fim, pelo tempo de Hesíodo o panteão grego viu surgir a deusa Dice, filha de Zeus e Têmis, cuja representação incluía a balança em sua mão esquerda e uma espada na direita. A essa deusa foi atribuída a função de administrar a justiça ao Homem, isto é, de utilizar a balança para julgar os fatos de acordo com a lei de Zeus e declarar o que era justo em situações concretas. Os romanos teriam incorporado as mesmas alegorias em seu panteão, respectivamente nas figuras de Júpiter, Dione e Iustitia. Em comum a ambas alegorias, Dice e Iustitia identificavam o direito, e assim podiam declarar o que era era justo, quando os pratos da balança estivessem em equilíbrio () e, assim, o seu fiel estivesse perfeitamente ereto, isto é, direito (). Portanto, enquanto na Grécia o direito veio a ser conhecido como na linguagem mais popular, em Roma ele veio a ser designado informalmente pelo termo , mas com uma conotação diferente daquela do termo , referindo-se especificamente à sua dimensão moral (indicando aquilo que é escorreito, o caminho reto a ser seguido), e não sua dimensão prática ou de proclamação da justiça pelo juiz. Dito de outro modo, o termo teria surgido como consequência de a maior parte da população romana apreender o direito por seu aspecto orientador das condutas, e não por seu aspecto técnico (a arte de realização da justiça), expresso pelo termo "ius". Apesar de sua rejeição pelas classes mais educadas, que o consideravam vulgar, o termo difundiu-se dentre a sociedade romana e provavelmente coexistiu com o termo até os sécs. VII e VIII EC, quando os conteúdos dos manuais de direito romano começaram a cair em desuso. Por essa época o uso do termo técnico foi suplantado pelo termo vulgar , que então já era parte do vocabulário comum, tanto na linguagem falada quanto na escrita. O termo conheceria uma ressurgência com o renascimento do direito romano, iniciado com a redescoberta do "Corpus Juris Civilis" pelos juristas italianos no século XII, mas por essa época os termos e já eram amplamente utilizados para designar todo o conjunto ou uma norma jurídica específica. Do latim, eles evoluíram em português sucessivamente para "directo" (1277), "dereyto" (1292) e "dereijto" (1331), até chegar à sua grafia atual, documentada pela primeira vez no . História. Sociedades arcaicas. O direito é um fenômeno inerente às sociedades humanas, exclusivo a elas e relacionado à sua própria formação. Toda sociedade humana, das culturas arcaicas às mais avançadas tecnologicamente, possui estruturas normativas que impõem "padrões, regras e valores" aos seus membros e que constituem instrumentos de controle social, isto é, regulam os comportamentos individuais e coletivos a fim de assegurar uma certa ordem social. Mesmo nas sociedades mais simples o direito é elemento estruturante do controle social, permitindo "prevenir, remediar ou castigar os desvios das regras prescritas".O nascimento do direito, portanto, remonta a tempos imemoriáveis, e tratar de sua história implica reconhecer seu surgimento em diferentes sociedades e momentos históricos. Embora não se possa identificar uma data, mesmo aproximada, para o seu surgimento, sabe-se que a vida em cidades data de pelo menos 7000 AEC e, por essa época, seguramente o direito já estava presente. Inicialmente as regras aplicáveis às sociedades eram transmitidas sem grande preocupação com a sua sistematização, oralmente e por meio de uma simbologia capaz de expressar normas e valores de maneira figurativa mas com clareza e precisão imediatas. Assim, no âmbito das sociedades ágrafas o direito evidentemente não era legislado, mas sim constituído essencialmente de costumes, que foram se perpetuando através das gerações e se consolidando na forma de tradições e rituais. Como a mobilidade e o intercâmbio entre as primeiras sociedades eram limitados pelas distâncias geográficas e o desenvolvimento tecnológico, inicialmente os seus direitos apresentavam um grau acentuado de endogenia; os direitos de cada sociedade, portanto, eram bastante particulares e apresentavam pouca influência externa, daí se falar em uma "multiplicidade de direitos" desde logo cedo. As evidências sobre o funcionamento desses direitos também sugerem que inicialmente as normas de direito tinham como objeto privilegiado os interesses do grupo em detrimento da regulação de interesses individuais; não por acaso, o direito penal surgiu cedo na história do direito e talvez mesmo tenha sido a sua origem. Da mesma forma, há consenso que os direitos primitivos eram fortemente contaminados pela religião, de modo que a autoridade das regras de direito estava fundada no sobrenatural: nas vontades das divindades, nas crenças dos antepassados e nos rituais. Assim sendo, naturalmente os sacerdotes tornaram-se os primeiros reveladores e intérpretes das normas e, na maior parte das sociedades arcaicas, as figuras do líder religioso, do legislador e do rei se confundiam ou estavam intimamente relacionadas. Ao longo do tempo as vontades das divindades, as crenças dos antepassados e os rituais tenderam a se fundir em uma coisa só, isto é, as normas de cunho religioso transformaram-se em costumes e rituais, que, por sua vez, foram sendo substituídos por leis. Por esse motivo, considera-se que os direitos primitivos possuíram três estágios de desenvolvimento: o "direito oriundo dos deuses", o "direito que toma a forma de costumes" e o "direito fundado nas leis". Os primeiros textos expressando e organizando as normas jurídicas viram o dia concomitantemente ao surgimento da escrita, por volta de 3200 AEC, no seio das culturas que, por meio dessa nova tecnologia, buscaram registrar as informações sobre sua organização em um meio mais perene do que as memórias dos indivíduos. Os sumérios produziram alguns dos primeiros documentos com conteúdo jurídico que se conhece, na forma de documentos de caráter negocial. Os primeiros deles foram registros de transações fundiárias, datados por volta de 3000 AEC, e contratos relacionados a outros bens, incluindo a compra, venda e libertação de escravos, surgiram pela mesma época. Não muito mais tarde, entre 2300 e 2200 AEC, o Império Acádio produziu os primeiros documentos conhecidos estabelecendo tratativas entre dois povos diferentes, e que são os registros mais remotos do direito internacional.Quanto a textos de lei tratando da regulação interna da sociedade, embora se conheça indiretamente existência de leis como o Código de Urucaguina, produzido no século XXIV AEC, o mais antigo códice legal já encontrado por arqueólogos é o Código de Ur-Namu, produzido na Suméria provavelmente entre 2047 e 2030 AEC. Mesmo em relação a documentos posteriores, esse documento mostrou-se avançado por empregar uma fórmula casuística para as regras que previa e por conter numerosas regras buscando proteger a maioria mais fraca contra os abusos da minoria mais poderosa. Um outro documento inicial, por décadas considerado o mais antigo documento desse tipo, foi o Código de Hamurabi, que desde a publicação de sua primeira tradução parcial, em 1902, tornou-se provavelmente o mais famoso códice das fases iniciais da Idade Antiga. A fama desse documento babilônio se assenta no fato dele apresentar "o mais coerente e elaborado engajamento com questões de justiça no período inicial da história mundial", de maneira que não se veria igual por outros mil anos. Datado de 1760 AEC, ele continha 282 leis relativas a questões econômicas (como preços, tarifas, e comércio), familiares (como a regulação do casamento e do divórcio), criminais (tipificação e punição por crimes) e de direito civil (relativas, por exemplo, à escravidão e ao pagamento de dívidas). As penas previstas variavam de acordo com a estratificação social dos infratores (escravo/livre, homem/mulher) e as circunstâncias dos crimes. Além do mais, esse documento também é testemunha do nascente processo de intercâmbio entre os direitos de diferentes culturas, pois incorporou regras que hoje se sabe estavam presentes em leis estrangeiras, como o Código de Ur-Namu, e influenciou outros corpos de leis, notadamente as Leis Bíblicas. Exemplos arcaicos adicionais incluem o Código de Lipite-Istar ( 1930 AEC), o Código de Esnuna ( 1720 AEC), o Código dos Assírios (final do século XII AEC), as Leis Hititas (século XIII AEC), as Leis do Império Neobabilônico (século VI AEC), o Código da Aliança ( 1000 AEC) e o Código Deuteronômico (século VII AEC), além do Código de Atenas elaborado por Drácon (século VII AEC). Todos esses documentos empregaram a fórmula casuística do Código de Ur-Namu e incluíram regras voltadas à solução de problemas do dia a dia. Direito romano. Os gregos e os romanos foram os primeiros povos a distanciar a moral e a religião do direito, e estes últimos foram os primeiros a organizar um verdadeiro direito, no sentido atual do termo, ao extrair, estudar e aplicar sistematicamente regras que poderiam ser utilizadas para resolver outros casos, a partir de decisões precedentes sobre casos concretos. Outra distinção fundamental do direito romano frente aos demais direitos da época é que ele tratava principalmente de questões de interesse privado. Assim, ele expressou, possivelmente pela primeira vez, "o advento do direito privado, isto é, o reconhecimento jurídico da esfera privada em oposição à esfera pública".O marco inicial do direito romano, tal qual ele foi transmitido à posteridade, foi um corpo de normas chamado Lei das Doze Tábuas (), que se originou em torno de 450 AEC, no início do período da República Romana. Até então os romanos haviam regulado sua sociedade por meio de costumes e rituais desenvolvidos ao longo de séculos, e esse documento codificou parte das regras até então praticadas. Embora não haja consenso sobre a veracidade da tradição de que teria se originado em um contexto de disputa entre a classe dos plebeus e a dos patrícios, está claro que a Lei das Doze Tábuas foi influenciada pelos direitos de outros povos, sobretudo códices da Mesopotâmia e a legislação ateniense elaborada por Sólon. A cidade-estado onde a democracia se desenvolveu, Atenas possuía o direito da Antiguidade que apresentava maior desenvolvimento quanto ao processo judicial e à formação da legislação. O código de Solon substituíra o de Drácon, como parte de uma ampla reforma institucional, social e econômica, e a criação da corte suprema de Atenas, a Helieia, permitiu a qualquer pessoa recorrer de decisões injustas de tribunais inferiores, estabelecendo assim o princípio de que a lei se encontrava acima do magistrado, a quem cabia apenas aplicá-la. Talvez mais importante, o direito ateniense foi muito influenciado pela filosofia grega e, por meio dela, permitiu aos romanos "construir um direito sistematizado e governado pela razão e pelo dever", a ponto de se poder falar em um "sistema científico". A Lei das Doze Tábuas era parte daquilo que os romanos entendiam como "ius civile" ou direito dos cidadãos, e que era aplicável unicamente aos cidadãos romanos. Conforme a república deu lugar a um império, seus governantes enfrentaram o crescente desafio de governar uma população cada vez mais diversa e decentralizada, e disputas entre os cidadãos romanos e os não-cidadãos, que viviam ou viajavam por seus territórios, mostraram a exaustão do "ius civile" frente a muitos desses casos. Assim, gradualmente foi se desenvolvendo o chamado "ius gentium" ou direito dos povos, constituído por leis aplicáveis a todas as pessoas livres, independente de sua nacionalidade, e que, na visão dos romanos, era fundado nos princípios e valores compartilhados por toda a humanidade. Mais tarde, com a sofisticação do direito romano, um outro desdobramento viu o dia na forma do "ius honorarium", constituído de precedentes e soluções adotados por magistrados, particularmente o pretor, e que facilitava a aplicação das leis ao fornecer elementos para suprir suas lacunas e mesmo corrigi-las.Ao longo da história de Roma, cada uma dessas fontes do direito romano evoluiu consideravelmente em conteúdo e importância, permitindo ao direito transformar-se e manter sua vitalidade. Pelos idos de Cícero, o "ius honorarium" parece ter sido a maior e mais importante fonte do direito e, pela época de Diocleciano, já durante o Império, uma rica tradição de jurisprudência se encontrava consolidada. Pouco a pouco, as análises dos resultados das decisões relativas ao "ius gentium" e ao "ius honorarium" passaram a ser estendidas ao "ius civile" e, gradualmente, levaram a uma maior integração das fontes do direito romano e à constituição de uma legítima ordem jurídica (). Durante o império também surgiu um quarto elemento do direito romano, chamado "ius novum", constituído de leis, opiniões do Senado Romano (), decretos do imperador e decisões de outros magistrados () sobre assuntos que não estavam vinculados pelas regras comuns do direito. Com a maior complexidade do direito, a administração da justiça passou a necessitar de um grupo maior de profissionais para operar o sistema de leis e decisões que havia sido desenvolvido. Assim, na segunda metade do século III AEC surgiu uma nova classe de especialistas treinados em direito, chamados "juristas", que não participavam diretamente da administração da justiça mas trabalhavam na interpretação do direito e na produção de pareceres formais sobre ele. O trabalho de sucessivas gerações de grandes juristas e a constituição de uma ciência jurídica — a "jurisprudentia" — elevaram-no ao seu ápice durante os sécs. I e II, que constituem o "período clássico do direito romano". No século que se seguiu à divisão entre o Império Romano do Ocidente e o Império Romano Oriental, Teodósio II ordenou uma compilação das leis romanas, o Código de Teodósio (), que foi aplicado em ambas as metades do império. Não muito depois, o Império Ocidental sucumbiu às migrações bárbaras que vinham ocorrendo na região, e o imperador bizantino Justiniano buscou reconquistar alguns dos territórios ocidentais que haviam sido perdidos para invasores germânicos, de forma a restabelecer o controle e um senso de unidade dentro do Império. Como parte desse desafio, o governo de Justiniano empreendeu um grande esforço de codificação das leis do império, e que resultou no "Corpus Iuris Civilis", formado por três documentos: Institutos (), uma introdução ao sistema jurídico romano; Digesto () ou Pandectas (), uma coleção de excertos de textos de juristas consagrados; e o Código Justiniano propriamente dito (), um conjunto de doze volumes com as leis imperiais. O "Corpus Iuris Civilis" tornou-se a fonte primária do direito nas áreas controladas pelo Império Bizantino, ao passo que a península Itálica e as demais províncias do Império Romano do Ocidente foram gradualmente perdendo elementos importantes de sua identidade romana, com evidentes reflexos em seus direitos. Idade Média. Apesar da queda do Império Romano do Ocidente, o direito romano continuou a ser aplicado em seu antigo território e também no Império Bizantino. Contudo, rapidamente o direito existente nessas duas regiões deu origem a direitos distintos, devido a processos evolutivos próprios. No Império Bizantino, graças às codificações de Justiniano e à preservação das instituições e do tratamento científico do direito, o direito romano, tal qual inicialmente moldado por Justiniano, continuou a ser utilizado por séculos. Na sequência da elaboração do "Corpus Iuris Civilis", Justiniano decretou limites para a sua interpretação por comentaristas, temeroso que o conteúdo da nova legislação fosse eclipsado por uma torrente de interpretações conflitantes. Essa limitação parece ter relaxado com o passar dos séculos, e o trabalho dos juristas bizantinos jamais deixou de existir efetivamente. Conjuntamente a isso, os imperadores que sucederam Justiniano continuaram a promover mudanças no direito, de acordo com os problemas sociais e econômicos que foram se apresentando e também porque as codificações justinianas jamais se tornaram a única fonte do direito no império. O "Corpus Iuris Civilis" foi um produto do governo bizantino, mas com conteúdo em latim e tratando do direito romano, isto é, de instituições e conceitos criados por uma cultura distante e cujas raízes se perdiam no tempo; como consequência, seu conteúdo jamais esteve inteiramente ao alcance da cultura jurídica predominantemente grega dos juristas bizantinos. Assim, os sucessores de Justiniano realizaram esforços a fim harmonizar e atualizar o direito bizantino, que existiu formalmente até a liquidação final do império, em 1453, mas continuou a influenciar a evolução dos direitos das nações que anteriormente eram parte da esfera de influência bizantina. Em paralelo, no território antes controlado pelo Império Ocidental, inicialmente o direito romano, na forma do Código de Teodósio, continuou a ser utilizado pelas populações de origem romana. Não obstante, com a ausência de um governo central e de uma classe de profissionais bem treinados para compreender e operar esse direito, ao longo dos séculos ele incorreu em processos de fragmentação e barbarização, ou seja, de fusão com os costumes dos povos germânicos que controlavam as diferentes regiões anteriormente romanas e de diversificação por conta da crescente feudalização. Pela época do reino de Justiniano, no antigo território ocidental surgiram ao menos três codificações empreendidas por povos germânicos, sendo a mais famosa a Lei Romana dos Visigodos (), que consistiam de compilações pouco refinadas de fontes jurídicas romanas. Como Roma havia construído o direito mais compreensivo e sofisticado até então, ele acabou adotado em grande medida pelos governos que a sucederam, embora de maneira pouco analítica e marcadamente desigual nas diferentes regiões. Assim, embora o direito romano jamais tenha deixado de existir completamente nas regiões que anteriormente eram parte do Império Ocidental, documentos do período mostram uma crescente quantidade de erros conceituais e ausência de originalidade e competência nas interpretações doutrinárias a seu respeito. Ao longo dos séculos de declínio do direito romano, contudo, essas atividades se encarregaram de manter vivas a memória e a admiração por sua qualidade, e eventualmente permitiriam avanços consideráveis nos direitos locais dos reinos europeus. Pelo século XI a Europa emergia da idade das trevas, e isso foi acompanhado de uma revalorização da cultura clássica, que levaria à criação das universidades e ao Renascimento do século XII. Como efeito mais imediato, esse movimento encorajou uma renovação no estudo do direito romano, sobretudo no sul da França e no norte da Itália. Embora o estudo do "Corpus Iuris Civilis" tenha avançado em alguma medida por conta disso, sobretudo nas universidades de Pavia e Ravena, esse avanço foi limitado e só ganhou verdadeiro impulso com a redescoberta em Pisa, no final do século XI, de uma cópia completa do Digesto de Justiniano. Esse documento foi imediatamente estudado pelos glosadores da Universidade de Bolonha, que, ao longo de um século e meio de trabalho, sucederam em estabelecer as bases teóricas para a compreensão atual do direito romano. Na Universidade de Bolonha milhares alunos de toda Europa aprendiam as técnicas de operação do direito lá desenvolvidas, e não o conteúdo de leis ou direitos específicos, e, a partir dela, os avanços no estudo do direito romano se difundiram por toda a Europa. Diversos motivos têm sido propostos para explicar esse fenômeno, dentre os quais a sobrevivência de instituições jurídicas romanas nos direitos praticados em diferentes partes da Europa; a versatilidade e amplitude do direito romano, que permitia resolver diversas questões para as quais os direitos dos países não tinham resposta; a adoção de novas leis, por diversos países, inspiradas no direito romano; e a crença no direito romano como sendo o direito comum a toda a cristandade. Esta última questão, de fato, parece ter sido a principal motivação dos glosadores. Por um motivo ou por outro, o a partir do século XI o direito romano passou a permear todos os direitos da Europa, embora em diferentes medidas e com suas próprias cronologias. Em um movimento que prenunciava o processo de formação dos Estados nacionais,"" ele encontrou a simpatia dos monarcas europeus, pois mostrou-se útil em seus esforços para impor seu poder real frente à nobreza feudal. Consequentemente, muitos reinos viram surgir codificações inspiradas no direito romano, ao passo que muitos daqueles que detinham poder localmente protestaram em busca de manter seus costumes locais e antigos privilégios. Esse processo, contudo, foi apenas parcialmente efetivo, pois nenhum reino da época possuía a força necessária para substituir completamente os direitos locais por uma burocracia centralizada. Assim, em primeiro lugar, apenas os casos envolvendo a alta justiça passaram a ser julgados pela cortes reais, enquanto tudo o mais permaneceu sob a jurisdição da nobreza local. Depois, o direito local continuou a ter preferência em relação ao direito romano, e este passou a ser utilizado como fonte subsidiária. Em última instância, em praticamente toda a Europa o "ius commune" () europeu, uma combinação de direito romano, direito canônico e direito local () continuou em uso até o final do século XVIII. Elementos do "Corpus" permaneceram uma fonte imediata do direito até tempos recentes, como na Alemanha, até em 1900, e na Escócia, África do Sul e Sri Lanka, até pelo menos a segunda metade do século XX; além disso, a técnica romana influenciou fortemente o processo das codificações nas Américas, na Europa e na Ásia a partir do século XVIII. Em grande medida por conta do "Corpus," o direito romano tornou-se a fundação da família romano-germânica de direitos e pode ser considerado "uma das mais poderosas forças formativas no desenvolvimento da civilização ocidental". Uma situação semelhante, mas em última instância excepcional, diz respeito à Inglaterra. No século XII a situação do direito desse país era essencialmente a mesma da Europa Continental: seu direito local era fundado nos costumes; diferentes condados, e até mesmo em unidades administrativas menores, possuíam diferentes direitos; o direito romano era estudado nas universidades e monastérios. Também como no continente, o direito romano penetrava o direito inglês por meio do direito canônico e das cortes eclesiásticas, que julgavam temas como casamentos e divórcios. Contudo, a partir de Henrique II o reino foi construindo um sistema de justiça relativamente bem organizado, e isso deu início a um processo de unificação do direito do país. O direito romano continuou a ser ensinado nas universidades, e, no século XIII, havia uma marcada distinção entre o direito romano, científico, e o direito dos tribunais ingleses, vernacular. Como na Europa, por essa época o perfil profissional desejado pela comunidade jurídica inglesa passou a compreender não apenas o direito romano, mas também o direito dos tribunais. O profissional ideal, portanto, passou a ser "mestre de ambos os direitos" () e, nessa qualidade, a conhecer bem o direito comum produzido pelos tribunais (). Essas bases do direito inglês"" se definiriam mais claramente durante a Era Tudor, quando os "Inns of Court" se impuseram às universidades quanto à formação dos juristas. Modernidade e Contemporaneidade. A partir dos sécs. XV e XVI a Idade Moderna trouxe consigo um novo ideário, que rompeu com a mentalidade medieval em benefício da "razão" como valor dominante e teve como consequência lógica uma busca crescente por igualdade e progresso. Embora valores de independência do indivíduo já estivessem presentes no direito romano, o ideário moderno mostrou-se "radicalmente novo" ao combinar "individualismo" (a libertação do indivíduo da tutela e da dependência de uma pluralidade de amarras sociais) e "universalismo" (a busca de libertação do indivíduo de seu próprio condicionamento) e torná-los os dois pilares de uma liberdade integral do indivíduo. Essa nova visão de mundo gradualmente ganhou toda a Europa, infiltrando primeiro as instituições e depois as mentalidades e maneiras, e chegou ao Novo Mundo, que, influenciado por ele, gradualmente passou a buscar sua própria independência. Enfim, em tempos mais recentes ela se generalizou por todo o planeta; como já se colocou, "essa globalização dos valores da modernidade ocidental é um fato histórico". O desenrolar da Modernidade foi marcado por mudanças maiores, dentre as quais a emergência do absolutismo, que findou com o sistema feudal medieval e fez surgir o Estado-nação burguês centralizado e burocrático; a individualização cultural e linguística das nações; a Renascença e a Reforma, intimamente ligadas à emergência de um humanismo fundado no valor do indivíduo e em suas possibilidades de acesso ao conhecimento; a Revolução Científica, que forneceria bases para o Iluminismo; e, enfim, o reconhecimento da democracia como condição indispensável para a liberdade individual. Como consequências dessas transformações, e em grande medida influenciada pelo pensamento político de Jean-Jacques Rousseau, a Europa e depois o mundo assistiram ao advento do direito individualista e universalizante moderno, que teve como expressão mais visível a Declaração dos Direitos do Homem e do Cidadão, considerada o marco fundador da nova relação do direito com o Estado e, portanto, um fundamento do direito na modernidade. O estabelecimento desse novo direito, cujo conteúdo é próprio a cada país, só foi possível com a formação do Estado-nação e sua estrutura sólida e ramificada, capaz de reclamar o desenvolvimento de um direito unificado e específico a ele; com o desenvolvimento de uma administração pública como algo mais amplo que a prestação da justiça e a gestão do tesouro; e com a gradual separação entre as funções de administração, prestação de justiça e legislativa. A partir de então, o Estado de direito veio a se consolidar como novo paradigma em todo o mundo, "equilibrando os direitos e as garantias individuais baseados numa concepção abstrata de indivíduo portador de direitos a serem salvaguardados pelo Estado e contra o Estado". A ciência do direito em si conheceu um grande desenvolvimento a partir dos novos valores modernos, em consonância com os valores políticos e sociais em transformação. Durante a Renascença, o interesse renovado na Antiguidade Clássica forneceu um novo contexto intelectual para o estudo do direito romano na Europa, sobretudo pela escola do humanismo jurídico da França, que promoveu uma nova atitude crítica em relação a ele, contextualizando-o e historicizando-o. Ao fazer isso, ela passou a admirar e advogar a racionalidade do direito romano, mas acabou por questionar a sua autoridade e validade prática, pois, ao constatar que ele fôra um produto da sociedade romana e mudara com as circunstâncias de seu tempo, concluiu que o direito francês deveria ser um produto da sociedade francesa e adaptado às suas necessidades. Paradoxalmente, o humanismo jurídico acabou defendendo uma separação estrita entre interesses históricos e práticos, e isso levou-o a permanecer um movimento sem forte influência na prática jurídica. Contudo, pela mesma época os Países Baixos e a Alemanha viram surgir uma nova escola do direito natural, influenciada pela filosofia grega e pelo racionalismo protestante. Fundada por Hugo Grócio, ela defendia a existência de princípios jurídicos racionais inerentes à razão natural dos seres humanos — independentemente da religião e valores sobrenaturais — e sua busca em textos e documentos da Antiguidade, especialmente no direito romano. Embora esse "novo direito natural do Iluminismo" não se confundisse o direito romano, utilizando-o apenas como base para seus próprios sistemas de leis, muitos dos seus princípios sobreviveram como princípios do direito natural. Além de ter lançado as bases do direito internacional moderno, essa escola desencadeou e influenciou fortemente a era das codificações; mesmo nos países da "common law", onde esse movimento não se fez tão presente, ele deixou suas marcas no direito privado. Era das codificações. O termo "era das codificações" foi cunhado pelo filósofo Jeremy Bentham para designar um movimento de codificação que varreu a Europa continental no século XVIII e se deu pela aplicação das teorias do direito natural na criação de legislações escritas abrangentes, com base, sobretudo, na razão natural (não religiosa ou de qualquer outra origem) do ser humano. A teoria do direito natural fundado na razão forneceu critérios e padrões para a definição de direitos subjetivos essenciais e permitiu ao jurista questionar o valor e a qualidade do direito, ao passo que o fenômeno da codificação "abriu as portas para a possibilidade de repensar e reformular todos os princípios, premissas e pilares fundamentais dos sistemas jurídicos europeus". Isso daria origem aos códigos especializados, que deveriam conter, de maneira coerente e sistematizada, a totalidade dos princípios e regras relativos a cada ramo do direito. O fenômeno da codificação foi particularmente significativo na França nos anos seguintes à Revolução de 1789, mas também foi importante na Confederação Germânica e se espalhou, em diferentes graus, por todo o mundo durante os sécs. XIX e XX. O Código Napoleônico de 1804 foi a conquista mais proeminente da era das codificações; considerado um monumento à perfeição da razão, transpôs para o direito a articulação intelectual da soberania nacional: a França, como Estado unificado, deveria ter um direito comum para todos os cidadãos, baseado na razão e não nos costumes. Sua influência iniciou-se com as Guerras Napoleônicas, mas estendeu-se a outras partes da Europa (Bélgica, Luxemburgo, Holanda, Itália, Espanha, Portugal, Hungria, Romênia e Grécia), e à América Latina, Turquia, Egito, China, Japão e Luisiana (Estados Unidos). Já o posterior o Código Civil Alemão de 1900, embora tenha tido influência considerável do direito romano e seja um produto tardio do movimento de codificação, teve uma origem fundada no positivismo jurídico. O Código Napoleônico inspirou um movimento semelhante na Alemanha, interessado em sistematizar e unificar as várias leis heterogêneas vigentes no país, mas que foi oposto pela Escola Histórica do Direito, que defendia que um direito para todos os reinos alemães não poderia ser identificado unicamente a partir da razão, porque o direito seria um produto da cultura e dos hábitos de cada sociedade. Seu membro mais ilustre, Friedrich Carl von Savigny, defendia que povo tem uma história, um caráter e uma consciência próprios — um "espírito nacional" () — que imprimem suas marcas no direito e nas instituições jurídicas. Seu discípulo Georg Friedrich Puchta daria continuidade a esse trabalho e, com base no método da jurisprudência dos conceitos, deu passos importantes para o estabelecimento do direito como uma ciência jurídica positiva, com uma existência independente dos aspectos éticos, políticos e econômicos da vida social. Nessa nova concepção, as regras de direito somente poderiam ser extraídas de um sistema integrado de normas positivadas. Embora no longo prazo tenha prevalecido o interesse em unificar e codificar o direito civil alemão, o Código Civil Alemão, que começou a ser elaborado algumas décadas depois, foi muito influenciado pela perspectiva da Escola Histórica do Direito e influenciaria o direito de numerosos países, notadamente Japão, Suíça, Grécia, Rússia e os países escandinavos. Globalização do direito. Um dos eixos centrais da Modernidade, a globalização foi acompanhada de um fenômeno de difusão de modelos jurídicos que se convencionou chamar "globalização do direito". Esse fenômeno jurídico, iniciado com a Modernidade e que se estende até a Contemporaneidade, corresponde à "constituição progressiva de uma base de regras e princípios comuns que se traduz em "um movimento de aproximação dos sistemas jurídicos dos Estados"" ou ainda à "intensidade em que o mundo inteiro vive sob um conjunto único de regras jurídicas [...] imposto por um único ator coercitivo, adotado por consenso global ou alcançado por desenvolvimento paralelo em todas as partes do globo". Dito de outro modo, a globalização do direito constitui "a criação de um fundo comum de regras de aplicação geral" que não se confunde com uma verdadeira "ordem jurídica transnacional" que supera os direitos do Estado, mas sim que, normalmente, se difunde pela incorporação de regras comuns pelos diferentes direitos nacionais. A aprovação da Declaração Universal dos Direitos Humanos em 1948 é um exemplo disse tipo, que, embora seja um documento não vinculante, orientou, voluntariamente, o desenvolvimento dos direitos nacionais rumo a objetivos comuns: ela levou à criação, negociação e aprovação de regras em direito internacional pelos Estados, que em seguida têm sido incorporadas aos direitos nacionais. Contudo, embora o desenvolvimento expressivo do direito internacional ao longo do século XX seja um eixo da globalização do direito, esta corresponde "a uma etapa radicalmente nova e qualitativamente diferente", pois, enquanto a internacionalização do direito foi apoiada e levada a cabo pelos Estados-nação, "a globalização escapou amplamente de suas garras e seu escopo não é mais apenas econômico, mas também social, cultural e político". A globalização do direito, portanto, se apoia também em outros eixos não necessariamente tutelados pelos procedimentos convencionais do Estado: esse fenômeno jurídico é inseparável da globalização em geral, e a globalização de certos valores contribui positivamente para a construção de regras comuns entre os Estados. Para alguns autores seria possível falar em um processo de globalização do direito dividido em três fases que sobrepõem parcialmente. A primeira delas, que vai da metade do século XIX até o princípio da Primeira Guerra Mundial, teve como mecanismos de ação a imposição do direito das metrópoles ocidentais ao mundo colonizado, a "abertura forçada" de nações não ocidentais que escaparam ao colonialismo e "o prestígio da ciência jurídica alemã" no mundo ocidental. A segunda fase dessa globalização se estende do início do século XX a 1968, e foi alimentada principalmente pelos movimentos reformistas de todas as faixas políticas no Ocidente desenvolvido, pelos movimentos nacionalistas nos países periféricos e pelas elites dos países que se tornaram independentes após o fim da Segunda Guerra Mundial. A terceira fase, correspondente ao período que vai do fim da Segunda Guerra Mundial até o princípio do século XXI, foi movida pela influência americana na sequência da Segunda Guerra Mundial e da Guerra Fria, e uma "nova consciência jurídica" dos Estados que, para poderem participar no mercado mundial, se veem compelidos a respeitar as "condições estabelecidas por empresas multinacionais e instituições reguladoras internacionais". Inflação regulamentar. Ao longo dos sécs. XIX e XX o positivismo jurídico se firmou como tendência dominante, tanto nos direitos romano-germânicos quanto nos da "common law", e o direito, apreendido como uma ordem normativa pura ou carregado das aspirações éticas do humanismo, continua amplamente ancorado no pensamento racionalista clássico e na premissa de que é "possível apreender objetivamente a realidade, racionalizá-la de acordo com categorias jurídicas abstratas e atuar sobre elas por meio de comandos escritos de valor geral, impessoal e permanente". Assim, a chamada "inflação legislativa" se estabeleceu como uma forte tendência da Contemporaneidade, como testemunha da crença no poder da lei em produzir resultados práticos e alimentada pelo apelo à lei por parte de múltiplos grupos de interesse e de lobismo e pelo impulso regulador do Estado. Apesar de críticas contundentes clamando por uma redução da pressão jurídica sobre a vida social, especialmente a vida econômica, e do estabelecimento de mecanismos para conter o reflexo regulatório da administração pública (por meio do controle parlamentar, da avaliação prévia das repercussões das lei, e de uma abertura maior à participação pública no processo legislativo), ela tem se mostrado persistente e imune a tentativas de redução radical do volume do arcabouço jurídico. Em geral, mesmo a "política de menos Estado" tem se mostrado incapaz de realizar uma varredura, e, como já se colocou, mesmo os governos neoliberais mais extremados se veem obrigados a continuamente introduzir novas leis e a regulamentar novos setores e atividades. Juridicização e judicialização das relações sociais. Por fim, a Contemporaneidade tem sido marcado por uma crescente "juridicização" das relações sociais — a tendência generalizada de que conflitos sociais sejam discutidos sob o ponto de vista jurídico, que tem como uma de suas principais consequências a "judicialização" das relações sociais, entendida como a tendência de que litígios sejam submetidos ao judiciário, em detrimento de outros modos de solução de conflitos. As discussões sobre esses fenômenos foram iniciadas na Alemanha no início do século XX por Otto Kirchheimer, no contexto da institucionalização dos conflitos de classes e da progressiva reorientação de disputas sociais e políticas para formas jurídicas de resolução de conflitos, que ocorriam na transição do Império Alemão para o modelo de Estado social que se iniciava com a República de Weimar. Segundo Jürgen Habermas, essa foi uma etapa dos "surtos sucessivos de juridicização" que se iniciaram com a formação do "Estado burguês" e depois continuaram com as suas transições sucessivas para o "Estado de Direito," o "Estado de Direito democrático" e o "Estado de Direito social e democrático" no decorrer do século XX. A juridicização, portanto, é um "inevitável efeito secundário do êxito do compromisso social" do Estado e se manifesta em face de uma crescente interferência da economia e do Estado na esfera da experiência dos indivíduos. Consequência de um movimento civilizatório, ela apresentou benefícios evidentes, embora frequentemente intangíveis e imensuráveis, como maior justiça social, maiores oportunidades para as mulheres e minorias, expansão das liberdades civis, procedimentos justos no interior das instituições e limites mais firmes ao governo; e a expansão dos direitos subjetivos individuais e coletivos e um melhor conhecimento, por parte do cidadão ou pessoa moral, a respeito dos seus direitos. Contudo, nesse contexto o Poder Judiciário assumiu gradualmente um papel mais pronunciado na garantia e concretização de direitos encartados nas Constituições, e foi se transformando em depositário das esperanças individuais e coletivas "como um verdadeiro superórgão capaz de resolver todas as diferenças existentes", em detrimento de meios alternativos de composição em conflitos. No longo prazo, isso acarretou uma "crise no Poder Judiciário", que tem como efeitos mais visíveis o abarrotamento dos tribunais, que impede que atendam satisfatoriamente as demandas que lhe são submetidas, e também uma "cultura da litigância" que produz outras consequências indesejadas. No âmbito econômico, além da litigância em si ser custosa, ela leva à adoção de estratégias “defensivas” nos negócios e reprime a inovação. No âmbito do setor público, ela onera o Estado e reprime programas e projetos, e leva à multiplicação do número de órgãos jurisdicionais e dos riscos de incerteza jurisdicional, que resultam em maior lentidão da justiça e, em última instância, na necessidade de reformas do aparato do Judiciário. Por fim, no âmbito das relações humanas, o direito de ação e o processo judicial por vezes passam a ser instrumentos de vinganças pessoais, tornando o Poder Judiciário "palco de rixas pessoais, íntimas e odiosas, quando não uma verdadeira loteria jurídica"; e expõem os limites do modelo judicial de resolução de conflitos, na medida em que ele — adversarial e fundado na oposição de interesses — se revela particularmente mal adaptado a conflitos envolvendo partes comprometidas em relacionamentos contínuos ou comunitários, como as relações de vizinhança e família. Natureza. Numerosas definições do direito convivem no quotidiano da comunidade jurídica, em geral salientando sua dimensão prática — por exemplo, como "" — ou, principalmente, sua dimensão normativa, isto é, a norma jurídica como seu elemento-base. Dentre as definições de direito mais comumente aceitas, estão sua caracterização como um "corpo" ou "sistema" de regras que busca "guiar o comportamento humano" e "oferece razões para a ação", ou ainda de "regras de ação ou conduta [...] com força legal vinculativa" e "que regulam o comportamento das pessoas [...] através do estabelecimento de direitos e deveres". Apesar da utilidade dessas definições, aqueles que se debruçaram mais longamente sobre essa questão têm sugerido que dificilmente o fenômeno jurídico poderá ter sua natureza expressa, satisfatoriamente, na forma de uma definição concisa. Na realidade, a busca por uma caracterização precisa do direito tem desafiado desde longa data operadores do direito, cientistas sociais e, principalmente, jusfilósofos, em parte porque o direito é "um fenômeno social complexo que é [...] um dos aspectos mais intrincados da cultura humana" mas também porque essa tarefa pressupõe que ele possui certas características e uma natureza universais, presentes onde e quando ele jamais existiu. Não por acaso, as tentativas de produzir uma definição de direito suscitaram questionamentos importantes a respeito das limitações dessa empreitada e da possibilidade de realizá-la. Assim, enquanto invariavelmente os especialistas reconhecem a dificuldade de se produzir uma definição precisa mas também operacional de "direito", alegando que a maior parte daquelas que já se pôde produzir são excessivamente genéricas ou restritivas, outros vão mais longe e consideram-na impraticável, embora nem sempre concordando a respeito da utilidade de se buscar realizá-la. Notadamente, enquanto já se sugeriu que tal definição não poderia ser produzida, e que, na realidade, não existiria necessidade de produzi-la pois a operação do direito e a realização da justiça não dependeriam necessariamente de uma definição tecnicamente precisa do que é o direito, outros, que concordam quanto à impossibilidade de definir o que é o direito, salientam como sendo igualmente evidente a necessidade de que a luta para defini-lo nunca seja abandonada. Os principais esforços para definir o direito de maneira precisa e universal partem da constatação de que o direito é um domínio normativo — tal qual outros domínios que buscam orientar o comportamento humano, como a moral, a religião, as normas sociais e a etiqueta — e buscam explicar em quê ele difere desses outros tipos de domínios normativos, como se dá a sua relação com eles e em que medida sua operação depende desses outros domínios, sobretudo o da moral. Nessa linha, muitos buscaram individualizar o caráter do direito por meio do seu "conteúdo", alegando que cada uma de suas normas “institui ao mesmo tempo um direito a um sujeito e um dever a um outro” e, portanto, que a norma jurídica se distinguiria por sempre regular uma relação intersubjetiva — diferentemente das normas morais, que são unilaterais. Como já se colocou, contudo, embora essa noção seja muito difundida por explicar a dimensão prática do direito, ela falha em diferenciar o direito de outros domínios normativos intersubjetivos, como aquele das normas sociais. Outros, buscaram diferenciar o direito a partir de sua "finalidade", alegando que ele regula relações intersubjetivas diferentes daquelas reguladas pelas normas sociais, isto é, apenas as relações intersubjetivas envolvendo ações necessárias à "conservação da sociedade". Dito de outro modo, nem toda ação humana é necessária à conservação da sociedade mas, aquelas que o são, ao longo da história vão se distinguindo e passam a ser normatizadas, isto é, tornam-se direito. Contudo, também aqui se apresenta uma forte objeção, pelo fato de as normas jurídicas — aquelas que seriam necessárias à conservação da sociedade — serem diferentes em cada sociedade e mudarem no curso do tempo, e, por esse motivo, ser impossível "fixar de modo unívoco os caracteres que fazem de uma norma uma regra essencial à conservação da sociedade. Enfim, o debate a respeito da natureza do direito tem como eixo maior as questões das condições de validade e dos fundamentos da normatividade do direito. Historicamente, duas tradições filosóficas principais têm se concentrado sobre esse propósito, as chamadas correntes jusnaturalista e juspositivista, que se desdobram em uma ampla variedade de concepções e teses e se opõe frontalmente quanto a algumas delas. Embora alguns autores apontem a diminuição da importância dessa dicotomia na atualidade e indiquem a emergência de rótulos, como direito pós-moderno, pós-positivismo e não-positivismo principiológico, que expressariam a sua superação, alguns aspectos da relação entre essas duas correntes permanecem profundamente divergentes e, portanto, continuam a alimentar um intenso debate. Tradição do direito natural. A tradição do direito natural, também chamada jusnaturalista, é a mais antiga das duas principais correntes filosóficas que buscam explicar a natureza do direito, e, em sua forma contemporânea, remonta à Idade Média Tardia. Embora suas bases possam ser traçadas até a Antiguidade, na forma das concepções mítico-religiosas que as civilizações grega e romana atribuíam ao direito, e algumas de suas concepções tenham sido objeto da atenção de filósofos cristãos iniciais, como Agostinho de Hipona, ela viria a se desenvolver como uma tradição filosófica autônoma a partir da Escolástica da Baixa Idade Média. A Idade Moderna, por sua vez, viu surgirem novos vetores de justificação do direito natural, desprendidos da religião e fundados em uma "natureza [humana] racional e autônoma".Dentre as diversas correntes específicas que se filiam a essa tradição filosófica, ao menos dois postulados centrais são comuns a todas elas. O primeiro deles sustenta que "existem princípios morais de justiça que são universalmente válidos e acessíveis à razão humana” e pode ser dividido em dois postulados menores: de um lado a tese de que existem princípios morais de justiça que são universalmente válidos, e que, portanto, incidem sobre todas as pessoas, individual ou coletivamente, independentemente de onde e quando essas pessoas existem; e a tese de que esses princípios morais de justiça são acessíveis à razão humana, ou seja, podem ser deduzidos ou intuídos. E o segundo desses postulados maiores consiste na ideia de que o direito positivado seria uma expressão desses princípios morais universalmente válidos e acessíveis à razão humana, o que, por sua vez, implica que "um sistema normativo ou uma norma não podem ser qualificados de jurídicos se contradizem ou não passam pelo crivo de tais princípios”. Assim, o jusnaturalismo carrega em seu cerne a noção de que a autoridade de que o direito se reveste — a sua normatividade — repousa sobre uma "criteriologia e autoridade externa [...] ao órgão produtor do direito", isto é, provém "da natureza das coisas ou da natureza do homem, da razão humana ou da vontade de Deus". As normas positivadas na legislação e nas outras fontes jurídicas seriam apenas uma expressão do direito natural. Como o direito natural seria o fundamento do direito positivo, ele constituiria "um critério aferidor da atividade legislativa" e, portanto, imporia limites à atividade do legislador em termos do que pode ou não ser objeto de normas de direito. Da mesma forma, em uma concepção jusnaturalista os conteúdos das normas positivadas devem ser julgados em relação aos princípios morais derivados do direito natural, e só seriam normas jurídicas as normas positivadas que são justas — aquelas que se identificam com esses princípios morais (a chamada "versão forte" da tese jusnaturalista) ou não os contradizem (a "versão fraca"). Para os adeptos das teses jusnaturalistas, portanto, falar em "direito justo" é um pleonasmo e falar em "direito injusto" constitui uma contradição. Nos termos de um famoso ditado, atribuído a Agostinho de Hipona, "lex iniusta non est lex" (). Ao longo de sua história, o jusnaturalismo angariou críticas contundentes por permitir justificar toda sorte de valor moral e por fundar-se em "construções arbitrárias e subjetivas". Mais especificamente, sua versão tradicional e mais difundida encontrou uma grande objeção com a emergência daquele que se tornou o "fator determinante da desqualificação recente do direito natural": a progressiva emergência da "ciência moderna e o seu paradigma da cientificidade" e a consequente constatação de que "é, simplesmente, difícil sustentar que a lei moralmente ruim não é lei". Assim, a tradição do direito natural passou por reformulações consideráveis no século XX, notadamente por meio do trabalho de Ronald Dworkin. Ao contrário de outros membros dessa tradição, Dworkin, um jusnaturalista atípico, jamais sustentou que um conteúdo moralmente aceitável seria um pré-requisito para a validade da norma jurídica, preferindo concentrar-se na distinção entre fatos e valores (entre o que a lei é e o que deveria ser) e em argumentar que a relação entre essas duas instâncias é muito mais confusa do que o positivismo jurídico gostaria de fazer ver. Para ele, "determinar o que é o direito, em casos particulares, depende inevitavelmente de considerações político-morais sobre o que deveria ser", e, além do mais, uma categoria específica de normas jurídicas, os princípios, seria essencialmente moral em seu conteúdo. Tradição do positivismo jurídico. Embora as origens da tradição filosófica do positivismo jurídico, também referida como juspositivista, remontem aos trabalhos de filosofia política de Thomas Hobbes, ela foi articulada principalmente desde o início do século XIX por estudiosos como Jeremy Bentham e John Austin. Mais recentemente, a tradição juspositivista foi continuada e refinada por alguns dos mais importantes e influentes juristas do século XX, como Hans Kelsen, Joseph Raz e H. L. A. Hart. A emergência desta tradição filosófica foi uma expressão do paradigma da cientificidade na reflexão sobre o direito, ensejada pela busca de "um direito não duvidoso, inequívoco, e que estivesse a salvo das arbitrariedades e injustiças". Gradualmente, ela viria a desqualificar a pretensão de cientificidade do jusnaturalismo até então defendido. A tese central da tradição positivista, por vezes chamada "tese do positivismo conceitual", é comum a todas as suas principais correntes e sustenta que "o direito não deve ser identificado utilizando critérios valorativos, mas sim critérios fáticos, empíricos, objetivos" ou ainda "fatos sociais". Dito em outras palavras, para juspositivistas o direito é "um artefato humano, o resultado de uma escolha, convenção ou práticas sociais convergentes", cujo conteúdo pode ser identificado objetivamente. Essa proposição se desdobra em duas outras, ditas "tese social" e "tese da separação". Em primeiro lugar, a "tese social" sustenta que o direito é um fenômeno intrinsecamente social e que, portanto, as regras do direito são produto da sociedade e as condições para sua validade são fundadas nas práticas da sociedade. Inicialmente inspirados nas constatações de Hobbes de que o direito é sobretudo um instrumento de soberania política, os primeiros positivistas argumentaram que o direito seria essencialmente o comando do soberano. Mais tarde expoentes dessa vertente modificaram essa tese, passando a justificar os fundamentos da validade do direito em uma norma fundamental (no caso de Kelsen) ou regra de reconhecimento (no caso de Hart). Este é um dos pontos fundamentais de discordância entre as tradições filosóficas juspositivistas e jusnaturalistas, visto que essa última sustenta que o conteúdo do direito positivado deve responder aos preceitos do direito natural, isto é, à moralidade universal, sob pena de não constituir direito. Dito de outro modo, as correntes jusnaturalistas — em oposição à tese social juspositivista — sustentam que o conteúdo moral das normas, e não apenas sua fundamentação em uma norma fundamental, também é necessário à sua validade jurídica. Em seguida, a "tese da separação" é consequência da "tese social" e sustenta que há uma separação fundamental entre o direito e a moralidade, ou seja, "entre o que o direito é e o que o direito deveria ser". Essa tese, evidentemente, não implica a negação de que o direito possa, pela sua natureza ou pelas funções essenciais que cumpre na sociedade, conter algo de bom que seja merecedor de apreciação moral; ou ainda a negação de que muitas vezes as normas de direito apresentam uma sobreposição considerável com a moralidade. O conteúdo dessa tese refere-se às condições de validade jurídica, e, mais especificamente, à independência entre essas condições e os méritos morais das normas em questão. Como consequência, a vertente positivista do direito admite que se possa identificar e descrever o direito de um povo sem que isso implique em julgamentos de valor a respeito do seu conteúdo e, semelhantemente, que regras jurídicas podem ser consideradas injustas, sem que isso as torne menos jurídicas. Coercitividade e normatividade. Historicamente o direito tem sido percebido como uma instituição que impõe suas demandas práticas por meio de ameaças e violência institucionalizadas; de fato, muitos filósofos positivistas sustentaram que a normatividade do direito reside em sua coercitividade, e essa permanece a opinião mais comum dentre os juristas. Essa questão, inclusive, tem levado parte da comunidade jurídica a julgar que o direito internacional na realidade não seria parte do direito, visto que não existe "um governo mundial capaz de legislar e fazer cumprir essas leis por meio de um sistema supranacional de sanções, como uma força militar internacional independente". Essa posição é amplamente difundida dentre os adeptos da concepção positivista do direito, mas também foi defendida pelos primeiros sociólogos do direito, como Max Weber, para quem a essência do direito seria um poder de polícia ostensivo, isto é, "uma ordem será chamada de direito se for externamente garantida pela probabilidade de que a coerção [...] será aplicada por uma equipe de pessoas especialmente preparadas para esse fim". Contudo, enquanto positivistas iniciais, como Bentham, Austin e Kelsen adotaram uma posição reducionista a esse respeito, sustentando que a coercitividade é a característica fundamental do direito, aquela que permite distingui-lo dos outros domínios normativos e constitui sua principal função na sociedade, ao longo do século XX essa questão tem conhecido uma revisão, inclusive devido a aportes mais recentes da sociologia jurídica.Alguns autores, por exemplo, argumentaram que a coercitividade não é exclusiva ao direito, visto que alguns tipos de punição — como multas, suspensões, processos disciplinares e demissão, mas não a capacidade de prisão — existem em setores exteriores ao direito. Outros, ainda, buscaram demonstrar que, embora toda norma jurídica seja prescritiva, quer dizer, busque influenciar e modificar o comportamento humano, nem toda estabelece um comando ou imperativo, visto que existem normas que permitem comportamentos e atribuem faculdades. Joseph Raz e Herbert Hart, ao tratarem desse tema, sustentaram que a coercitividade do direito é um aspecto mais marginal do que seus antecessores presumiram, e que o direito desempenha outras funções fundamentais na sociedade, para além de fornecer uma previsibilidade de reação hostil aos infratores e, assim, incitar as pessoas a buscar evitar sanções. Notadamente, Hart defendeu uma concepção do direito como um fenômeno "fornecedor de razões" para a ação humana, e que, além de oferecer a previsibilidade de sanção para infratores, também supre a "razão ou justificação" para que essas sanções sejam aplicadas. Embora tenha enfatizado a importância da normatividade do direito, esse autor considera que indivíduos e instituições se sujeitam a ele porque "aceitam" as suas regras como sendo válidas e, portanto, vinculativas. Ainda mais recentemente, a aplicação da teoria dos jogos à investigação da natureza do direito tem apresentado evidências que, em uma grande variedade de arranjos jurídicos, o funcionamento do direito pode ser explicado por sua função em resolver problemas de oportunismo, como no exemplo do dilema do prisioneiro. Essas evidências apontam, portanto, que o direito pode exercer uma função de "fornecer incentivos coercitivos para o benefício mútuo de todas as partes envolvidas". Além disso, outras vertentes filosóficas têm sublinhado que o direito exerce outras funções na sociedade, como resolver problemas de coordenação entre diversas pessoas, estabelecer padrões para comportamentos desejáveis, positivar expressões simbólicas de valores comunais e resolver disputas sobre fatos, todas elas funções que "têm muito pouco a ver com o aspecto coercitivo do direito e suas funções de imposição de sanções". Estrutura. Historicamente, a estrutura do direito tem sido dividida em uma série de categorias. Embora por vezes elas sejam difíceis de constatar e suas fronteiras possam se sobrepor, essa tradição de qualificação do direito oferece vantagens evidentes em termos de sistematização e organização, e também oferece ao jurista elementos adicionais que o permitem identificar o regime jurídico adequado a cada situação de fato. De uma maneira semelhante, essas categorias orientam o jurista quanto a outras informações relevantes para a solução problemas concretos, e que podem estar relacionadas a cada categoria: dados históricos, princípios filosóficos, elementos do contexto social, dentre outras. Direito público e privado. Tradicionalmente considerada a divisão primária e estruturante do direito, a distinção entre direito público e direito privado é uma classificação interna, que é aplicada a cada direito com o objetivo de categorizar as normas que o compõem; assim, em tese ela permite enquadrar toda norma e instituto jurídico. Dada a sua abrangência e notoriedade, ela é frequentemente chamada "summa divisio" do direito, a sua divisão interna suprema. Essa classificação tem como pano de fundo os direitos subjetivos de que são portadoras pessoas de direito envolvidas em uma relação jurídica. Sua história remonta à Roma Antiga e parte da distinção entre os interesses da esfera particular, envolvendo indivíduos e grupos de pessoas, e os interesses públicos, intimamente relacionados à noção de Estado e merecedores de proteção privilegiada por importarem à coletividade. Assim, do ponto de vista formal, o direito público compreende "todas as normas jurídicas relativas à existência, organização, funcionamento e relações do Estado", ao passo que o direito privado é constituído das "normas que disciplinam o exercício das atividades privadas", ou seja, as normas "relativas à existência, organização, funcionamento e relações das pessoas privadas, dos indivíduos". Enquanto ao primeiro cabe "disciplinar o sujeito que exerce a atividade pública", ao segundo compete fazer o mesmo em relação ao sujeito que exerce atividade privada. A dicotomia direito público/direito privado se encontra amplamente presente no quotidiano da comunidade jurídica, desde a organização das faculdades de direito até a divisão dos tribunais. Contudo, o seu interesse não é meramente uma questão de organização e sistematização, pois todo ato jurídico deve respeitar os princípios jurídicos da esfera a que pertence. Assim, essa divisão tem interesse prático porque parte dos princípios aplicáveis ao direito público e ao direito direito privado são diferentes, isto é, os atos praticados na esfera pública tendem a ser orientados pelos princípios da supremacia e da indisponibilidade do interesse público e, na esfera privada, os atos respondem a princípios como o da liberdade e da autonomia da vontade. Assim, a análise da legalidade de um ato jurídico frequentemente depende da identificação da esfera, pública ou privada, a que ele pertence. A identificação do direito aplicável a situações concretas, contudo, frequentemente é uma tarefa complexa, e diversos critérios têm sido propostos para que o intérprete do direito possa diferenciar normas de direito público e de direito privado, notadamente o "critério do interesse" (predominância do interesse público ou do interesse privado na relação jurídica em questão); o "critério do sujeito" (natureza dos sujeitos envolvidos na relação jurídica em questão); e o "critério da subordinação" (se o Estado age como ente soberano ou se age de igual para igual com os demais sujeitos da relação jurídica, o que configuraria uma situação de direito privado). Apesar do seu interesse, essa dicotomia tem sido objeto de críticas devido ao seu caráter absoluto, incapaz de "encarnar a verdade eterna e universal de todos os fenômenos jurídicos". Como já se colocou, enquanto no passado essa dicotomia podia compreender com mais precisão a realidade das relações sociais e, portanto, do direito, a Modernidade e a Contemporaneidade viram transformações radicais que diminuíram a nitidez da distinção entre as esferas publica e privada. Além disso, a Modernidade viu surgirem novas categorias de interesses transindividuais, meta-individuais e coletivos, nas quais o interesse de grupos sociais e da sociedade como um todo não se confundem com o do Estado, e que, portanto, trazem subjetividade à tarefa de identificação da esfera a que pertencem os interesses a serem protegidos. Direito interno e internacional. Historicamente, a divisão entre direito interno e direito internacional tem como objeto a distinção entre, respectivamente, as normas aplicáveis no interior de um Estado e as normas aplicáveis às relações entre os Estados. Embora no passado essa concepção do direito internacional, com base unicamente nas relações entre Estados, tenha sido lugar-comum, muitos especialistas consideram-na ultrapassada devido a um fenômeno recente de diversificação do direito internacional. Assim, concepções mais atuais do direito internacional podem tomar como base a noção de "sujeito de direito internacional", que compreende uma diversidade de entidades como Estados, a Santa Sé, organizações internacionais, movimentos sociais com reconhecimento internacional, e, em algumas situações específicas, até mesmo indivíduos e empresas privadas; o critério do "objeto das normas", segundo o qual o direito internacional é aquele relativo a assuntos internacionais; ou ainda o critério do "processo de formação das normas", segundo o qual o direito internacional é aquele que emana de certas fontes, dentre as quais têm destaque os tratados. A relação entre o direito interno e o direito internacional é complexa e suscita uma série de questionamentos, sobretudo a respeito da sua subordinação mútua. Ao menos duas correntes teóricas principais tentam explicar a relação entre eles, embora nenhum país siga à risca qualquer uma delas, preferindo adaptá-las para criar suas próprias maneiras de lidar com a relação entre as regras do direito interno e do internacional. Essas duas teorias são chamadas "monista" e "dualista". A corrente monista propõem a unidade das normas internas dos países e das aplicáveis internacionalmente; a proeminência do direito internacional ou a proeminência do direito interno em caso de conflito; e a aplicação direta das normas internacionais sem a necessidade de que elas sejam convertidas em lei interna. Dito em maior detalhe, as teorias monistas afirmam haver um sistema único composto pelas normas internas e internacionais, e caracterizado por uma hierarquia, que, dependendo da teoria em questão, pode ser encabeçada pelas regras internacionais (primado do direito internacional) ou pelas normas internas (primado do direito interno). As diferenças entre o direito interno e o direito internacional seriam apenas uma questão do escopo de sua validade (o direito interno válido somente para o território de um estado e para um período determinado e os domínios de validade do direito internacional, em tese, ilimitados) e de centralização (a relativa descentralização do direito internacional e a relativa centralização do direito interno). Um exemplo dessa concepção monista pode ser visto no direito dos Países Baixos, que, em caso de violação aos direitos humanos, autoriza o juiz a aplicar os dispositivos da Pacto Internacional dos Direitos Civis e Políticos mesmo quando as suas normas estiverem em desacordo com a lei holandesa. A corrente dualista, por sua vez, prega a separação dos dois tipos de normas, a superioridade do direito nacional em detrimento do internacional e a exigência de conversão da norma internacional em nacional, normalmente por meio de uma lei ordinária. Segundo as teorias dualistas, portanto, existe uma cisão absoluta entre direito interno e internacional e, consequentemente, duas ordens jurídicas, distintas a ponto de não ser possível conflito entre elas. Outras implicações dessa concepção da dicotomia entre direito interno e internacional incluem a possibilidade de normas internas contrárias ao direito internacional; a impossibilidade de uma ordem jurídica determinar a validade das normas da outra ordem; a inexistência de uma hierarquia, isto é, de superioridade de uma ordem sobre outra; e, portanto, uma separação nítida entre o Estado e a ordem internacional. Assim como o direito interno, o direito internacional é frequentemente dividido em direito internacional privado e público. Contudo, alguns argumentam que o direito internacional privado seria, de fato, uma espécie de direito transnacional — um direito interno privado relacionado a casos que extrapolam a competência da justiça de um único Estado e sobre os quais, portanto, incidem normas de mais de um direito. Ramos do direito. Após sua divisão em interno e internacional e público e privado, o direito tem sido divido em ramos distintos e autônomos que, em alguns casos, têm sido identificados desde o direito romano. O número de ramos existentes é elevado, e inclui o direito civil, o direito administrativo, o direito penal, o direito constitucional, o direito econômico, o direito do trabalho, o direito processual e o direito comercial, dentre muitos outros. Assim como as outras categorias identificadas na estrutura do direito, os ramos do direito são construções teóricas que visam facilitar seu estudo e ensino, mas que também apresentam aplicação concreta pois constituem "uma forma de institucionalidade" que permite ao jurista produzir, escolher, validar e preservar o conhecimento jurídico, além de definir métodos de trabalho e estabelecer padrões para delimitar, gerir e resolver "problemas juridicamente relevantes". Mais especificamente, os ramos do direito são detentores "do poder de estabelecer seus próprios princípios [jurídicos]" e, assim, desempenham um papel importante na qualidade do trabalho do jurista. Do ponto de vista científico, a divisão do direito em ramos ou disciplinas independentes normalmente é justificada na relativa autonomia de certas categorias, que podem ser constatadas por possuírem "objeto", "método" e "princípios informativos" próprios. Como se reconhece, essa autonomia é objeto de uma permanente tensão com os princípios que caracterizam o direito como um todo, e que são parte de sua própria estrutura. Por conta disso e do dinamismo das transformações sociais, as linhas divisórias dos diferentes ramos do direito tendem a se sobrepor e se encontram em permanente evolução. Por outro lado, do ponto de vista da sociologia do direito a divisão do direito em ramos se deve principalmente a fatores externos e seria sobretudo uma convenção útil para "dividir um campo de trabalho". Essa divisão do trabalho teria como consequências evidentes a especialização do jurista, incluindo sua maior eficácia, e o estabelecimento de "barreiras de entrada que evitam a interferência de estranhos", isto é, barreiras que protegem os interesses dos membros da comunidade de cada disciplina e também comprometem os novos membros "com a preservação da disciplina ao longo do tempo". Classificação. O estudo, caracterização e classificação dos direitos adotados por diferentes grupos culturais, incluindo a identificação de suas semelhanças e diferenças e, portanto, daquilo que os distingue, é um objeto proeminente da disciplina do direito comparado. Assim, desde o século XIX comparatistas têm apresentado, baseados em diversos critérios, uma pluralidade de propostas de agrupamento e classificação dos direitos praticados ao redor do planeta. Além de sua diversidade, algumas dessas propostas têm conhecido modificações devido às transformações político-jurídicas ocorridas no período. Assim, enquanto determinadas categorias continuam a ser percebidas como dominantes, por sua difusão e por continuarem presentes em todo sistema de classificação, outras, outrora prevalentes, têm perdido sua significância. Dentre as diversas tipologias que têm sido propostas, algumas se destacam pela difusão que encontraram. Talvez o mais conhecido desses sistemas de classificação seja aquele aventado pelo jurista francês René David no início dos anos 1950, e que mais tarde foi revisto em seu famoso "Os Grandes Sistemas do Direito Contemporâneo" (no original, ), primeiro publicado em 1964. Em sua obra, ele identificou três "famílias" principais de direitos, todas de origem ocidental e consideradas as mais proeminentes ao redor do mundo, respectivamente a família romano-germânica de direitos, a família dos direitos socialistas e a família da "common law"; além de outras famílias de direitos menos difundidos, no caso os direitos muçulmanos, o direito da Índia, os direitos do Extremo Oriente e os direitos da África e de Madagascar. Os critérios considerados por David são duplos: ideológico e técnico — respectivamente, a noção de justiça subjacente a cada direito e aspectos da técnica jurídica presentes em cada um. Um segundo sistema de classificação considerado clássico nessa temática foi proposto pelos comparatistas alemães Konrad Zweigert e Hein Kötz em sua obra "Introdução ao Direito Comparado no Âmbito do Direito Privado" (no original, ). Nessa obra, os autores propõe a classificação dos direitos nas famílias romanística, germânica, nórdica, anglo-americana, do Extremo Oriente e do direito religioso (que inclui as sub-famílias do direito islâmico e do direito hindu). Na mesma linha, provavelmente a mais comum das classificações identifica a existência de quatro famílias principais de sistemas jurídicos em todo o mundo, nomeadamente a família romano-germânica, a família da "common law", a família dos direitos consuetudinários e a família dos direitos religiosos. Enfim, mais recentemente um sistema de classificação original tem recebido considerável atenção da comunidade juscomparatista, que propõe classificar os direitos em função do tipo de norma que lhe é preponderante: de "direito profissional", de "direito tradicional" ou de "direito político". Concebido no final da década de 1990 pelo jurista italiano Ugo Mattei, esse sistema de classificação foi elaborado com base no pressuposto de que os sistemas de classificação anteriores haviam perdido sua pertinência e de que seria preciso adotar uma orientação menos centrada no ponto de vista ocidental e propor critérios que permitissem uma classificação mais dinâmica e menos suscetível às transformações político-jurídicas. Utilizando aportes metodológicos e teóricos da sociologia de Max Weber, esse sistema assume que a vida em sociedade é regulada principalmente por normas produzidas com base em três tipos-ideais de fontes de normas, e propõe classificar cada direito a partir do peso de cada uma dessas categorias de normas na vida social, identificando, assim, a categoria de normas "hegemônica" naquele direito. Categorias dominantes. Embora seja grande a diversidade de categorias propostas ao longo dos anos, um pequeno número de categorias ou "famílias de direitos" se destaca por sua difusão e por estarem presentes em praticamente todo levantamento realizado por especialistas: a família romano-germânica de direitos, a família de direitos socialistas e a família da "common law". Contudo, mudanças no panorama político-jurídico mundial têm se refletido sobre o assunto. Assim, enquanto ao longo do século XX era universalmente identificada uma família de direitos socialistas, desde a dissolução da União Soviética essa categoria tem perdido importância, visto que o número de países a adotarem direitos desse tipo diminuiu consideravelmente. Família romano-germânica. A família romano-germânica de direitos, também chamada "família do direito civil", é formada pelo conjunto dos direitos nacionais ou, eventualmente, subnacionais, construídos sobre as bases do direito romano e do seu intenso e contínuo estudo nas universidades européias a partir do século XII. Seu nome é uma referência ao fato do seu desenvolvimento tardio ter ocorrido nas universidades dos países latinos e germânicos, e, alternativamente, ao papel central desempenhado pelo ramo do direito civil no seu desenvolvimento inicial. De fato, uma das marcas dessa família de direito é o fato de ter se desenvolvido, historicamente, com o intuito de regular as relações entre os cidadãos; outros ramos do direito só foram desenvolvidos mais tarde, e a partir dos princípios já consolidados desse "direito civil". Esse grupo de direitos foi fortemente influenciado pelo movimento de codificação que varreu o mundo no século XIX, e, assim, a lei escrita permanece a fonte por excelência desses direitos. De fato, são comuns menções à "primazia da lei como critério de racionalidade do modelo romanogermânico". Nessa família, portanto, as outras fontes de normas jurídicas ocupam um papel necessário mas complementar, fruto do reconhecimento que a lei escrita nem sempre é capaz de prever a diversidade de situações concretas que se apresentam ao juiz ou, ainda, de uma preferência do legislador, que pode buscar tratar com abundância de detalhes certas temáticas mas escolher tratar outras de maneira mais vaga, de modo que as lacunas sejam supridas pelo judiciário de acordo com a conveniência de caso concreto. Em termos espaciais, a família romano-germânica de direitos se encontra difundida por todo o mundo; além de predominar na Europa, sobretudo nos países existentes dentro das antigas fronteiras do Império Romano, ele está presente em toda a América Latina, em grande parte da África e dos países do Oriente Próximo, no Japão e na Indonésia. Sua difusão em todo o mundo deve-se principalmente à constituição dos impérios coloniais europeus, que levou à criação de numerosos direitos nacionais pertencentes ou aparentados a essa família de direito, e também a processos de "recepção voluntária", através dos quais países que jamais estiveram submetidos a uma metrópole acabam por adotar estruturas jurídicas desta, em busca de modernização ou ocidentalização. Família da "common law". A família da "common law" é formada pelo direito inglês e os direitos dele derivados. Essa família de direito foi constituída a partir das decisões tomadas pelos tribunais responsáveis por julgar casos envolvendo a coroa ou que exigiam a intervenção do poder real, e, portanto, suas raízes concernem principalmente um direito público, ligado às questões de governo, pois disputas envolvendo cidadãos particulares só podiam ser submetidas aos tribunais reais "na medida em que pusessem em jogo o interesse da Coroa ou do reino". Embora os direitos da "common law" também contem com legislações escritas, essas são consideravelmente mais breves e, consequentemente, a grande maioria das normas jurídicas resulta de precedentes judiciais que, eventualmente, vão se firmando em jurisprudência. Nesses direitos, portanto, o juiz, ao decidir casos concretos, cria regras de direito que passam a se impor a outras decisões futuras. Em contraposição às regras dos direitos romano-germânicos, essas regras da "common law" são menos abstratas e visam dar solução a processos judiciais concretos, isto é, sua preocupação imediata é "restabelecer a ordem perturbada, e não a de lançar as bases da sociedade". Como os direitos romano-germânicos, a "common law" se difundiu pelo mundo todo como resultado da colonização e da recepção voluntária de estruturas jurídicas. Também como quanto aos direitos romano-germânicos, a "common law" foi recebida com maior ou menor densidade em diferentes países, inclusive dando origem a direitos híbridos. Fontes. O termo "fonte do direito" é polissêmico e designa, dentre outras coisas, as "fontes materiais" (também chamadas "fontes reais" e "fontes genéticas"), que são a causa da produção da norma jurídica ou, melhor dizendo, os fatos sociais que ensejaram a sua produção; as "fontes formais" do direito, também chamadas "formas de leis", que são os meios por meio dos quais as normas jurídicas se exteriorizam ou tornam-se conhecidas; e as "fontes de validade do direito", noção que designa os fundamentos de validade de cada norma jurídica e esta está intimamente relacionada à ideia de hierarquia do ordenamento jurídico. Fontes materiais. As fontes materiais referem-se ao conteúdo axiológico das normas, isto é, os múltiplos fatores sociais — históricos, religiosos, políticos, sociológicos, geográficos e econômicos, dentre outros — que ensejam o conteúdo das normas jurídicas e, assim, condicionam o aparecimento e as transformações do direito. Noção que remete àquilo que Montesquieu chamou de "espírito das leis", elas são muito diversificadas pois "decorrem das convicções, das ideologias e das necessidades de cada povo em certa época", isto é, consistem de toda sorte de valor caro a uma sociedade. Como já se disse, embora os incontáveis valores caros ao ser humano não careçam necessariamente de normas para serem vivenciados, não há norma que possa existir sem um valor que a anteceda. Por conta das fontes materiais, portanto, o direito apresenta-se como um instrumento essencial para a formalização das escolhas de valores e, consequentemente, como "um dos mais importantes repositórios e expressão dos valores de qualquer sociedade". As fontes materiais antecedem o direito, e, portanto, não são normas ou podem ser invocadas por si mesmas no âmbito judicial; são, antes, valores que, a partir de escolhas e atos de vontade, adentram o direito por meio das "fontes formais" e, assim, adquirem uma presença tangível no dia-a-dia da sociedade. Kelsen, notadamente, distinguiu os valores que constituem as fontes materiais dos valores jurídicos positivados nas normas. Para ele, esses são conceitos "correlativos" e, enquanto os primeiros são subjetivos e relativos, visto que variam de pessoa para pessoa (inclusive quanto à sua hierarquia, isto é, sobre quais são mais importantes que outros), os segundos podem ser identificados objetivamente nas fontes formais. Ao direito, caberia descrever os valores contidos nas normas e realizar um julgamento a respeito das condutas reais em relação a eles (condutas condizentes com a norma seriam positivas, e, ao contrário, condutas em desacordo com a norma seriam valoradas negativamente), mas jamais realizar a crítica dos valores contidos nas normas, até porque um tal julgamento dependeria necessariamente dos valores do intérprete. A coerência dos valores que servem como fontes materiais do direito tem ligação direta com a efetividade do direito e sua capacidade de manter a legitimidade do poder político em uma sociedade. Embora com frequência essas fontes encarnem valores concorrentes e pertencentes a grupos de interesse distintos, o que se traduz em um direito cujos objetivos são por vezes contraditórios entre si, a efetividade do direito depende em grande medida de valores e propósitos compartilhados por todos os membros da sociedade, visto que "a medida com que as normas jurídicas impõem obediência depende do quanto elas expressam ou estão de acordo com os valores sociais geralmente aceitos". Assim, como na maior parte das sociedades modernas as normas jurídicas constituem as principais regras de comportamento e penetram praticamente todas as atividades sociais e individuais, a relativa coesão dos valores expressos pelas normas jurídicas desempenha um papel crucial na manutenção do Estado democrático de direito. Fontes formais. O direito é um sistema que tem a norma jurídica como elemento de base, e cada uma dessas normas descola de uma ou mais fontes do direito por meio de um processo de interpretação. Essas fontes — chamadas "fontes formais" do direito — podem ser entendidas como "fontes de" "criação do direito", a "maneira como as normas se manifestam ou exteriorizam", ou como "fontes de" "cognição do direito", isto é, "os meios empregados pelo jurista para conhecer o direito". Não por acaso, em grande medida a educação jurídica consiste em treinar estudantes para que encontrem informações pertinentes e produzam argumentos a respeito das normas criadas our expressas pelas fontes do direito. Do ponto de vista filosófico, o debate sobre a natureza do direito tem reflexos importantes sobre a questão da natureza das suas fontes formais, sendo esse o chamado "problema das fontes do direito". Mais especificamente, o problema das fontes tem como objetivo "saber, de que modo, forma ou processo o direito se constitui e manifesta como "vinculante normatividade vigente"" — uma forma de normatividade vinculante ou obrigatória, com fundamentos válidos e que efetivamente se impõe à realidade social — e, portanto, está intimamente relacionado à próprio natureza do direito. Assim, cada concepção do direito determina uma teoria das fontes do direito, e, e sentido inverso, cada teoria das fontes condiciona uma concepção distinta do direito, pois, evidentemente, um deve ser expressão do outro. Espécies. À parte dessa questão filosófica, do ponto de vista técnico e preocupado imediatamente com a aplicação do direito normalmente se reconhece a existência de quatro categorias de fontes formais do direito, entendidas como meios aos quais "os tribunais recorrem na decisão de controvérsias e advogados devem recorrer como fontes de informação quando chamados a oferecer seus conselhos". Essas categorias são as seguintes: Existe um rico debate a respeito de outras possíveis categorias de fontes formais, como os contratos, os tratados, os "escritos de sábios reverenciados", a analogia e formas de "normas supra-legislativas" como os princípios gerais do direito e a religião. Contudo, para boa parte dos especialistas essas potenciais fontes, ou ao menos parte de seus valores, constituem espécies do costume, da jurisprudência e, principalmente, da legislação e da doutrina, até porque normalmente elas encontram previsão, se manifestam ou são identificadas por meio de uma delas. Articulação e hierarquia. Todo direito se articula por meio de uma hierarquia das fontes que reconhece, e que lhes permite resolver os conflitos entre essas normas. Como as hierarquias das fontes são específicas a cada direito, elas são uma evidência da maior ou menor importância atribuída a cada fonte por cada Estado, e, assim, constituem um dos critérios centrais na distinção das feições de cada direito e das famílias de direitos. Com efeito, na teoria comparatista das famílias de direitos que predominou desde a segunda metade do século XX, um dos principais critérios de diferenciação dos direitos é justamente os tipos de fontes que cada direito reconhece e a maneira como ele as articula. Na Contemporaneidade, é comum que as legislações prevejam expressamente as categorias e espécies de fontes adotadas pelos direitos de que são parte, seja na legislação infra-constitucional ou na própria constituição nacional, e que elas também esbocem a hierarquia das fontes reconhecidas naquele direito. Embora seja teoricamente possível um direito fundado em apenas uma fonte, os direitos conhecidos ao longo da história são considerados complexos, no sentido de reconhecerem mais de uma delas. Naqueles que contam com legislação escrita, incluindo os pertencentes à família da "common law", normalmente essa legislação se impõe às demais fontes do direito e, portanto, suas normas não podem ser modificadas ou revogadas por meio de outras fontes. A hierarquia das fontes jurídicas se relaciona intimamente com a noção de ordenamento jurídico, que, por sua vez, é um elemento-chave da concepção dominante do direito na Contemporaneidade, o juspositivismo. Mais especificamente, em sua formulação mais refinada, elaborada por Kelsen, a teoria do ordenamento jurídico pressupõe o direito enquanto um sistema (quer dizer, mais do que um "acervo de normas singulares"), hierarquizado e encimado pela constituição e dotado de três atributos indispensáveis que permitem distingui-lo de um mero conjunto de normas: unidade, coerência e completude. A "unidade" do ordenamento se dá como consequência de todas as normas vigentes em um direito serem postas por uma mesma fonte de autoridade e, portanto, poderem ser traçadas "à mesma fonte originária constituída pelo poder legitimado para criar o direito". Dito de outro modo, essa unidade resulta do fato de todas as normas do direito receberem sua autoridade de uma mesma fonte, isto é, uma única autoridade veiculada na norma fundamental, e que "atribui, direta ou indiretamente, caráter jurídico a todo o conjunto de normas". A "coerência" e a "completude", por sua vez, são dimensões de uma mesma questão, e correspondem ao que Savigny e Francesco Carnelutti chamaram, respectivamente, "unidade negativa"/"unidade positiva" e "ausência de vício por excesso"/"ausência de vício por falta". Por um lado, a coerência consiste na qualidade do ordenamento de "afastar as contradições" entre normas, na sua capacidade de não apresentar normas incompatíveis entre si. Em outras palavras, no ordenamento apenas existem contradições aparentes entre duas normas, e ao jurista cabe "purgar" a norma excessiva do ordenamento. A completude, por outro lado, consiste na qualidade do ordenamento de não apresentar brechas ou lacunas. Atributo essencial à certeza do direito, ela impõe que, em caso de aparente lacuna, cabe ao jurista "integrar" o ordenamento por meio das normas disponíveis, a fim de produzir uma norma aplicável ao caso. Tanto a coerência quanto a completude são atributos que dependem da solução de problemas aparentes que se apresentam na operação do direito, nomeadamente a presença de "antinomias" e "lacunas" potencias. Antinomias e lacunas aparentes. Em particular, a coerência do direito somente é possível por meio de certas normas que expressam critérios de solução de antinomias — normas incompatíveis entre si — e permitem determinar a norma cabível a cada caso e excluir outras normas potencialmente incompatíveis. Geralmente três critérios são encontrados nos direitos, para a solução de potenciais antinomias. O primeiro desses critérios é justamente o "critério hierárquico", que estabelece que lei superior se impõe a lei inferior (). Os outros dois possíveis critérios, normalmente aplicáveis unicamente aos casos onde mais de uma fonte ocupa um mesmo nível da hierarquia, são o "critério da especialidade", segundo o qual a norma mais específica (em relação ao caso concreto) prevalece em relação à norma mais geral () e, depois, o "critério cronológico", segundo o qual a lei mais recente prevalece sobre a mais antiga (). Como são possíveis antinomias mesmo com a aplicação desses critérios, é comum que cada direito estabeleça uma relação hierárquica entre eles, isto é, que se imponha uma ordem de preferência que permita resolver conflitos potenciais. Nesse sentido, o mais comum é que o critério hierárquico ou critério da especialidade seja prevalente, e que ambos se imponham ao critério cronológico. Persistindo a antinomia, é comum que se aplique um quarto critério, excepcional, que consiste em eleger a norma mais favorável (), nomeadamente aquela que estabelece uma permissão, em detrimento de uma norma que estabelece um imperativo (); continuando a haver uma antinomia, porque duas normas se enquadram exatamente nas mesmas categorias em relação a esses quatro critérios, essas normas se anulam mutuamente. Quanto à completude do ordenamento, ela está ligada essencialmente às lacunas da "legislação", e duas teorias concorrentes oferecem solução para a questão em situações concretas. A primeira delas, dita "teoria do espaço jurídico", sustenta que todo tema que não é objeto de legislação é "juridicamente irrelevante" e se encontra fora do escopo do direito; assim, todo "fato não previsto por nenhuma norma está situado fora dos limites do direito". Depois, a "teoria da norma geral" sustenta que não existem lacunas ou fatos juridicamente irrelevantes, e que tudo que não é objeto de proibição é intrinsecamente lícito; assim, aquilo que é classificado como "juridicamente irrelevante" pela "teoria do espaço jurídico" é considerado "juridicamente lícito" pela "teoria da norma geral." Interpretação. A teoria do direito estabelece uma distinção entre as interpretações das fontes do direito pelos "órgãos de aplicação do direito” e as interpretações realizadas externamente ao âmbito judicial, pelo cidadão comum e por outros juristas. A interpretação pelo juiz, denominadas “autêntica”, é indissociável ​​do processo de criação do direito, visto que suas decisões são vinculativas ou estabelecem precedentes, ao passo que a interpretação "não autêntica”, realizada por outros indivíduos, é “desprovida de força normativa e diz respeito exclusivamente à ordem do conhecimento”. Por um lado, no âmbito da interpretação autêntica, a aplicação das normas jurídicas visa pôr fim a conflitos e litígios, mas de maneira que sejam produzidas decisões judiciais ostensivamente corretas e justas, isto é, decisões jamais arbitrárias, que inspiram "aceitação e convencimento a respeito de sua correição e justeza" e podem impor-se e gerar obrigatoriedade. Como pressuposto disso, a operação do direito é orientada por princípios jurídicos como a isonomia — a igual aplicação da lei a todos — e por práticas relativas à interpretação do seu conteúdo, notadamente o emprego de "uma metódica que garanta que casos iguais sejam tratados de maneira igual" e a imposição de limites a "leituras muito subjetivas, surpreendentes e alternativas" dos textos de lei. Por outro lado, mas no mesmo sentido, a interpretação não autêntica não constitui uma prerrogativa exclusiva dos profissionais do direito — visto que o cidadão é levado constantemente a questionar o significado da lei e, em sentido mais restrito, porque "a luta social e política também está localizada no terreno dos significados jurídicos" — mas é orientada por práticas sociais que visam preservar a autonomia da comunidade jurídica em relação ao campo político — "para os políticos, a tarefa de formular declarações [jurídicas]; para juristas, o de interpretar" — e assegurar que o intérprete seja portador de certos conhecimentos, sobre o direito, que lhe permitam dominar sua linguagem e modos de raciocínio. Métodos tradicionais. Como consequência dessas práticas e necessidades, o processo interpretativo tradicional do direito se apoia em uma série de métodos onipresentes no dia-a-dia da comunidade jurídica, que subentendem uma divisão da atividade interpretativa em operações distintas e sucessivas: primeiro a compreensão do texto (a extração do seu conteúdo), seguida de sua interpretação e, enfim, sua aplicação ao caso concreto. A interpretação propriamente dita, portanto, constitui uma etapa desse processo e é executada com base em quatro métodos principais, que visam trazer maior cientificidade à tarefa de encontrar a norma jurídica aplicável a cada concreto: Ao longo do século XX esse processo interpretativo tradicional, que contempla uma diversidade de métodos que são empregados com base na conveniência, tem sido objeto de uma série de críticas no âmbito da hermenêutica jurídica, ciência cuja problemática é comumente ilustrada por meio da metáfora que seu nome carrega: Hermes era o mensageiro dos deuses olímpicos e o responsável por transmitir e esclarecer seus desejos à humanidade; ao Homem jamais era possível conhecer diretamente o conteúdo dos desejos dos deuses, sendo-lhe dado conhecer apenas aquilo que Hermes dizia a respeito da vontade divina. Como já se colocou, "as disposições, os enunciados, os textos, nada dizem: eles dizem o que os intérpretes dizem que eles dizem", e esse é o problema central sobre o qual se debruça a hermenêutica do direito. Ao tratar das práticas interpretativas, Kelsen demonstrou que todos os métodos de interpretação "conduzem sempre a um resultado apenas possível, nunca a um resultado que seja o único correto”, isto é, como diversos métodos são possíveis, possíveis resultados válidos também o são. Assim, há quem afirme que a "retórica da vinculação estrita entre o texto da lei e o resultado de sua aplicação pelo agente público" no fundo consiste em uma ficção, embora seja legitimamente um dos elementos considerados na aplicação do direito aos casos concretos, juntamente com a busca por correição. Depois, com base nos trabalhos de Martin Heidegger e Hans-Georg Gadamer outros sustentam que a interpretação e aplicação do direito constituem uma única operação, pois o ato interpretativo implica interpretar não apenas as fontes do direito, mas também os fatos relativos ao caso concreto. Como interpretar a norma implica interpretar os fatos, a maneira como esses fatos são apresentados — operação que passa pela linguagem e envolve valoração pelo intérprete — é determinante na produção das normas que lhe são aplicáveis. Mais detalhadamente, a diversidade de sentidos que cada sujeito pode atribuir ao mundo ao seu redor é limitada por sua própria compreensão do mundo; essa crítica considera que a atividade interpretativa é condicionada pela "faticidade e historicidade do intérprete" e que, como consequência, há uma diferença entre o texto e o sentido desse texto, isto é, "entre texto e norma não há uma equivalência e tampouco uma total autonomização". Por isso, seria impossível ao intérprete "'retirar' do texto 'algo que o texto possui-em-si-mesmo'", tal qual se tornou prática corriqueira da comunidade jurídica desde que o juspositivismo se tornou dominante. Isso não significa uma separação absoluta entre texto e norma, que permitiria atribuir sentidos arbitrários aos textos jurídicos, ou tampouco autoriza o intérprete a escolher o sentido que mais lhe é mais conveniente. Ela implica afastar "todas as formas de decisionismo e discricionariedade" que dão lugar a múltiplas e variadas respostas a um mesmo problema jurídico, por meio do reconhecimento de que interpretar consiste unicamente em "explicitar o compreendido", isto é, que "uma interpretação é correta quando desaparece, ou seja, quando fica 'objetivada' através dos 'existenciais positivos', em que não mais nos perguntamos sobre como compreendemos algo ou por que interpretamos dessa maneira e não de outra: simplesmente, o sentido se deu".
674
Deus
Deus Deus é um conceito de Ser Supremo presente em diversas religiões monoteístas, henoteístas ou politeístas, sendo geralmente definido como o espírito infinito e eterno, criador e preservador do Universo. O conceito de Deus, conforme descrito pelos teólogos, geralmente inclui os atributos da onisciência (todo conhecimento), a onipotência (poder ilimitado), a onipresença (presente em todos os lugares), a simplicidade divina e a existência eterna e necessária. Muitos teólogos também descrevem Deus como sendo onibenevolente (perfeitamente bom) e amoroso. É mais frequentemente descrito como incorpóreo (imaterial) e sem gênero, embora muitas religiões descrevam Deus usando a terminologia masculina, através do uso de termos como "Ele" ou "Pai", sendo que algumas religiões (como o judaísmo) atribuem apenas um "gênero" puramente gramatical a Deus. A incorporeidade e a corporeidade de Deus estão relacionadas a concepções de transcendência (estar fora da natureza) e imanência (estar na natureza, no mundo) de Deus, com posições de síntese como o panenteísmo e a "transcendência imanente" da teologia chinesa. Deus foi concebido como pessoal ou impessoal. No pensamento monoteísta, Deus é o Ser Supremo e principal foco de fé. No teísmo, Deus é o criador e sustentador do Universo, enquanto no deísmo, Deus é o criador, mas não o sustentador do Universo. No panteísmo, Deus é o próprio Universo. No ateísmo, Deus não existe, enquanto é considerado incognoscível no contexto do agnosticismo. Deus também foi concebido como a fonte de todas as obrigações morais". Muitos filósofos notáveis desenvolveram argumentos a favor e contra a existência de Deus. As muitas concepções diferentes de Deus e as reivindicações concorrentes quanto às suas características, objetivos e ações levaram ao desenvolvimento de ideias do pandeísmo ou de uma filosofia perene, que postula que existe uma verdade teológica subjacente, a qual todas as religiões expressam um entendimento parcial, e a respeito da qual "os devotos nas diversas grandes religiões do mundo são, de fato, adorando o mesmo Deus, mas através de conceitos diferentes que se sobrepõem ou com imagens mentais diferentes Dele." Etimologia. O termo "deus" tem origem no termo latino "deus", que significa "divindade" ou "deidade". Os termos latinos "Deus" e "divus", assim como o grego διϝος = "divino", descendem do Proto-Indo-Europeu *"deiwos" = "brilhante/celeste", termo esse encerrando a mesma raiz que "Dyēus", a divindade principal do panteão indo-europeu, igualmente cognato do grego Ζευς (Zeus). Na Antiguidade Clássica, o vocábulo em latim era uma referência generalizante a qualquer figura endeusada e adorada pelos pagãos. Em um mundo dominado pelas religiões abraâmicas, com destaque ao cristianismo, o termo é usado hodiernamente com sentido mais restrito - designando uma e a única deidade - em frases e expressões religiosas como "Deus sit vobiscum", variação de "Dominus sit vobiscum", "o Senhor esteja convosco"; no título do hino litúrgico católico "Te Deum", proveniente de "Te Deum Laudamus", "A Vós, ó Deus, louvamos". Mesmo na expressão que advém da tragédia grega "Deus ex machina", de Públio Virgílio, "Dabit deus his quoque finem", que pode ser traduzida como "Deus trará um fim a isto", e no grito de guerra utilizado no Império Romano Tardio e no Império Bizantino, "nobiscum deus", "Deus está conosco", assim como o grito das cruzadas "Deus vult", que, em português, traduz-se por "assim quer Deus", ou "esta é a vontade de Deus", verifica-se o mesmo sentido restrito. Em latim, existiam as expressões interjectivas "O Deus meus" e "Mi Deus", delas derivando as expressões portuguesas "(Oh) meu Deus!", "(Ah) meu Deus!" e "Deus meu!". "Dei" é uma das formas flexionadas ou declinadas de "Deus" no latim. É usada em expressões utilizadas pelo Vaticano, como as organizações católicas apostólicas romanas "Opus Dei" ("Obra de Deus", sendo obra oriunda de "opera"), "Agnus Dei" ("Cordeiro de Deus") e "Dei Gratia" ("Pela Graça de Deus"). Geralmente trata-se do caso genitivo ("de Deus"), mas é também a forma plural primária adicionada à variante "di". Existe o outro plural, "dii", e a forma feminina "deae" ("deusas"). A palavra Deus, através da forma declinada "Dei", é a raiz de deísmo, panteísmo, panenteísmo, e politeísmo, e ironicamente referem-se todas a teorias na qual qualquer figura divina é ausente na intervenção da vida humana. Essa circunstância curiosa originou-se do uso de "deísmo" nos séculos XVII e XVIII como forma contrastante do prevalecente "teísmo". Teísmo é a crença em um Deus providente e interferente. Seguidores dessas teorias, e ocasionalmente seguidores do panteísmo, podem vir a usar, em variadas línguas, especialmente no inglês, o termo "Deus" ou a expressão "o Deus" ("the God"), para deixar claro de que a entidade discutida não trata-se de um Deus teísta. Arthur C. Clarke usou-o em seu romance futurista, "". Nele, o termo "Deus" substituiu ""God" no longínquo século XXXI, pois "God"" veio a ser associado com fanatismo religioso. A visão religiosa que prevalece em seu mundo fictício é o deísmo. São Jerônimo traduziu a palavra hebraica "Elohim" (אֱלוֹהִים, אלהים) para o latim como Deus. A palavra pode assumir conotações negativas em algumas conotações. Na filosofia cartesiana, a expressão "Deus deceptor" é usada para discutir a possibilidade de um "Deus malévolo" que procura iludir-nos. Esse personagem tem relação com um argumento cético que questiona até onde um demônio ou espírito mau teria êxito na tentativa de impedir ou subverter o nosso conhecimento. Outra é "deus otiosus" ("Deus ocioso"), um conceito teológico para descrever a crença num Deus criador que se distancia do mundo e não se envolve em seu funcionamento diário. Um conceito similar é "Deus absconditus" ("Deus absconso ou escondido") de São Tomás de Aquino. Ambas referem-se a uma divindade cuja existência não é prontamente reconhecida nem através de contemplação nem via exame ocular de ações divinas "in loco". O conceito de "deus otiosus" frequentemente sugere um Deus que extenuou-se da ingerência que tinha neste mundo e que foi substituído por deuses mais jovens e ativos que efetivamente se envolvem, enquanto "deus absconditus" sugere um Deus que conscientemente abandonou este mundo para ocultar-se alhures. A forma mais antiga de escrita da palavra germânica "gott" vem do "Codex Argenteus" cristão do século VI. A própria palavra inglesa "God" é derivada da Proto-Germânica "ǥuđan". A maioria dos linguistas concordam que a forma reconstruída da Proto-Indo-Europeia (ǵhu-tó-m) foi baseada na raiz (ǵhau(ə)-), que significa também "chamar" ou "invocar". A forma capitalizada "deus" foi primeiramente usada na tradução gótica "Wulfila" do Novo Testamento, para representar o grego "Theos". Na língua inglesa, a capitalização continua a representar uma distinção entre o "God" monoteísta e os "gods" do politeísmo. Apesar das diferenças significativas entre religiões como o cristianismo, islamismo, hinduísmo, a fé bahá'í e o judaísmo, o termo "God" permanece como uma tradução inglesa comum a todas. O nome pode significar deidades monoteísticas relacionadas ou similares, como no monoteísmo primitivo de Aquenáton e Zoroastrismo. Nomes. Há muitos nomes para Deus e nomes diferentes são anexados a diferentes ideias culturais sobre sua identidade e atributos. No Egito Antigo, o atonismo, possivelmente a primeira religião monoteísta registrada, esta deidade se chamava Aton, com base em ser o verdadeiro Ser Supremo e o criador do universo. Na Bíblia hebraica e no judaísmo, "Ele que é", "Eu Sou o Eu Sou", e o tetragrama YHWH (, que significa: "Eu sou quem eu sou", "Ele que existe") são usado como nomes de Deus, enquanto Yahweh e Jeová às vezes são usados no cristianismo como vocalizações de YHWH. Na doutrina cristã da Trindade, Deus, consubstancial em três pessoas, é chamado de Pai, Filho e Espírito Santo. No judaísmo, é comum se referir a Deus pelos nomes Elohim ou Adonai, o último dos quais é acreditado por alguns estudiosos como originário do Aten egípcio. No Islã, o nome Alá é usado, apesar dos muçulmanos também terem vários nomes para Deus. No hinduísmo, Brâman é muitas vezes considerado um conceito monista de Deus. Na religião tradicional chinesa, Deus é concebido como o progenitor (primeiro antepassado) do universo, intrínseco e constantemente ordenando. Outras religiões têm nomes para Deus, por exemplo, Baha na Fé Bahá'í, Waheguru no sikhismo, e Aúra-Masda no zoroastrismo. Concepções de Deus. As concepções de Deus variam amplamente. Filósofos e teólogos têm estudado inúmeras concepções de Deus desde o início das civilizações, focando-se sobretudo nas concepções socializadas ou institucionalizadas, já que concepções de Deus formuladas por pessoas individuais usualmente variam tanto que não há claro consenso possível sobre a natureza de Deus. Teísmo. No Teísmo, mais especificamente o Teísmo de cunho monoteísta ou monolátrico, Deus é descrito de uma forma personificada, um ser com atributos humanizados e personalidade bem definida. Essas características muitas vezes foram reveladas aos homens através de textos contidos nos livros sagrados, quais sejam: o Bagavadguitá, dos hinduístas; o Tipitaca, dos budistas; o Tanaque, dos judeus; o Avestá, dos zoroastrianos; a Bíblia, dos cristãos; o Livro de Mórmon, dos santos dos últimos dias; o Alcorão, dos islâmicos; o Guru Granth Sahib dos siquis; o Kitáb-i-Aqdas, dos bahá'ís; o Evangelho do Monstro do Espaguete Voador dos ensinamentos do Pastafarianismo. Esses livros relatam histórias e fatos envolvendo personagens supostamente escolhidos para testemunhar e transmitir a vontade divina na Terra ao povo de seu tempo, tais como: Abraão e Moisés, na fé judaica, cristã e islâmica; Zoroastro, na fé zoroastriana; Críxena, na fé hindu; Buda, na fé budista; Jesus Cristo, na fé cristã e islâmica; Maomé, na fé islâmica; Guru Nanak, no siquismo, Báb e Bahá'u'lláh, na fé Bahá'í. O teísmo sustenta que Deus existe realmente, objetivamente, e independentemente do pensamento humano, sustenta que Deus criou tudo; que é onipotente e eterno, e é pessoal, interessado, e responde às orações. Afirma que Deus é tanto imanente e transcendente, portanto, Deus é infinito e de alguma forma, presente em todos os acontecimentos do mundo. A teologia católica sustenta que Deus é infinitamente simples, e não está sujeito involuntariamente ao tempo. A maioria dos teístas asseguram que Deus é onipotente, onisciente e benevolente, embora esta crença levante questões acerca da responsabilidade de Deus para com o mal e sofrimento no mundo. Alguns teístas atribuem a Deus uma autoconsciência ou uma proposital limitação da onipotência, onisciência, ou benevolência. O teísmo aberto, pelo contrário, afirma que, devido à natureza do tempo, a onisciência de Deus não significa que a divindade pode prever o futuro. O "Teísmo" é por vezes utilizado para se referir, em geral, para qualquer crença em um Deus ou deuses, ou seja, politeísmo ou monoteísmo. O pandeísmo e o panendeísmo, respectivamente, combinam as crenças do deísmo com o panteísmo ou panenteísmo. Monoteísmo. Nas religiões monoteístas atuais, a citarem-se o cristianismo, judaísmo, islamismo, siquismo e a fé bahá'í, o termo "Deus" refere-se à ideia de um ser supremo, infinito, perfeito, criador do universo, que seria a causa primária e o fim de todas as coisas. Os povos da Mesopotâmia o chamavam pelo "Nome", escrito em hebraico como יהוה (o Tetragrama YHVH), que quer dizer "Yahweh", que muitos pronunciam em português como "Jeová". Mas, com o tempo, deixaram de pronunciar o seu nome diretamente, apenas se referindo a ele por meio de associações e abreviações, ou através de adjetivos como "O Senhor", "O Salvador", "O Todo-Poderoso", "O Deus Altíssimo", "O Criador" ou "O Supremo", "O Deus de Israel", ou títulos similares. Um bom exemplo desse tipo de associação entre Deus e suas características ou ações, bem como da expressão do relacionamento dos homens com deus, ainda fazem-se explícitas em alguns nomes e expressões hebraicas, como "Rafael", "curado - ("Raf") - por Deus - ("El")"; e árabes, por exemplo em "Abdallah", "servo - ("abd") - de Deus - ("Allah")". As principais características deste Deus-Supremo seriam: a onipotência: poder absoluto sobre todas as coisas; a onipresença: poder de estar presente em todo lugar; a onisciência: poder de saber tudo; e a onibenevolência: poder da bondade infinita. Tradição abraâmica. Segundo as perspectivas abraâmicas, as doravante enfocadas, Deus é, muitas vezes, expressado como o Criador e Senhor do Universo. Teólogos têm relacionado uma variedade de atributos utilizados para estabelecer as várias concepções de Deus. Os mais comuns entre essas incluem onisciência, onipotência, onipresença, benevolência ou bondade perfeita, simplicidade divina, zelo, sobrenaturalidade, transcendentalidade, eternidade e existência necessária. Deus também tem sido compreendido como sendo incorpóreo, um ser intangível com personalidade divina e justa; a fonte de toda a obrigação moral; em suma, o "maior existente". Tais atributos foram todos, anteriormente, defendidos em diferentes graus pelos filósofos teológicos judeus, cristãos e muçulmanos, incluindo-se, entre eles, Rambam, Agostinho de Hipona e Al-Ghazali, respectivamente. Muitos filósofos medievais notáveis desenvolveram argumentos para a existência de Deus, intencionando, entre outros, elucidar as "aparentes" contradições decorrentes de muitos destes atributos quando justapostos. Henoteísmo / Monolatria. O Zoroastrismo é um exemplo de religião henoteísta e na opinião de alguns estudiosos, monolátrica, uma vez que o deus-criador, Zurvan, não é adorado, mas sim seu filho Aúra-Masda (o deus que representa o bem), por oposição a seu inimigo, Arimã (o deus mal). Os filhos de Aúra-Masda também são considerados deidades mas não recebem adoração. Filosofia grega. A cultura grega exerceu forte influência sobre a formação da ideia de Deus no Ocidente, a partir da tentativa, desde os seus primórdios, em explicar a ordem do universo e o fato de que ele não se transforme em caos. Inicialmente, a resposta que pareceu mais simples aos pensadores gregos afirmava que o sensível permanece contínuo e integrado por ser a expressão material e diversificada de uma única substância fundamental. Parmênides e Heráclito, posteriormente, afirmaram que a unidade do mundo não reside no próprio mundo, mas numa instância suprema que, sem ser material e sensível, consiste em ordem e unidade. Panteísmo. No Panteísmo, Deus é visto como tudo o que existe, ou seja o próprio Universo (ou a Natureza). Sendo assim, os panteístas não acreditam num deus pessoal ou antropomórfico, e ainda que existam divergências dentro do panteísmo, as ideias centrais dizem que deus é encontrado em todo o cosmos como uma unidade abrangente. A Umbanda segue princípios animistas e neo-panteístas, onde Zambi, também chamado Deus, é associado aos diversos elementos da Natureza, descritos como os Orixás originários do Candomblé, que nada mais seriam, na Umbanda, do que manifestações da presença do próprio Pai Eterno. Ainda na Umbanda neo-panteísta, Deus está presente no mundo e permeia tudo o que nele existe, também podendo ser experimentado como algo impessoal, como a alma do mundo, ou um sistema do mundo. Existência. Há milênios, a questão da existência de Deus foi levantada dentro do pensamento do homem. As principais correntes filosóficas que investigam e procuram dar respostas para a questão são: Em resumo, podem-se distinguir três linhas centrais de pensamento: Entre os teístas, além das revelações oriundas de livros considerados sagrados, como a Bíblia, muitos argumentam que pode-se conhecer "Deus" e suas qualidades observando a natureza e suas "criações". Argumentam que existem evidências científicas suficientes que inequivocamente implicam uma fonte de energia ilimitada, e que esta seria o criador da substância do universo. Alegam que, observando a ordem, o poder e a complexidade da criação, tanto macroscópica quanto microscópica, podem inequivocamente concluir pela existência de Deus. Como exemplo, uma das correntes cristãs que defendem tal posição é a dos protestantes norte-americanos engajados no movimento do Desenho Inteligente. William Dembski é um dos defensores dessa linha de pensamento. Para vários ateístas e agnósticos, a situação é diferente. Para a maioria desses, a definição de Deus, conforme proposta pelos teístas, se faz por sentença não testável frente ao mundo natural, que segue seu curso seguindo regras inexoráveis; e, nesses termos, Deus é sustentado apenas por fé, não havendo razão física natural que permita decisão racional ou a favor ou contra Sua existência. Citam, não raramente, a fim de corroborar seu posicionamento, a postura similar adotada pela ciência moderna; a de que deus(es) transcende(m) aos "tubos de ensaio"; e que, por tal não se pode entrar empiricamente nos "méritos daquEle(s)". Adotam, em essência, o posicionamento definido pela ciência, sendo Marcelo Gleiser um dos defensores dessa linha de pensamento. Há, ainda, os que vão além, e afirmam que a situação inicial se inverte. Para alguns ateístas a análise fria do universo e do que nele e na Terra ocorre mostra-nos, claramente, que não há um Deus ou mesmo outra deidade onipotente qualquer atrelados. Segundo essa corrente de pensamento, o universo, se fosse projetado e concebido por um ser onipotente, onisciente, justo e paternal - como geralmente definido pelos teístas -, teria, certamente, características muito distintas das cientificamente observadas. Richard Dawkins é um dos mais famosos defensores dessa linha de pensamento. Abordagens teológicas. Teólogos e filósofos atribuíram um número de atributos para Deus, incluindo onisciência, onipotência, onipresença, amor perfeito, simplicidade, e eternidade e de existência necessária. Deus tem sido descrito como incorpóreo, um ser com personalidade, a fonte de todos as obrigações morais, e concebido como o melhor ser existente. Estes atributos foram todos atribuídos em diferentes graus por acadêmicos judeus, cristãos e muçulmanos desde épocas anteriores, incluindo Santo Agostinho, Al-Ghazali e Maimônides. Muitos argumentos desenvolvidos por filósofos medievais para a existência de Deus buscaram compreender as implicações precisas dos atributos divinos. Conciliar alguns desses atributos gerou problemas filosóficos e debates importantes. A exemplo, a onisciência de Deus implica que Deus sabe como agentes livres irão escolher para agir. Se Deus sabe isso, a aparente vontade deles pode ser ilusória, ou o conhecimento não implica predestinação, e se Deus não sabe, então não é onisciente. Nos últimos séculos, tem-se visto, na filosofia, vigorosas perguntas acerca dos argumentos para a existência de Deus, propostas por filósofos tais como Immanuel Kant, David Hume e Antony Flew. Mesmo Kant, embora considerasse que o argumento de moralidade era válido, fez várias críticas aos usuais argumentos empregados. A resposta teísta tem sido, usualmente, fundada em argumentos como os de Alvin Plantinga, que afirmam que a fé é "adequadamente básica", ou em argumentos, como Richard Swinburne, fundados na posição evidencialista. Alguns teístas concordam que nenhum dos argumentos para a existência de Deus são vinculativos, mas alegam que a fé não é um produto da razão, mas exige risco. Não haveria risco, dizem, se os argumentos para a existência de Deus fossem tão sólidos quanto as leis da lógica, uma posição assumida por Pascal bem ao estilo: "O coração tem razões que a razão não conhece." Posições científicas e críticas a respeito da ideia de Deus. Stephen Jay Gould propôs uma abordagem dividindo o mundo da filosofia no que ele chamou de "magistérios não sobrepostos". Nessa visão, as questões do sobrenatural, tais como as relacionadas com a existência e a natureza de Deus, são não empíricas e estão no domínio próprio da teologia. Os métodos da ciência devem ser utilizadas para responder a qualquer questão empírica sobre o mundo natural, e a teologia deve ser usada para responder perguntas sobre o propósito e o valor moral. Nessa visão, a percepção de falta de qualquer passo empírico do magistério do sobrenatural para eventos naturais faz da ciência o único ator no mundo natural. Outro ponto de vista, exposto por Richard Dawkins, é que a existência de Deus é uma questão empírica, com o fundamento de que "um universo com um deus seria um tipo completamente diferente de um universo sem deus, e poderia ser uma diferença científica". Carl Sagan argumentou que a doutrina de um Criador do Universo era difícil de provar ou rejeitar e que a única descoberta científica concebível que poderia trazer desafio seria um universo infinitamente antigo. Stephen Hawking argumenta que, em vista das recentes descobertas e avanços da ciência, sobretudo na área da cosmologia, a existência de um deus responsável pela existência e pelos eventos do universo mostra-se não apenas desnecessária mas também altamente improvável, para não dizer incompatível. Antropomorfismo. Pascal Boyer argumenta que, embora exista uma grande variedade de conceitos sobrenaturais encontrados ao redor do mundo, em geral seres sobrenaturais tendem a se comportar tanto como as pessoas. A construção de deuses e espíritos como as pessoas é um dos melhores traços conhecidos da religião. Ele cita exemplos de mitologia grega, que é, na sua opinião, mais como uma novela moderna do que outros sistemas religiosos. Bertrand du Castel e Timothy Jurgensen demonstram através de formalização que o modelo explicativo de Boyer corresponde ao que a epistemologia física faz ao trabalhar com entidades não diretamente observáveis como intermediários. O antropólogo Stewart Guthrie afirma que as pessoas projetam características humanas sobre os aspectos não humanos do mundo porque isso os torna mais familiares e por tal "compreensíveis". Sigmund Freud também sugeriu que os conceitos de Deus são projeções de um pai. Da mesma forma, Émile Durkheim foi um dos primeiros a sugerir que os deuses representam uma extensão da vida social humana para incluir os seres sobrenaturais. Em linha com esse raciocínio, o psicólogo Matt Rossano afirma que quando os humanos começaram a viver em grupos maiores, eles podem ter criado os deuses como um meio de garantir a moralidade. Em pequenos grupos, a moralidade pode ser executada por forças sociais, como a fofoca ou a reputação. No entanto, é muito mais difícil impor a moral usando as forças sociais em grupos muito maiores. Ele indica que, ao incluir sempre deuses e espíritos atentos, os humanos descobriram uma estratégia eficaz para a contenção do egoísmo e a construção de grupos mais cooperativos. O anarquista Mikhail Bakunin faz uma crítica à ideia de Deus, posicionando-O como sendo uma ideia criada pelas elites - reis, senhores de escravos, senhores feudais, sacerdotes, capitalistas etc. - que busca justificar a sociedade autoritária, projetando, ideologicamente, as relações de dominação para o universo como um todo: Deus como "senhor" ou "rei", e o universo como "escravo" ou "súdito". A ideia de Deus serviria, segundo ele, como um mero instrumento de dominação cuja função seria fazer os dominados aceitarem sua exploração como se fosse um fato natural, cósmico e eterno, ou seja, um fato do qual não podem fugir, restando-lhes, apenas, a opção de resignarem-se.
679
Darwinismo
Darwinismo Darwinismo é um conjunto de movimentos e conceitos relacionados às ideias de transmutação de espécies, seleção natural ou da evolução, incluindo algumas ideias sem conexão com o trabalho de Charles Darwin. A característica que mais distingue o darwinismo de todas as outras teorias é que a evolução é vista como uma função da mudança populacional e não da mudança do indivíduo. O termo foi cunhado por Thomas Henry Huxley em abril de 1860, e foi usado para descrever conceitos evolutivos, incluindo conceitos anteriores, como malthusianismo e spencerismo apesar desse pensamento ter sido criticado pelo próprio Darwin e por cientistas independentes. No final do século XIX passou a significar o conceito de que a seleção natural era o único mecanismo de evolução, em contraste com o lamarckismo e o criacionismo. Por volta de 1900 o darwinismo foi eclipsado pelo mendelismo até a síntese evolutiva moderna unificar as ideias de Darwin e Gregor Mendel. A medida que a teoria da evolução moderna se desenvolve, o termo tem sido associado às vezes com ideias específicas. Embora o termo tenha permanecido em uso entre os autores científicos, tem sido cada vez mais discutido que é um termo inapropriado para a moderna teoria da evolução. Por exemplo, Darwin não estava familiarizado com o trabalho de Gregor Mendel, e como resultado teve apenas uma compreensão vaga e imprecisa de hereditariedade. Ele, naturalmente, não tinha noção dos desenvolvimentos mais recentes e, como o próprio Mendel, não sabia nada de deriva genética, por exemplo. Concepções do darwinismo. Embora o termo "darwinismo" tenha sido usado anteriormente para se referir ao trabalho de Erasmus Darwin no final do século XVIII, o termo como é entendido hoje foi lançado á época do lançamento do livro de Charles Darwin de 1859 "a Origem das Espécies" e foi revisado por Thomas Henry Huxley no exemplar de abril de 1860 da revista "Westminster Review". Depois de ter saudado o livro como "um verdadeiro rifle Whitworth no arsenal do liberalismo" promovendo o naturalismo científico sobre a teologia, e louvando a utilidade das ideias de Darwin enquanto expressava reservas profissionais quanto ao gradualismo de Darwin e duvidando que ele pudesse provar que a seleção natural podia formar novas espécies, Huxley comparou a realização de Darwin com a de Copérnico para explicar o movimento planetário: Outro importante teórico evolucionista do mesmo período foi Peter Kropotkin que, em seu livro" ", defendia uma concepção de darwinismo contrária ao de Huxley. Sua concepção era centrada em torno do que ele viu como o uso generalizado de cooperação como mecanismo de sobrevivência nas sociedades humanas e animais. Ele usou argumentos biológicos e sociológicos em uma tentativa de mostrar que o principal fator para facilitar a evolução é a cooperação entre indivíduos em sociedades e grupos associados livremente. Isso foi com o fim de neutralizar a concepção de uma concorrência feroz como o núcleo da evolução, que fornecia uma racionalização para as teorias dominantes políticas, econômicas e sociais da época; e as interpretações prevalentes do Darwinismo, tais como as de Huxley, que é apontado como um adversário por Kropotkin. A concepção de Kropotkin do darwinismo poderia ser resumida pela seguinte citação: O uso no século XIX. O "darwinismo" logo veio a representar toda uma gama de filosofias evolucionistas (e muitas vezes revolucionárias) sobre a biologia e a sociedade. Uma das abordagens mais proeminentes, resume-se na frase de 1864 "sobrevivência do mais apto" pelo filósofo Herbert Spencer, mais tarde se tornou emblemática do darwinismo, embora o entendimento próprio de Spencer da evolução (como expresso em 1857) era mais parecido com o de Jean-Baptiste de Lamarck do que com o de Darwin, e antecedeu a publicação da teoria de Darwin em 1859. O que agora é chamado de "darwinismo social" era, na época, sinônimo de "Darwinismo" — a aplicação de princípios darwinianos de "luta" para a sociedade, geralmente em suporte à agenda política antifilantrópica. Outra interpretação, que contava nomeadamente com o favor do meio primo de Darwin Francis Galton, era que "Darwinismo" implica que pelo fato de que a seleção natural aparentemente não mais funcionava com as pessoas "civilizadas", era possível para cepas de pessoas "inferiores" (que normalmente seriam filtradas fora do pool genético) prevalececem sobre as cepas "superiores", e medidas correctivas voluntários seriam desejáveis - o fundamento da eugenia. Nos dias de Darwin, não havia uma definição rígida do termo "darwinismo", e este era usado pelos oponentes e proponentes da teoria biológica de Darwin tanto para significar o que eles queriam em um amplo contexto. As ideias tiveram influência internacional, e Ernst Haeckel desenvolveu o que ficou conhecido como "Darwinismus" na Alemanha, embora, como a "evolução" de Spencer, o "darwinismo" de Haeckel tinha apenas uma semelhança grosseira com a teoria de Charles Darwin, e não era centrado sobre a seleção natural de forma nenhuma. Em 1886, Alfred Russel Wallace foi a uma turnê de palestras nos Estados Unidos, começando em Nova York e passando por Boston, Washington, Kansas, Iowa e Nebraska para a Califórnia, palestrando sobre o que ele chamou de "darwinismo", sem quaisquer problemas. Após a síntese moderna. O darwinismo é usado dentro da comunidade científica para o distinguir das modernas teorias evolucionistas, algumas vezes chamadas de "neodarwinismo", daquele inicialmente proposto por Darwin. O Darwinismo também é usado pelos historiadores para diferenciar a sua teoria a partir de outras teorias evolucionistas correntes do mesmo período. Por exemplo, o darwinismo pode ser usado para se referir ao mecanismo proposto por Darwin da seleção natural, em comparação com mecanismos mais recentes, como a deriva genética e o fluxo gênico. Também pode se referir especificamente ao papel de Charles Darwin ao contrário de outros na história do pensamento evolutivo - particularmente resultados contrastantes de Darwin com as teorias anteriores, como o lamarckismo ou os posteriores, como a síntese moderna. Algoritmos genéticos. O darwinismo é utilizado por biólogos, filósofos, matemáticos e cientistas para descrever processos evolucionários semelhantes à evolução da vida, como o desenvolvimento de software com algoritmos genéticos. Neste contexto mais abstracto, o darwinismo é independente dos detalhes da evolução biológica. Um processo darwinista requer as condições seguintes: Em qualquer sistema onde ocorram essas características deverá ocorrer evolução. Alguns autores, adicionalmente, propõe a elaboração de modelos matemáticos de seleção sexual.
680
Damas
Damas Jogo de damas ou simplesmente damas é um grupo de jogos de tabuleiro de estratégia para dois jogadores que envolvem movimentos diagonais de peças de jogo uniformes e capturas obrigatórias saltando sobre o oponente peças. Damas é desenvolvido a partir de alquerque. No Brasil e em Portugal é mais conhecida a versão de 64 casas (8 por 8), mas a versão mais conhecida mundialmente é a que usa um tabuleiro de 100 casas (10 por 10). Regras. O jogo de damas pratica-se entre dois jogadores, num tabuleiro quadrado, de 64 casas (damas brasileiras) ou 100 casas (damas internacionais) alternadamente claras e escuras, dispondo-se de 12 peças brancas e 12 peças pretas ou 20 peças brancas e 20 peças pretas. O objetivo é capturar ou imobilizar as peças do adversário. O jogador que conseguir capturar todas as peças do inimigo ou deixá-lo sem movimentos ganha a partida. O tabuleiro deve ser colocado de modo que a casa angular à esquerda de cada parceiro seja escura. No início da partida, as peças devem ser colocadas no tabuleiro sobre as casas escuras, da seguinte forma: nas três primeiras filas horizontais, as peças brancas; e, nas três últimas, as peças pretas. A peça movimenta-se em diagonal, sobre as casas escuras, para a frente, e uma casa de cada vez. A peça pode capturar a peça do adversário movendo-se para frente ou para trás. A peça que atingir a oitava casa adversária, parando ali, será promovida a dama, peça de movimentos mais amplos que a simples peça. Assinala-se a dama sobrepondo, à pedra promovida, outra da mesma cor. A dama recém-promovida só pode jogar depois do lance adversário. Isto difere das regras russas, por exemplo, e é detalhado mais adiante. A dama pode mover-se para frente ou para trás em diagonal várias casas, tal qual o bispo move-se no xadrez, diferente das outras peças, que movimentam-se apenas para frente e uma casa. A dama pode também tomar outra peça para frente ou para trás. Quando na casa contígua a uma peça houver uma peça adversária, com uma casa imediata vaga, na mesma diagonal, a peça toma-la-á passando para a citada casa vaga. Assim, a peça toma para a frente e para trás, sendo este o único movimento retrógrado da peça. Se após a tomada de uma peça, a circunstância se repetir, a peça continuará a tomada no mesmo lance, chamando-se a este movimento "tomada em cadeia". Se, nas diagonais da casa de partida da dama, houver uma peça adversária cuja casa imediata esteja vaga, a dama toma-la-á passando para qualquer casa vaga após a peça tomada. A dama também toma em cadeia. A tomada é obrigatória. A peça e a dama têm o mesmo valor para tomar ou ser tomada. Se, no mesmo lance, se apresentar mais de um modo de tomar, é obrigatório executar o lance que tome o maior número de peças (lei da maioria). A peça que toma poderá passar mais que uma vez pela mesma casa vazia, porém não poderá tomar qualquer peça mais de uma vez. Não será promovida a peça que, numa tomada em cadeia, apenas passe pela oitava casa adversária. As peças tomadas só deverão ser retiradas do tabuleiro depois de completado o lance (tema turco). As brancas têm sempre a saída, isto é, o primeiro lance da partida. Determina-se por sorteio ou convenção, para a primeira partida; nas seguintes, as brancas cabem alternadamente aos dois parceiros. O lance é executado quando se leva diretamente à nova casa a peça tocada; a peça deve ser imediatamente solta. O lance está completo quando a mão do jogador tiver largado a peça, ao movê-la de uma casa para outra. Se o jogador, a quem cabe efectuar o lance, tocar: Nota: se nenhuma dessas peças puder ser jogada legalmente, não haverá penalidade, entretanto, a reincidência é passível de punição. A partida termina empatada quando: O jogo de damas, difundido que foi por todo o mundo, acabou por receber alterações, dependendo da região em que é jogado. Também foram feitas modificações nas regras, visando dinamizar o jogo. A seguir, algumas variantes do jogo. Damas italianas. As regras são as mesmas das damas tradicionais, com as seguintes mudanças: o tabuleiro é colocado de modo a ficar uma casa branca a esquerda; as peças não podem tomar a Dama; se um jogador não tomar uma peça quando for possível fazê-lo, perde o jogo; e quando houver mais de uma opção para tomada de peças, deverá optar o jogador por tomar a peça mais valiosa, isto é, a camisa. Damas inglesas. Mesmas regras das damas tradicionais, exceptuando-se o fato do jogador poder optar por capturar qualquer peça e não fazer obrigatoriamente a jogada que o permita tomar o maior número de peças. Além disso, as damas não se movem em longa distância. A única vantagem de uma dama sobre uma peça normal é a capacidade de se mover e capturar para trás, bem como para frente. Damas russas. As únicas alterações com relação às regras oficiais, são o fato de a tomada ser obrigatória, mas não haver lei da maioria, podendo-se, com isso, escolher qualquer opção de captura e realizando todas as capturas da sequência. E também o fato de, no caso de uma tomada em cadeia, se a peça passar pela última fileira, ser promovida a dama e continuar a captura como dama, se possível. Damas turcas. Possivelmente a mais exótica das variantes tradicionais de damas. Usa o tabuleiro de oito por oito casas. Cada jogador tem dezesseis peças e as coloca inicialmente na segunda e terceira fileiras mais próximas de si. Perde-ganha. Variante em que as regras são as mesmas do jogo oficial, mas, nesta variante, aquele que ficar sem peças é quem ganha. O jogador, portanto, deve oferecer suas peças ao adversário, o mais rápido possível. História. Percursores clássicos. Um jogo similar foi jogado por milhares de anos. Um tabuleiro semelhante a um tabuleiro de damas foi encontrado em Ur que data de 3000 a.C. No Museu Britânico, os exemplares de antigos tabuleiros de damas são egípcios, foram encontrados com suas peças em câmaras mortuárias e o jogo foi jogado pela rainha Hatchepsut. Platão mencionou um jogo, "πεττεία" ou "petteia ," também denominado "pente grammaí" («o jogo das cinco linhas») como sendo de origem egípcia, também mencionado por Homero. Os romanos jogavam uma derivação do petteia chamada Latrúnculo. Antigo Egipto. Presuntivamente, o jogo precursor das variedades do alquerque dos tres e dos nove (e por seu turno, mais remotamente, do jogo das damas) terá nascido no Antigo Egipto, pelo que se se encontraram tabuleiros gravados na pedra no telhado do templo de Kurna na cidade de Luxor, datados de 1500 a.C. que se destinariam a esse fim. Grécia Antiga. O jogo terá chegado aos gregos antigos, se bem que não se saiba a data exacta, sabe-se que já no séc. V a.C se jogava uma versão que era designada de "jogo das cinco linhas" («"Pente Grammai»," daqui originará o vocábulo "pentagrama"), porque na época o jogo ainda seria composto apenas de um só quadrado (quatro linhas), intersectado por uma diagonal (a quinta linha). Esta quinta linha dava pelo nome de "linha sagrada", pela sua importância no jogo, num poema de Alceu de Mitilene, do séc. V a.C., alude a essa importância. Esse verso, ulteriormente teve relevo aforístico "retirar a peça da linha sagrada" era um aforismo usado por generais gregos para se referirem à perda de uma posição estratégica, conforme resulta da passagem 97 do capítulo VII do "Onomasticon" de Polux. O jogo também foi, por vezes designado "jogo dos heróis", por se acreditar que teria sido jogado na época heróica, havendo representações vasculares de Aquiles e Ájax a jogar o "penta grammai". O jogo destinava-se a dois jogadores, cada qual, posto frente-a-frente, sendo que além das peças e das cinco linhas, também se jogava com o auxílio de um dado. Há versões deste jogo em que as cinco linhas estão dispostas como num quadrado com uma diagonal ao meio, enquanto que noutras representações aparece como um rectângulo com cinco linhas paralelas, não se sabe se será uma variante do tabuleiro, se será uma representação apócrifa. O exemplar mais antigo, alguma vez descoberto na grécia, foi um tabuleiro de terracota, descoberto em "Anagiros" na Ática, numa sepultura do século VII a.C., que se acredita que poderá ter sido usado para jogar o jogo das cinco linhas. Roma Antiga. Na Roma Antiga havia um jogo, que terá sido um possível percursor do alquerque (e este, por seu turno, do jogo das damas), que se chamaria o "jogo das doze linhas" ("Duodecim Scripta"), que se jogava num tabuleiro análogo ao "pente grammai" grego ou mesmo ao "jogo das nove linhas" egípcio. O nome é intuitivo, jogava-se em tabuleiros com peças. Tratar-se-ia de um jogo de sorte e de estratégia, com semelhanças ao gamão moderno. As peças, que seriam entre 12 e 30, representavam homens, sendo que, por vezes, eram designadas exactamente como tal, e apresentavam as cores preta e branca. Havia capturas de peças saltando sobre a peça do adversário e ocupando a casa por ela ocupada. As peças capturadas saiam do tabuleiro e regressavam ao jogo mais tarde. O vencedor seria aquele que completasse o percurso do jogo, ou capturando os "homens" do adversário ou impossibilitando a captura dos seus homens. Além das peças, também se jogaria com dois ou três dados, consoante se jogava com 12 ou 30 peças. Não se conhece em que posições estariam as peças ao começar o jogo. Com base na passagem « ὀπισθιδίη ὁδὸς» escrita por Agátias fica-se com a ideia de que o jogo tanto se poderia jogar em casa como na rua. A mais antiga menção a este jogo encontra-se na obra de Ovídio "Ars Amatoria" ("A Arte de Amar") (escrita entre 1 a.C e 8 d.C). Um exemplar antigo deste jogo foi exumado nas escavações arqueológicas de Kibrya no Sul da Turquia. O tabuleiro dava pelo nome de "tabula", ou, mais raramente "abacus", ou, ainda, se tivesse uma borda com relevo, "alveus" (por exemplo, Plínio, no capítulo XIII, do Livro VII, da obra História Natural, menciona «“"alveus cum tesseris lusorius"»- lit «tabuleiros com dados de jogar»); às "'peças" chamavam-se "homens" ou então "pedrinhas", do gr. "ψῆφοι ( 'psífoi' = lit. «pedrinha; seixo; gogo»)" ou do lat. ""calculi" (pedrinha); à situação do jogo num dado momento chamava-se "θέσις (gr. 'thésis' = lit. «posição; disposição»)"; Ao avanço com a peça, "τιθέναι (tithénai= pisar, pousar, depositar, colocar)", chamava-se "colocação""; à retirada ou captura de uma peça do tabuleiro "ἀνατιθέναι (gr. 'anathema' = lit. «remeter; preterir»)" ou "reducere (lat.)", chamava-se "retirada". Dada a popularidade da língua grega no império romano, à data em que se jogava este jogo, alguns termos designavam-se pelo nome grego, não tendo chegado até nós o seu equivalente latino. O primeiro jogador romano de duodecim scripta de que há registo foi o cônsul Públio Múcio Cévola, que viveu no século II a.C., de acordo com Cícero, Públio jogava tão bem que "era capaz de jogar de olhos vendados" (o que poderá muito bem ser simplesmente uma força de expressão). Quintiliano,na obra "Institutio Oratoria", Livro décimo primeiro, capítulo II, inclusive faz o relato de que Cévola, certa vez, depois de perder um jogo, foi capaz de se recordar de todas as jogadas anteriores, indicando concretamente a jogada em que cometera o erro que lhe custara a derrota e logo confirmando com o adversário as passagens e jogadas que cada um fez. Isto é citado, com o intuito de salientar a boa memória deste cônsul. Vestígios encontrados Mediterrâneo da Idade do Bronze. Tendo dito isto, há vestígios de jogos protótipos ou percursores do al-qirkat, um pouco por toda a orla Mediterrânea. Há vestigios da Idade do Bronze, de peças de jogar, a que chamamos «Tiras», encontradas gravadas na pedra, nas regiões alpinas, maxime ao pé do lago Garda. Há vestigios de tabuleiros semelhantes ao do al-qirkat gravados nos rochedos na Galiza, em Maia e Baiona, que datam da época romana, sendo certo que também já foram encontrados outros exemplares desse período na antiga cidade de Mulva (actual Sevilha). Percursores modernos. Alquerque. Tal como consta da obra «"Board and Table Games from Many Civilizations»" de R. C. Bell, aquele escreve que «"quando os mouros invadiram a Península Ibérica, no séc. VIII, trouxeram El-qirkat consigo"».. Portanto, sabe-se que o jogo já existiria, pelo menos, desde o século VIII, na sua forma perfectivada, fosse como alquerque dos seis, dos nove ou dos doze. O Jogo não aparece na literatura até o final do século X, quando o autor Abu al-Faraj al-Isfahani faz menção ao al-qirkat no «"Kitab al-Aghani»" (lit. "Livro das Canções"), obra de vinte e quatro volumes, onde, todavia, não consta qualquer menção das regras do jogo. As regras mais antigas conhecidas do jogo do alquerque dos doze são as que aparecem, no século XIII, na obra «Livro de xadrez, dados e tabuleiros» de Afonso X de Castella. Em 1283, no reinado de Afonso X de Castela já há registos a respeito do alquerque do 3, do 9 e do 12. O alquerque dos doze fundiu-se, no século XV, com o tabuleiro de xadrez e deu lugar às damas. A "regra do sopro", terá surgido em França no séc.XV, já quando o jogo começava a adquirir a feição de jogo das damas e consistia numa inovação às regras, que passava por penalizar o jogador que, por esquecimento ou outro motivo, não efectuasse uma captura da peça do adversário, quando tinha a oportunidade para o fazer. Passava, então a instituir-se a obrigatoriedade de capturar a peça do adversário, obrigação essa que existe em alguns jogos do alquerque, mas que não é comum a todos, mesmo no alquerque moderno. De acordo com o autor Arie Van Der Stoep, há registos da época, que mostram ter-se popularizado a prática de retirar a peça do jogador que não efectuou a captura obrigatória, chegá-la aos lábios e soprar-lhe em cima, antes de a retirar do tabuleiro. Daí o nome "regra do sopro" e da ulterior expressão "soprar a peça". Cada peça foi alcunhada de "fers", o mesmo nome que, então, se dava à rainha no xadrez, daqui se terá propiciado o ulterior aparecimento do jogo das damas, por ambas se movimentarem no tabuleiro da mesma maneira. O tabuleiro do jogo do alquerque é quadrado e divide-se em dezasseis quadrados. Todos os dezasseis quadrados são atravessados por linhas paralelas e diagonais, que foram vinte e cinco intersecções (a que se chamam pontos ou casas) onde de se põem as 24 peças. Há 12 peças de uma cor e outras 12 de outra, normalmente branco e preto. O objectivo do jogo é ir capturando peças ao adversário até que não lhe sobrem mais peças ou, então, impedir o adversário de capturar mais peças, o que se consegue quando se põem as peças ao longo das arestas do tabuleiro, deixando de haver a possibilidade de saltar por cima delas, por não haver linhas paralelas ou diagonais, que permitam passar por cima da peça e aterrar numa casa livre (a isto chama-se coloquialmente "afogar o jogo"). Vestígios arqueológicos em Portugal. Há uma tendência arqueológica portuguesa expressiva, que se caracteriza pela presença de tabuleiros de jogo gravados nos muros baixos e nos degraus das escadarias de inúmeros monumentos portugueses, desde a Alta Idade Média, até depois do Renascimento. A título de exemplo, encostado à muralha do castelo de Castelo Rodrigo, há vestígios de um tabuleiro do alquerque dos nove gravado na pedra. O mesmo sucede com a escadaria da Igreja das Servas, em Borba. Na nomenclatura tradicional portuguesa, as peças do jogo do alquerque também podem, elas-mesmas, dar pelo nome de alquerque, há também a possibilidade de se chamar alquerque ao jogo e alguergue às peças ou vice-versa. Crowning. As regra de Crowning foi usado pelo século XIII, como é mencionado em Chronique do Philip Mouskat em 1243, quando o jogo era conhecido como "Fierges", o nome usado para a rainha de xadrez (derivado do persa "firz", significando conselheiro do rei ou vizir). As peças se tornaram conhecidas como "damas", quando esse nome também foi adotado para a rainha de xadrez. A regra forçando os jogadores a tomar sempre que possível, foi introduzido na França em torno de 1535, altura em que o jogo se tornou conhecido como "Jeu forcé", idêntico ao jogo de damas inglês moderno. O jogo sem a captura forçada ficou conhecido como "Le jeu plaisant de dames", o precursor dos jogos de damas internacionais. No século XVIII, o escritor inglês Samuel Johnson escreveu um prefácio para um livro de 1756 sobre damas de William Payne, o mais antigo livro em língua inglesa sobre o jogo. Damas no computador. Em julho de 2007, um grupo da Universidade de Alberta liderado por Jonathan Schaeffer anunciou, num artigo publicado na Revista Science, que havia resolvido o jogo de damas. O programa "Chinook" desenvolvido pelo grupo desde 1989, chegou a um ponto de sua evolução em que comprovadamente tornou-se imbatível. Desta forma, o grupo pôde demonstrar que as damas são um jogo de empate, ou seja, sempre terminará em empate se ambos os adversários realizarem as jogadas corretas. O Chinook já se havia destacado anteriormente por ter sido o vencedor do "Campeonato Mundial Homem x Máquina", em 1994.
682
Tiësto
Tiësto Tiësto é o nome artístico do DJ, remixer e produtor musical holandês Tijs Michiel Verwest. Tiësto tem extrema importância na cena da música eletrônica devido ao seu pioneirismo e é descrito por muitos como um dos maiores nomes da história da música eletrônica, por vezes, como o maior DJ de todos os tempos. Apesar de ele ter utilizado muitos apelidos no passado, ele é mais conhecido pelo seu trabalho como Tiësto. Nas suas produções mais recentes, no entanto, ele abandonou o rótulo de "DJ" e é conhecido agora como simplesmente "Tiësto", uma alcunha que deriva de seu apelido de infância. Conforme sua popularidade cresceu no início dos anos 2000, ele tornou-se o primeiro DJ a apresentar-se para um grande público sem nenhum outro DJ ou outros actos de abertura. Ele também é notado por ser o primeiro DJ a tocar ao vivo no palco em Jogos Olímpicos na cerimónia de abertura das olimpíadas de 2004 em Atenas. Além de receber inúmeros prémios pelo seu trabalho ele foi coroado como o "Melhor Dj do mundo" 3 vezes consecutivas pela DJ Magazine de 2002/2003/2004. Ele também realizou contribuições de caridade. Em Abril de 2006, Tiësto foi nomeado o embaixador mundial para a fundação Dance4Life, combatendo a disseminação da Sida, para a qual ele gravou a faixa "Dance4life." Em Dezembro de 2007, Tiësto e Giorgio Armani colaboraram juntos numa edição limitada de uma camisola de Tiësto disponível nas lojas Armani Exchange. O seu single "Sweet Things" inclui a camisola, com os lucros da venda beneficiando os Mercy Corps, uma ONG de acção humanitária. Ele recebeu uma nomeação para um Grammy Award em 2008, por seu álbum "Elements of Life". Em 2008 e 2009, Tiësto estabelecidas entre o 7 Julho e 22 de Setembro, toda segunda-feira como o novo DJ residente na Privileg em Ibiza. 2008 e 2009, Tiësto foi eleito para o International Dance Music Awards (IDMA) no Winter Music Conference, em Miami, como o melhor DJ do mundo. Em 2020, Tiësto lançou seu novo projeto chamado: VER:WEST Início de carreira. Tiësto começou a sua carreira de DJ profissional em festas escolares, conseguindo depois ser DJ residente em vários clubs holandeses, entre 1985 e 1993. Foi no clube "The Spock" que as coisas arrancaram mesmo para ele: Tijs, que até aí tinha produzido faixas hardcore/gabber, sob os nomes artísticos de "Da Joker" e "DJ Limited" e começou a produzir um som mais próprio e próximo do que é hoje conhecido. Muito embora Tiësto seja considerado um DJ de trance, ele passa nos seus sets também um pouco de techno e house. Em 1997, juntamente com Arny Bink, formou a Black Hole, a editora que lançou para o mercado as compilações Magik (a compilação de música eletrônica mais vendida de todos os tempos), "In Search Of Sunrise" e "Nyana" e na qual ele lançou diversos singles, sobre os nomes de "Drumfire, Stray Dog, Tom Ace, Wild Bunch". Lançou ainda diversos singles com outros DJs, sob os nomes de "A3, Alibi, Andante, Clear View, Control Freaks, Glycerine, Gouryella, Hammock Brothers, Hard Target, Kamaya Painters, Main Men, Major League, T-Scanner, TB X-Press, Tiësto, Storm & Montana, Two Deejays, Vimana" e "West & Storm". A editora cresceu tanto que Tiësto, em 2001, fundou uma sub-editora, a "Magik Muzik". Algumas das produções lançadas pela sub-editora são o single Flight 643, e os seus álbuns de estúdio In My Memory, Just Be, Elements of Life e Kaleidoscope. O sucesso. Em 1997, Tiësto lança o primeiro de sete volumes da série Magik, a compilação mais vendida da história da música electrónica. Em 1999, junta-se a Ferry Corsten, para formar a dupla Gouryella, que produziu os singles Gouryella, Walhalla e Tenshi. Em 2001, lança o seu primeiro álbum com músicas próprias, In My Memory, que contém muitos dos singles que marcam a sua carreira, como Lethal Industry, Suburban Train, Obsession e Flight 643. Em 2002 é eleito, pela primeira vez, o melhor Dj do Mundo pela DJ Magazine. Em 2003, renova o título e promove "Tiësto In Concert", um grandioso evento, pioneiro na música electrónica, seguindo o conceito de um DJ a actuar a solo. Nesse concerto, Tiësto tocou duas noites seguidas em Arhnem, Gelredome, para 25 mil pessoas. Em 2004, ganha o título pela terceira vez, sendo o primeiro DJ a consegui-lo. Além disso, lança o seu segundo álbum, Just Be, de onde saíram singles como Just Be, Love Comes Again, Traffic, Nyana e Adagio for Strings. O grande "destaque" da carreira de Tiësto, é, segundo muitos fãs, a presença de Tiësto nos Jogos Olímpicos de Atenas, Grécia, em 2004, onde foi o artista convidado pela organização para abrir a cerimónia de abertura dos Jogos. Ainda neste ano, repetiu o seu "Tiësto In Concert", novamente um grande sucesso. Em 2006, é nomeado embaixador oficial da Dance4Life, organização contra a SIDA/HIV, para a qual compôs o single Dance4Life, com Maxi Jazz, do Faithless. Já em 2007, abriu o ano tocando na praia de Ipanema, no Rio de Janeiro, ao vivo para 200 mil pessoas, e lançou o seu novo show e álbum, Elements of Life. Com este álbum que começou uma gigantesca digressão mundial. 2008 e 2009, Tiësto foi eleito para o International Dance Music Awards (IDMA) no Winter Music Conference, em Miami, como o melhor DJ do mundo. 2013, Tiësto foi eleito pela DJ Magazine na cerimônia do Top 100 DJs Awards, categoria Legend Award, como melhor DJ dos últimos 20 anos. (1993 - 2013)
683
Disjunção Lógica
Disjunção Lógica
684
Distrito Federal (Brasil)
Distrito Federal (Brasil) O Distrito Federal é uma das 27 unidades federativas do Brasil. Situado na Região Centro-Oeste, é a menor unidade federativa brasileira e a única que não tem municípios, sendo dividida em 35 regiões administrativas, totalizando uma área de . Em seu território, está localizada a capital federal do Brasil, Brasília, que é também a sede de governo do Distrito Federal. O Distrito Federal é praticamente um enclave no estado de Goiás, não fosse a pequena divisa de pouco mais de dois quilômetros de extensão com o estado de Minas Gerais, marcada pela passagem da rodovia DF-285. Por via terrestre, o Distrito Federal se conecta a Minas Gerais por uma pequena ponte de 130 metros sobre o rio Preto. Durante o Império, o predecessor ao Distrito Federal atual era o Município Neutro, onde se situava a corte, na cidade do Rio de Janeiro. Depois da proclamação da república, a cidade do Rio de Janeiro tornou-se a capital federal, que, no início da década de 1960, foi transferida para Brasília, no centro do Brasil, no leste do estado de Goiás e a oeste do estado de Minas Gerais, no atual Distrito Federal. Quando de sua transferência, o território onde se localizava anteriormente o antigo Distrito Federal, onde a cidade do Rio de Janeiro se situava, passou a ser o estado da Guanabara (de 1960 a 1975). Com a reordenação republicana do território brasileiro, as províncias passaram a estados e cada um deles passou a ser uma unidade da federação. Quase todos os estados surgiram das províncias de mesmos nomes, exceto o Distrito Federal e outros estados criados pela divisão territorial. O atual Distrito Federal foi idealizado por um projeto do então presidente Juscelino Kubitschek de mudança da capital nacional da cidade do Rio de Janeiro para o centro do país. Em 8 de janeiro de 2023, Alexandre de Moraes determinou o afastamento do até então governador Ibaneis Rocha por 90 dias, após as invasões na Praça dos Três Poderes. Diante isso, Celina Leão, vice-governadora, assumiu a vaga. Origem do nome. O topônimo "Distrito Federal" () é uma versão brasileira de distrito federal, utilizada normalmente em países que se organizam de forma federal. No Brasil Império, a cidade do Rio de Janeiro passou a compreender-se em um Município Neutro a partir de 1834. Após a Proclamação da República, em 1891, quando da promulgação da Constituição Federal de 1891, este ente transformou-se em Distrito Federal, mantendo a antiga capital imperial como sede do novo regime político. Com a mudança dos três poderes do Sudeste para o Centro-Oeste do Brasil, o novo Distrito Federal passou a sediar a nova capital, Brasília, de acordo com a Constituição de 1946. Um dos gentílicos tanto do Distrito Federal como de Brasília é "brasiliense", que significa "brasileiro". O termo "candango", que é também utilizado para designar tanto os habitantes quanto os nascidos em Brasília, foi originalmente usado pelo presidente Juscelino Kubtschek para se referir aos trabalhadores que, em sua maioria provenientes da Região Nordeste do Brasil, foram contratados ou migravam à região da futura capital para sua construção, com o passar do tempo passou a representar também seus descendentes nascidos na cidade. Uma das interpretações sobre seu significado diz que o termo "candango" era usado pelos africanos para designar os portugueses. A denominação é derivada de uma língua africana e possuía originalmente a conotação de "ordinário, ruim", embora alguns dicionários apontem como de origem duvidosa. Assim como o termo "gaúcho", também de origem depreciativa, mas que com o tempo tornou-se razão de orgulho para os nascidos na região Sul do Brasil, além de Uruguay e Argentina, também o gentílico "candango" é utilizado por muitos habitantes de Brasília, nascidos ou não na capital, por significar ainda aqueles que continuam a contribuir para construir o presente e o futuro da capital de todos os brasileiros. História. Primórdios da ocupação humana. Até a chegada dos portugueses ao litoral do Brasil, no século XVI, a porção central do país, na qual se inclui o atual Distrito Federal, era ocupada por indígenas do tronco linguístico macro-jê, como os acroás, os xacriabás, os xavantes, os caiapós, os javaés, etc. No século XVIII, a atual região ocupada pelo Distrito Federal, que era cortada pela linha do Tratado de Tordesilhas que dividia os domínios portugueses dos espanhóis, tornou-se rota de passagem para os garimpeiros de origem portuguesa em direção às minas de Mato Grosso e Goiás. Data dessa época a fundação do povoado de São Sebastião de Mestre d'Armas (atual região administrativa de Planaltina, no Distrito Federal). Antecedentes. A cidade de Salvador foi a primeira sede administrativa do Brasil durante o período que vai de 1549 a 1763, quando foi transferida para o Rio de Janeiro. Os participantes da Conjuração Mineira de 1789 defendiam que a capital do país deveria ser a cidade de São João del-Rei, enquanto os nordestinos da Revolução Pernambucana defendiam que a capital do Brasil deveria ficar no Nordeste e nas proximidades do mar. Mesmo com todas essas divergências, havia o consenso de que o Brasil deveria ter, como sede administrativa, uma cidade que facilitasse tanto o desenvolvimento do país como sua defesa. Havia preferências para que esta sede funcionasse no interior do país, pois isto estimularia a ocupação do interior do Brasil, bem como tornaria a capital menos predisposta às invasões estrangeiras, que aconteciam com mais frequência na zona litorânea. O sonho com Brasília, a capital federal, começou a existir a partir de 1823, na primeira Constituinte no Império Brasileiro, com uma proposta feita por José Bonifácio de Andrada e Silva, que defendeu a mudança da capital para uma região mais central no país, mostrando as vantagens de se construir a capital em uma das vertentes do Rio São Francisco. Durante a defesa de sua proposta, ele até sugeriu o nome da cidade tal qual conhecemos hoje. Porém, somente partir de 1839 iniciou-se uma reflexão sobre a construção de uma cidade no cerrado do planalto central, nas proximidades do rio São Francisco. Em 1852, essa questão despertou o interesse do historiador Varnhagen, que defendeu essa ideia em vários artigos, reunidos em um pequeno bloco de textos, com o nome "A Questão da Capital Marítima ou no Interior". Para a sua satisfação pessoal, Varnhagen, em 1877, fez a primeira visita prática ao local, onde definiu o lugar mais apropriado para a construção da futura capital: um triângulo formado pelas lagoas Feia, Formosa e Mestre d'Armas. A construção da Capital Federal ficou consolidada no artigo 3.º da Constituição da República de 1891, que estabelece: Floriano Peixoto, o segundo presidente da república, pretendendo dar continuidade ao que tinha sido determinado pelo texto da Constituição, estabeleceu, em 1892, a Comissão Exploradora do Planalto Central do Brasil que foi chefiada pelo geógrafo Luís Cruls. Este, após seu retorno, apresentou um relatório, no qual delimitava uma área retangular, no mesmo ponto definido por Varnhagen, a qual ficou conhecida como Retângulo Cruls. Após essa expedição, devido às dimensões desse empreendimento, o plano de construção foi um pouco esquecido, porém, com a vitória da Revolução de 1930, o assunto voltou à tona. Em 1922, uma comissão do governo federal estabeleceu a localização no cerrado goiano, mas o projeto ficou engavetado. No dia do centenário da Independência, o presidente Epitácio Pessoa mandou erigir no Morro do Centenário, em Planaltina, um obelisco com os seguintes dizeres: Interiorização da capital federal. Em 1946, uma comissão chefiada por Poli Coelho atestou a excelente qualidade do lugar já preestabelecido para a construção. Em 1954, outra comissão, chefiada pelo general José Pessoa, finalizou os estudos já realizados e definiu que a área da futura capital seria o espaço delimitado pelos rios Preto e Descoberto e pelos paralelos 15°30 e 16°03, que abrangia áreas territoriais de três municípios goianos: Formosa, Luziânia e Pirenópolis. Em 1955, durante um comício na cidade goiana de Jataí, Juscelino Kubitschek (JK), que em seus discursos sempre defendia o respeito à Constituição e às leis, foi perguntado se respeitaria, se eleito, a Constituição e mudaria a capital federal para o Planalto, de acordo com o que ela determinava. Juscelino respondeu que cumpriria com o que a Constituição decretava. Em 1956, após ser eleito para a presidência da República, JK, por iniciativa própria, enviou ao congresso uma mensagem propondo a criação da Companhia Urbanizadora na Nova Capital (Novacap). Após a aprovação desse projeto pelo congresso, em setembro do mesmo ano, o presidente sancionou a lei que criou a empresa. Com isso, a Novacap, empresa de caráter público, foi incumbida de planejar e executar a construção da capital federal na região delimitada pelo general José Pessoa. Após um concurso público que selecionaria o plano-piloto da cidade, uma comissão julgadora escolheu o projeto urbanístico do arquiteto Lúcio Costa, que foi aprovado, como lei, por unanimidade na Câmara e no Senado. Com isso, também foi oficializado o nome Brasília, bem como a escolha de Oscar Niemeyer como arquiteto e de Joaquim Cardozo como engenheiro estrutural. Em 2 de outubro de 1956, Juscelino Kubitschek assinou, no local da futura capital federal, o primeiro ato, nomeando Mário Meneghetti como ministro da Agricultura, ocasião em que proclamou o seguinte: Construção de Brasília e era contemporânea. Nesse mesmo ano deu-se início às obras, sob a fiscalização de Oscar Niemeyer e Israel Pinheiro. Formou-se, então, o Núcleo Bandeirante, com candangos (trabalhadores que atuaram na construção de Brasília vindos, inicialmente, de Goiás, Minas Gerais e principalmente do Nordeste). Os trabalhos de terraplenagem foram iniciados em novembro de 1956. Trinta mil operários construíram Brasília em 41 meses. Israel Pinheiro foi nomeado o primeiro prefeito do Distrito Federal em 17 de abril de 1960, um pouco antes da sua inauguração, ocorrida em 21 de abril de 1960, data escolhida em homenagem a Tiradentes, por Juscelino Kubitschek. Quando o cargo foi transformado em governador, o indicado pelo presidente da República, foi Hélio Prates. Em 1987, ano em que Brasília é declarada Patrimônio Histórico e Cultural da Humanidade, pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura, a Comissão de Sistematização da Assembleia Nacional Constituinte aprovou a autonomia política do Distrito Federal, o que resultou, pela promulgação da Constituição em 1988, nas eleições diretas para governador, vice-governador e 24 deputados distritais. O primeiro governador eleito pelo voto direto foi Joaquim Roriz, que teve o seu mandato compreendido de 1988 a 1990. Geografia. O Distrito Federal se localiza a 15°50’16" de latitude sul e a 47°42’48" de longitude oeste, com altitudes entre e metros acima do nível do mar, no chamado Planalto Central, cujo relevo é, na maior parte, plano, apresentando algumas leves ondulações. A flora corresponde à predominantemente típica do domínio do cerrado. Em alguns lugares da cidade é possível observar espécies de gimnospermas, como os pinheiros, e também diversos tipos de árvores provenientes de outros biomas brasileiros. As espécies não nativas da região têm sido retiradas pela empresa pública arborizadora da cidade (a Novacap) e substituídas por espécies nativas, como ipês. Biodiversidade. A vegetação do Distrito Federal, caracterizada pelo cerrado, é o resultado de um longo processo de evolução, no qual as plantas buscaram adaptar-se às difíceis condições ambientais como: pouca água, falta de umidade no ar e acidez no solo. Em virtude disso, as principais vegetações do Distrito Federal são o cerrado, vegetação composta por árvores de galhos e caules grossos e retorcidos, distribuídos de uma forma esparsa, onde também existem gramíneas, várias espécies de capins, que se desenvolvem embaixo das árvores e umas espécies semiarbustivas; a mata ciliar composta por florestas estreitas e densas, formadas ao longo do leito dos rios e riachos, por encontrarem solos mais férteis e com boa umidade, o que proporcionam o bom desenvolvimento dessas espécies, e os brejos, que são localizados nas nascentes de água onde desenvolve-se em grandes proporções o buriti. O DF possui grande variedade de vegetação, reunindo 150 espécies. A maioria é nativa, típica do cerrado, e de porte médio, com altura de 15 a 25 m. Muitas são tombadas pelo Patrimônio Ecológico do Distrito Federal, para garantir sua preservação. Algumas das principais: pindaíba, paineira, ipê-roxo, ipê-amarelo, pau-brasil e buriti. Diferentemente de outras regiões brasileiras, durante o período dos meses de verão, o Distrito Federal adquire uma paisagem muito verde, porém, durante os meses de inverno, o capim seca e praticamente todas as árvores mudam suas folhagens, cada árvore ao seu tempo, de modo que não acontece de todas as árvores de uma mesma espécie trocarem de folhas, todas ao mesmo tempo. A preservação da vegetação no DF é um tema recorrente, principalmente pela preocupação em conservar a flora original. O desmatamento provocado pela expansão da agricultura é um dos problemas enfrentados no Distrito Federal, sendo que, segundo a Unesco, desde sua criação, nos anos 1950, 57% da vegetação original não existe mais. Para colaborar com a preservação, são realizados programas de conscientização e de reformas estruturais para diminuir a degradação da vegetação e também da fauna e rios da região. Durante a elaboração do projeto para a Construção de Brasília houve uma grande preocupação e cuidado com a relação ao trinômio cidade-natureza-homem, para que nessa cidade houvesse equilíbrio ambiental entre esses três elementos, objetivando o mantimento de um alto padrão na qualidade de vida dos seus habitantes Isto é evidente quando observamos que a relação área verde por habitante é a maior do país. Desde sua construção até os dias de hoje, há uma série de medidas adotadas para que seja mantido equilíbrio ambiental e para que sejam preservados os recursos naturais existentes em todo o Distrito Federal. Essas medidas resultaram na criação de várias unidades de conservação ambiental, bem como em áreas protegidas ambientalmente e reservas ecológicas, além da criação do Parque Nacional de Brasília. Chega a apresentar uma fauna com mais de 60 000 espécies diferentes, destacando-se a onça-pintada, suçuarana, veado-campeiro, lobo-guará, tamanduá-bandeira e tatu-canastra. Relevo. O Distrito Federal está localizado no Planalto Central do Brasil, onde se localizam as cabeceiras de afluentes de três dos maiores rios brasileiros - o Rio Maranhão (afluente do Rio Tocantins), o Rio Preto (afluente do Rio São Francisco) e os rios São Bartolomeu e Descoberto (tributários do Rio Paraná). O seu relevo é constituído por planaltos, planícies e várzeas, características típicas do cerrado, que possui terreno bem plano ou com suaves ondulações. Sua altitude varia de 600 a 1 100 metros acima do nível do mar, e o ponto mais alto é o Pico do Roncador, com 1 341 metros, localizado na Serra do Sobradinho. Situado na denominada Província Hidrogeológica do Escudo Central, a qual inclui parcialmente a Faixa de Dobramentos Brasília e se estende para norte/noroeste, ocupando a Faixa de dobramentos Paraguai/Araguaia e a parte sul do Cráton Amazônico. Esta província é amplamente dominada por aquíferos fraturados cobertos por mantos de intemperismo (solos e rochas alteradas) com características físicas e espessuras variáveis. Hidrografia. O território do Distrito Federal está situado em um alto regional que não apresenta grandes drenagens superficiais, sendo um divisor natural de três grandes bacias hidrográficas. Por isso, as águas subterrâneas têm função estratégica na manutenção de vazões dos cursos superficiais e no abastecimento de núcleos rurais, urbanos e condomínios. Em 2010, por meio de decreto administrativo, o Distrito Federal foi dividido em três Comitês de Bacias Hidrográficas (CBH). Os rios do DF estão bem supridos pelos lençóis freáticos, razão pela qual não secam, mesmo durante o período da estação seca. A fim de aumentar a quantidade de água disponível para a região, foi realizado o represamento de um dos rios da região, o rio Paranoá, para a construção de um lago artificial, o Lago Paranoá, que tem 40 quilômetros quadrados de extensão, profundidade máxima de 48 metros e cerca de 80 quilômetros de perímetro. O lago possui uma grande marina e é frequentado por praticantes de "wakeboard", "windsurf" e pesca profissional. Clima. O clima do DF é o tropical com estação seca (do tipo "Aw" na classificação climática de Köppen-Geiger), com temperaturas médias mensais sempre superiores a e índice pluviométrico de aproximadamente milímetros (mm) anuais, concentrados entre os meses de outubro e abril. As precipitações ocorrem sob a forma de chuva e, algumas vezes, de granizo, podendo ainda virem acompanhadas de raios e trovoadas. Durante a estação seca (maio a setembro), é comum que os níveis de umidade relativa do ar fiquem muitas vezes abaixo de 30%, bem abaixo do ideal considerado pela Organização Mundial da Saúde (OMS), de 60%. Em 10 de junho de 1985, foi registrada pela primeira vez a ocorrência de geada, quando a temperatura mínima chegou a , a mais baixa registrada em um mês de junho. Na tarde do dia 1 de outubro de 2014, também foi registrada pela primeira vez a formação de um tornado, observado na região do Aeroporto JK, onde os ventos atingiram a velocidade de . Demografia. O crescimento demográfico se situa em 2,82%. A densidade média é de 410,8 hab./km² e a taxa de urbanização, uma das mais altas do país, alcança 94,7%. Relativamente ao desenvolvimento sócioeconômico são significativos os valores dos seguintes indicadores: a mortalidade infantil é de 17,8 por mil nascimentos; a taxa de analfabetismo alcança 4,7 por cento entre as pessoas maiores de 15 anos e o número de leitos hospitalares é de 3 777. Além disso, quase a totalidade da população tem acesso à água corrente e à rede de esgoto. Segundo dados da Pesquisa Nacional por Amostra de Domicílio, a população brasiliense em 2006 era composta por brancos (49,15 por cento), negros (4,80 por cento), pardos (44,77 por cento), asiáticos (0,39 por cento) e indígenas (0,35 por cento). O ritmo de crescimento populacional na primeira década foi de 14,4% ao ano, com um aumento populacional de 285%. Na década de 1970, o crescimento médio anual foi de 8,1%, com um incremento total de 115,52%. A população total do Distrito Federal, que não deveria ultrapassar habitantes em 2000, atingiu esta cota no início da década de 1970, e, entre 1980 e 1991, a população expandiu em mais 32,8%. O Plano Piloto, que, na inauguração, concentrava 48% da população do Distrito Federal, gradativamente perdeu importância relativa, chegando a 13,26% em 1991, passando o predomínio para as cidades-satélite. Em 2010, o Instituto Brasileiro de Geografia e Estatística indicou habitantes. O Índice de Desenvolvimento Humano em 2021 era de 0,814, o maior do país. e a taxa de analfabetismo em 2010 era de 4,35%. Brasília também se caracteriza pela sua desigualdade social, sendo a quarta área metropolitana mais desigual do Brasil e a décima sexta do mundo, segundo um relatório divulgado pela Organização das Nações Unidas. A população local é formada por migrantes de todas as regiões brasileiras, sobretudo do Nordeste e do Sudeste, além de estrangeiros que trabalham nas embaixadas espalhadas pela capital. Dados de 2010 apontavam que quase metade da população não nasceu ali, sendo que eram brasilienses (53,73%) e (46,27%) de outros locais (incluindo estrangeiros, ou 0,33% da população), principalmente de Goiás, Minas Gerais e Bahia. Região integrada. Conhecida como RIDE, a Região Integrada de Desenvolvimento do Distrito Federal e Entorno compreende o Distrito Federal mais os municípios goianos de Abadiânia, Água Fria de Goiás, Águas Lindas de Goiás, Alexânia, Alto Paraíso de Goiás, Alvorada do Norte, Barro Alto, Cabeceiras, Cavalcante, Cidade Ocidental, Cocalzinho de Goiás, Corumbá de Goiás, Cristalina, Flores de Goiás, Formosa, Goianésia, Luziânia, Mimoso de Goiás, Niquelândia, Novo Gama, Padre Bernardo, Pirenópolis, Planaltina, Santo Antônio do Descoberto, São João d'Aliança, Simolândia, Valparaíso de Goiás, Vila Boa e Vila Propício, e os municípios mineiros de Arinos, Buritis, Cabeceira Grande e Unaí. Segundo estimativa do IBGE para julho de 2021, o DF contava com habitantes. Segundo a geógrafa Nelba Azevedo Penna, do Departamento de Geografia da Universidade de Brasília, "em consequência dos processos de ordenamento de seu território, ocorreu uma intensa expansão da urbanização para a periferia limítrofe ao Distrito Federal, que deu origem a formação da região metropolitana de Brasília (atualmente institucionalizada como Região Integrada de Desenvolvimento do Distrito Federal e Entorno – RIDE)". Religião. Tal qual a variedade cultural verificável no Distrito Federal, são diversas as manifestações religiosas presentes. Embora tenha se desenvolvido sobre uma matriz social eminentemente católica, tanto devido à colonização quanto à imigração — e ainda hoje a maioria dos brasilienses declara-se católica —, é possível encontrar atualmente no Distrito Federal dezenas de denominações protestantes diferentes, assim como a prática do budismo, do islamismo, espiritismo, umbanda, candomblé, entre outras. De acordo com dados do censo de 2000 realizado pelo Instituto Brasileiro de Geografia e Estatística, a população do Distrito Federal era composta naquele ano por: católicos (66,16 por cento), protestantes (19,50 por cento), pessoas sem religião (8,64 por cento), espíritas (2,69 por cento), budistas (0,14 por cento), muçulmanos (0,03 por cento), umbandistas (0,15 por cento) e judeus (0,03 por cento). Desigualdade social e criminalidade. Brasília possui a maior desigualdade de renda entre as capitais brasileiras, além de ser uma das capitais em que mais se registram homicídios para cada cem mil habitantes no país. Na região administrativa de Ceilândia, está localizada a segunda mais populosa favela do Brasil, a comunidade do Sol Nascente, com 61 mil habitantes — segundo estimativas de lideranças locais, no entanto, a população seria de 100 mil pessoas, que superaria a da Rocinha, no Rio de Janeiro. Os índices de criminalidade são altos principalmente no Entorno do Distrito Federal. Segundo sociólogos, a criminalidade no Distrito Federal, principalmente nas cidades-satélites, é uma herança do crescimento desordenado, ainda que assentado em núcleos urbanos planejados. Os níveis de criminalidade no DF estão entre os maiores do Brasil, chegando ao ponto de haver uma média de até dois assassinatos diários. Em 2012, houve 1031 homicídios, com taxa de 38,9 por 100 mil habitantes, a 478º maior do país. Existem diversas propostas para tentar diminuir a criminalidade na capital: entre elas, um maior policiamento, medida esta que, aplicada, tem levado a uma retração da violência. Governo e política. A política e a administração do Distrito Federal distinguem-se das demais unidades da federação em alguns pontos particulares, conforme definido na Constituição do Brasil de 1988: O Distrito Federal é pessoa jurídica de direito público interno, ente da estrutura político-administrativa do Brasil de natureza "sui generis", pois não é nem um estado nem um município, mas sim um ente especial que acumula as competências legislativas reservadas aos estados e aos municípios, conforme dispõe o art. 32, § 1º da CF, o que lhe dá uma natureza híbrida de estado e município. O artigo 32 da Constituição Federal de 1988 proíbe expressamente que o Distrito Federal seja dividido em municípios, sendo considerado uno. O poder executivo do Distrito Federal foi representado pelo prefeito do Distrito Federal até 1969, quando o cargo foi transformado em governador do Distrito Federal. O poder legislativo do Distrito Federal é representado pela Câmara Legislativa do Distrito Federal, cuja nomenclatura representa uma mescla de assembleia legislativa (poder legislativo das demais unidades da federação) e de câmara municipal (legislativo dos municípios). A Câmara Legislativa é formada por 24 deputados distritais. O poder judiciário que atende ao Distrito Federal também atende a territórios federais. O Brasil não possui territórios atualmente, portanto, o Tribunal de Justiça do Distrito Federal e dos Territórios só atende ao Distrito Federal. Definição territorial e administrativa. No Brasil, por definição legal, "cidade" é a sede de um "município". A partir do Estado Novo, pelo decreto-lei nº 311, todas as sedes dos municípios passaram a ser cidades, sendo que, até então, as menores sedes de municípios eram denominadas "vilas". No Distrito Federal, porém, são chamados de cidades os diversos núcleos urbanos, sendo o principal deles a região administrativa do Plano Piloto, que por sua vez também se confunde com a ideia de Brasília. O Distrito Federal acumula competências estaduais e municipais e, portanto, não pode ser, juridicamente, dividido em municípios, de acordo com a Constituição da República. Assim, os outros núcleos, que são oficialmente "regiões administrativas" aparecem ora como bairros distantes da capital do país além de aparecer com a nomenclatura coloquial de "cidades". Brasília é constituída por toda a área urbana do Distrito Federal e não apenas a parte tombada pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) ou a região administrativa central, pois a cidade é polinucleada, constituída por várias regiões administrativas, de modo que as regiões afastadas estão articuladas às centrais. Há quem argumente que por todo o Brasil há regiões metropolitanas, onde cidades afastadas acabam articuladas em relação às cidades principais, sem que deixem por isso de ser consideradas cidades. A diferença é que elas são sedes de município. Apesar disso, outros núcleos urbanos do Distrito Federal, hoje chamados regiões administrativas, sempre foram conhecidos por cidades-satélites. Alguns, atualmente, entendem como Brasília apenas a região administrativa de Brasília (formada por parte do Plano Piloto e pelo Parque Nacional de Brasília), e não todo o Distrito Federal. Contundo alguns destes núcleos urbanos, como Planaltina e Brazlândia, são mais antigos do que a própria Brasília. Planaltina já existia como município de Goiás, antes de perder parte de seu território ao Distrito Federal. Por outro lado, a lei de organização do Distrito Federal é uma lei orgânica, típica de municípios e não uma constituição, como ocorre nos estados da federação brasileira, embora esta lei orgânica regule tanto matérias típicas de leis orgânicas municipais quanto de constituições estaduais. Ademais, todas as regiões administrativas do Distrito Federal dispõem de certa autonomia administrativa, sendo seus administradores regionais indicados pela população local de cada região administrativa, através de um processo seletivo dos candidatos indicados pelas entidades representativas dos diversos segmentos da sociedade. Mas vale esclarecer que órgãos oficiais de pesquisa, como o IBGE, o Dieese e o IPEA, não distinguem Brasília do Distrito Federal para efeitos de contagem e estatística pois seus dados são sempre elaborados levando-se em conta o município. Como o Distrito Federal não possui municípios, é considerado como um único ente. Entre 1989 e 2017, com a vigência das divisões regionais em mesorregiões e microrregiões, a unidade federativa era formada unicamente pela mesorregião do Distrito Federal, composta apenas pela microrregião de Brasília. Em 2017, o IBGE extinguiu as mesorregiões e microrregiões, criando um novo quadro regional brasileiro, com novas divisões geográficas denominadas, respectivamente, regiões geográficas intermediárias e imediatas. Segundo a divisão vigente a partir de então, a entidade é composta pela Região Geográfica Intermediária do Distrito Federal, que por sua vez abrange a Região Geográfica Imediata do Distrito Federal. Regiões administrativas. A Constituição de 1988, em seu artigo 32, veda expressamente a divisão do Distrito Federal em municípios. O Distrito Federal é dividido em 33 regiões administrativas, sendo a região administrativa de Brasília a principal delas; dessas apenas dezenove são reconhecidas pelo IBGE, pelo fato de os limites das regiões restantes ainda não terem passado por aprovação na Câmara Legislativa do Distrito Federal. No Brasil, a ideia de cidade está intimamente ligada à de sede de município. Porém, no Distrito Federal, são chamados de cidades os diversos núcleos urbanos sedes das regiões administrativas. Alguns destes núcleos são mais antigos do que a própria Brasília, como Planaltina, que era município de Goiás antes de ser incorporado ao Distrito Federal, e Brazlândia, fundada na década de 1930. Economia. Além de abrigar o centro político, o Distrito Federal também é um importante centro econômico, sendo a sétima unidade federativa com o maior produto interno bruto (PIB) do Brasil (171,2 bilhões de reais - 2012) e o maior PIB per capita do país, 64.653 reais (2012). A principal atividade econômica da capital federal resulta de sua função administrativa. Por isso seu planejamento industrial é estudado com muito cuidado pelo Governo do Distrito Federal. Por ser uma cidade tombada pelo IPHAN e que recebeu o Título de Patrimônio Cultural da Humanidade pela Unesco a ocupação do território do Distrito Federal tem características diferenciadas para preservação da cidade. Assim, o Governo do Distrito Federal tem optado em incentivar o desenvolvimento de indústrias não poluentes como a de software, cinema, vídeo, gemologia, entre outras, com ênfase na preservação ambiental e na manutenção do equilíbrio ecológico, preservando o patrimônio da cidade. Brasília foi construída em terreno totalmente livre, portanto ainda existem muitos espaços nos quais se pode construir novos edifícios. À medida que a cidade recebe novos moradores, a demanda pelo setor terciário aumenta, motivo pelo qual Brasília tem uma grande quantidade de lojas, com destaque para o shopping Conjunto Nacional, localizado no centro da capital. A agricultura e a avicultura ocupam lugar de destaque na economia brasiliense. Um cinturão verde na Região Integrada de Desenvolvimento do Distrito Federal e Entorno abastece a cidade e já exporta alimentos para outros locais. A economia do Distrito Federal também está baseada na pecuária (criação de bovinos, suínos, equinos, asininos, muares, bubalinos, coelhos, ovinos, aves e apicultura); agricultura permanente (plantação de abacate, banana, café, goiaba, laranja, limão, mamão, manga, maracujá, tangerina, urucum e uva) e temporária (cultivo de abacaxi, algodão, alho, amendoim, arroz, batata-doce, batata-inglesa, cana-de-açúcar, cebola, feijão, mandioca, melancia, milho, soja, sorgo granífero, tomate e trigo); indústria alimentícia, pesqueira, extrativistas, de transformação, produção e distribuição elétrica e de gás, indústria de transporte e imobiliária; comércio e serviço. A pauta de exportação em 2012 foi baseada principalmente em Carne de Aves (64,04%) e Soja (8,24%). Infraestrutura. Saúde. Segundo informações do Instituto Brasileiro de Geografia e Estatística, o Distrito Federal dispunha de um total de estabelecimentos de saúde em 2009, sendo 148 públicos e privados, os quais dispunham no seu conjunto de leitos para internação, sendo que quase são públicos. O Distrito Federal também conta com atendimento médico ambulatorial em especialidades básicas, atendimento odontológico com dentista e presta serviço ao Sistema Único de Saúde (SUS). A região administrativa de Brasília possui diversos hospitais públicos, como o Hospital de Base do Distrito Federal (HBDF), o Hospital Regional da Asa Norte (HRAN), o Hospital Regional da Asa Sul (HRAS), da Secretaria de Saúde do Distrito Federal, além do Hospital Universitário de Brasília, da Universidade de Brasília (UnB). Algumas das demais regiões administrativas também possuem hospitais públicos da Secretaria de Saúde do Distrito Federal, em um total de 12. O Distrito Federal tem um dos maiores projetos de informatização do sistema de saúde no Brasil. A região administrativa de Brasília possui quatro setores hospitalares: Setor Hospitalar Local Norte (SHLN) - fim da Asa Norte; Setor Hospitalar Local Sul (SHLS) - fim da Asa Sul; Setor Médico Hospitalar Norte (SMHN) - Zona Central Norte, onde está o HRAN; Setor Médico Hospitalar Sul (SMHS) - Zona Central Sul, onde está o HBDF. Quanto a doenças comuns, o Distrito Federal teve 3.147 ocorrências de dengue de janeiro a agosto de 2008, quase duas vezes mais ddata=19380302o que o registrado no mesmo período de 2007. O Distrito Federal tem uma das maiores taxas de ocorrência de câncer do Brasil. Em 2005, o Distrito Federal foi o recordista nacional de mortes de mulheres por câncer de mama, e os novos casos não diminuíram no ano seguinte. Também são numerosos os casos de câncer de pulmão, devido aos altos índices de tabagismo. Transportes. O Distrito Federal, por estar localizada no centro do Brasil, serve como ligação terrestre e aérea para o país. O Aeroporto Internacional Presidente Juscelino Kubitschek é um dos mais movimentados do Brasil por número de passageiros, recebendo quase 20 milhões de passageiros em 2015, tornando-o o segundo mais movimentado do país. Oito rodovias radiais fazem a ligação da capital federal com outras regiões do Brasil. A atual conjuntura do sistema de transportes do Distrito Federal gera um quadro de pouca mobilidade urbana, com um serviço de ônibus notadamente caro e ineficiente, e uma infraestrutura que privilegia o automóvel particular. Isso gera uma tendência de aumento no número de carros a níveis para os quais a cidade não foi projetada. A cada mês, 5 mil veículos entram em circulação no Distrito Federal, existindo um veículo para 2,3 habitantes do Distrito Federal. Em março de 2008 a frota do Distrito Federal chegou a 995 903 veículos, correspondente a uma taxa de motorização de 390 veículos por cada 1 000 habitantes, e esta taxa é ainda maior na área central de Brasília (Plano Piloto, Sudoeste, Lago Sul e Norte). Começaram a surgir inúmeros engarrafamentos na cidade e alguns lugares se tornam intransitáveis nas horas de pico (rush). Os ônibus transportam pouco mais de 14 milhões de passageiros por mês, mas a maior parte da frota já ultrapassou os sete anos limite impostos por lei. Para tentar amenizar esse quadro, foi construído um metrô, mas devido à sua extensão limitada e ao próprio crescimento da cidade, ele não alterou significativamente o problema de trânsito na cidade e desde o início da sua construção em 1991, gera prejuízos da ordem de 60 milhões de reais anuais ao governo. Das 29 estações planejadas, 24 estão em funcionamento, ligando o centro do Plano Piloto (rodoviária) ao Guará, Águas Claras, Taguatinga, Ceilândia e Samambaia. O Metrô do Distrito Federal transporta cerca de 150 mil usuários por dia. Em 1 de fevereiro de 2009, entrou em funcionamento a integração dos sistemas de micro-ônibus e metrô, com bilhetes eletrônicos. Ainda está em implementação o projeto Brasília Integrada, que contempla a criação de corredores especiais para ônibus e a integração destes com o metropolitano. Um novo terminal rodoviário interestadual foi inaugurado em julho de 2010, ao lado da Estação Shopping do metrô. Educação. O fator educação do Índice de Desenvolvimento Humano do Distrito Federal em 2020 atingiu a marca de 0,817 – o segundo maior do país, em conformidade aos padrões do Programa das Nações Unidas para o Desenvolvimento (PNUD). A taxa de alfabetização da população acima dos dez anos indicada pelo último censo demográfico foi de 96,7%, acima da média nacional (91%). No ensino superior, destacam-se importantes universidades públicas e privadas, muitas delas consideradas centros de referência em determinadas áreas. Dentre as principais instituições de ensino superior da unidade federativa, estão a Universidade de Brasília (UnB), Universidade do Distrito Federal Jorge Amaury (UnDF), Instituto Federal de Brasília (IFB), Universidade Católica de Brasília (UCB), Centro Universitário de Brasília (UniCEUB), Centro Universitário do Distrito Federal (UDF), Instituto de Educação Superior de Brasília (IESB), Universidade Paulista (UNIP) e União Pioneira da Integração Social (UPIS). No entanto, há uma concentração extrema de instituições de ensino superior no Plano Piloto. Em 2006, foi instalado um novo campus da Universidade de Brasília em Planaltina. Existem também campi da UnB nas regiões administrativas de Ceilândia e Gama. O número de bibliotecas não é proporcional ao tamanho da população na área central. As principais bibliotecas públicas do Distrito Federal se localizam no Plano Piloto, como a biblioteca da Universidade de Brasília, a Biblioteca da Câmara e do Senado, a Biblioteca Demonstrativa de Brasília e a Biblioteca Nacional Leonel de Moura Brizola, também conhecida como Biblioteca Nacional de Brasília, inaugurada em 2006. Quanto ao Índice de Desenvolvimento da Educação Básica (IDEB) de 2003, a capital brasileira obteve notas de 5,9 na primeira fase do ensino fundamental, 4,4 na segunda fase do ensino fundamental e 4,0 no ensino médio. Na classificação geral do Exame Nacional do Ensino Médio (ENEM) de 2008, duas escolas particulares da unidade federativa figuraram entre as 50 melhores do "ranking", sendo os colégios Olimpo e Sigma os respectivos sexto e quadragésimo nono colocados. Cultura. Em função da construção de Brasília e em busca de melhores condições de vida, muitas pessoas vieram de todas as regiões do país. Por conta disso, o Distrito Federal possui diferentes costumes, sotaques e culturas. O Distrito Federal não possui uma cultura de características próprias, porém dessa mistura, e com o passar do tempo surgiu sua identidade cultural. Muitas pessoas acreditam que particularmente Brasília possui atributos místicos. Os religiosos, por exemplo, acreditam que a capital federal é resultado de uma profecia, mostrada a Dom Bosco em 30 de agosto de 1883, através de um sonho, no qual ele relata que entre os paralelos 15° e 20° havia uma depressão bastante larga e comprida, partindo de um ponto onde se formava um lago. Então, repetidamente, uma voz assim falou que quando vierem escavar as minas ocultas, no meio destas montanhas, surgirá aqui a terra prometida, vertendo leite e mel. A segurança pública do Distrito Federal é a que possui maior efetivo e é mais moderna do país. No Distrito Federal, o metro quadrado de área residencial é um dos mais caros do país. E particularmente, em Brasília, por ser uma cidade planejada, possui um vasto patrimônio arquitetônico que compreende desde a própria estrutura da cidade até seus prédios públicos e monumentos. Brasília possui outros destaques, como a torre de TV com vista panorâmica, a Catedral, o Catetinho, as feiras de artesanato, o Jardim Botânico e o Autódromo Internacional Nelson Piquet. Esportes. O Distrito Federal é sede de dois clubes de futebol reconhecidos nacionalmente: o Brasiliense Futebol Clube (de Taguatinga) e a Sociedade Esportiva do Gama (ou simplesmente Gama), que chegaram a participar da primeira divisão do Campeonato Brasileiro de Futebol, sendo que o melhor resultado da história foi o vice-campeonato do Brasiliense na Copa do Brasil na edição de 2002. Os principais estádios de futebol são o Estádio Nacional de Brasília Mané Garrincha, o Estádio Elmo Serejo Farias ("Serejão") e o Estádio Walmir Campelo Bezerra ("Bezerrão"). O Estádio Edson Arantes do Nascimento ("Pelezão") foi o primeiro e principal estádio da cidade à época de sua inauguração, mas foi abandonado e demolido em 2009. Brasília foi uma das seis cidades-sede dos jogos da Copa das Confederações de 2013 e uma das doze da Copa do Mundo de 2014, cujos jogos ocorreram no Estádio Nacional de Brasília Mané Garrincha. Inicialmente, a FIFA vetou o nome "Mané Garrincha" para as partidas da Copa das Confederações e da Copa do Mundo da FIFA, mas uma forte pressão popular fez ela voltar atrás e reconhecê-lo como Estádio Nacional de Brasília Mané Garrincha. O estádio está localizado no Complexo Poliesportivo Ayrton Senna (antigo Setor Esportivo), que possui ainda o Ginásio de Esportes Nilson Nelson, que já recebeu partidas da seleções masculina e feminina de vôlei e do Campeonato Mundial de Futsal de 2008, o Autódromo Internacional de Brasília Nelson Piquet, entre outras estruturas. Localizado às margens do Eixo Monumental, no Setor de Recreação Pública Norte (SRPN), é um dos mais completos centros poliesportivos do Brasil. Brasília foi postulante a sede dos Jogos Olímpicos de Verão de 2000, mas teve sua candidatura retirada, e também se candidatou a Universíada de Verão de 2017, quando perdeu para Taipei. A cidade iria sediar a Universíada de Verão de 2019 após a renúncia das duas outras candidatas Baku e Budapeste poucos dias antes da escolha da sede do evento. Em 23 de dezembro de 2014, o então futuro secretário da casa civil Hélio Doyle anunciou que o governador eleito Rodrigo Rollemberg foi forçado a desistir de sediar o evento devido ao calote de 23 milhões de euros que o governo anterior havia dado na FISU e que o governo local não poderia assumir tal compromisso. Por ser uma unidade federativa localizada em altitude superior a mil metros do nível do mar, O Distrito Federal tem revelado atletas de alto nível, corredores de fundo e meio fundo como: o campeão olímpico Joaquim Cruz e Hudson de Souza (800 e 1500 mts rasos); Carmem de Oliveira e Lucélia Peres (5 000, 10 000 e maratona); Valdenor Pereira dos Santos (5000 e 10 000 m); Marilson Gomes dos Santos (5000, 10 000, meia-maratona e maratona). No tênis, o principal torneio é o Aberto de Brasília, disputado em oito quadras da Academia de Tênis Resort, às margens do Lago Paranoá. Com o fechamento da Academia, o torneio que faz parte do ATP Challenger Tour, circuito que acontece em cerca de 40 países, com 178 eventos atuais, foi transferido para o Iate Clube. O Distrito Federal é também a sede do UniCeub/BRB/Brasília, um dos maiores times do basquete nacional e campeão brasileiro.
685
Drum'n'Bass
Drum'n'Bass
686
Desporto
Desporto é toda a forma de praticar atividade física, de forma metódica, com objetivos competitivos, que por meio de participação casual ou organizada, procure usar, manter ou melhorar as habilidades físicas, proporcionando diversão aos participantes e, em alguns casos, entretenimento para os espectadores. Os objetivos do esporte podem ser, além da competição, também recreativos, ou de melhoria da saúde, ou ainda de melhoria de aptidão física e/ou mental. No esporte, o vencedor ou os vencedores podem ser identificados por obtenção de um objetivo, e pode exigir um grau de habilidade, especialmente em níveis mais elevados. São centenas os tipos de desportos existentes, incluindo aqueles para um único participante, até aqueles com centenas de participantes simultâneos, em equipas ou individualmente. De acordo com A.T. Kearney, uma consultoria, a indústria esportiva global vale até US$ 620 bilhões a partir de 2013. Definições. O esporte é geralmente reconhecido como um sistema de atividades baseadas no físico atletismo ou físico destreza, com as maiores competições importantes como os Jogos Olímpicos admitindo apenas esportes que atendem a essa definição, e outras organizações, como o Conselho da Europa, usam definições que impedem atividades sem um elemento físico da classificação como esporte. No entanto, várias atividades competitivas, mas não físicas, reivindicam reconhecimento como esporte esportivo. O Comitê Olímpico Internacional (por meio da ARISF) reconhece o xadrez e bridge como esportes "de boa-fé" e a SportAccord, a associação da federação internacional de esportes, reconhece cinco esportes não físicos: bridge, xadrez, Damas, Go e xiangqi, e limita o número de jogos mentais que podem ser admitidos como esportes. Desportos são normalmente geridos por um conjunto de regras ou costumes. Eventos físicos, tais como marcar gols ou cruzar uma linha em primeiro muitas vezes definem o resultado de um desporto. Etimologia. A palavra "desporto" vem do francês antigo "desport", que significa "recreação, passatempo, lazer". Surgiu na língua portuguesa no século XV, com o sentido de "divertimento". No entanto, apenas a partir do século XIX a influência do termo inglês "sport", que também tem origem em "desport", contribuiu para o incremento do seu uso com o significado moderno em Portugal. Já no Brasil, a par das variantes "desporto" e "desporte" — esta última também presente no português europeu —, surgiu a variante "esporte" adaptada da palavra inglesa "sport", que viria a popularizar-se e a ser a mais comum atualmente. Algumas reminiscências do uso da variante "desporto" no Brasil ainda hoje se podem verificar em nomes de clubes e organizações, como a Confederação Brasileira de Desportos no Gelo, a Confederação Brasileira de Desportos Aquáticos, a Confederação Brasileira de Desportos na Neve, a Confederação Brasileira do Desporto Universitário, bem com as extintas Conselho Nacional de Desportos e Confederação Brasileira de Desportos, entre outras. Desportivismo. O desportivismo é uma atitude que luta pelo "fair play", pela delicadeza com os adversários e colegas de equipa, pelo comportamento ético e integridade, pelo jogo limpo, e pela ética na vitória ou na derrota. O desportivismo expressa uma aspiração ou espírito de que a atividade vai ser apreciada por si mesma. O sentimento é bem conhecido pelo jornalista desportivo Grantland Rice, que disse "não interessa como ganhaste ou perdeste, mas como jogaste o jogo". O lema dos Jogos Olímpicos modernos é expresso pelo seu fundador Pierre de Coubertin: "O mais importante não é vencer, mas sim, participar". Estas são expressões típicas desse sentimento. A violência no desporto envolve cruzar a linha entre a concorrência leal e a violência agressiva intencional. Atletas, treinadores, fãs, e pais, por vezes, desencadeiam comportamentos violentos sobre pessoas ou bens, em demonstrações equivocadas de lealdade, dominância, raiva e/ou celebração. Tumultos ou vandalismo são problemas comuns e em curso em competições desportivas nacionais e internacionais. Desporto profissional. O aspecto dos desportos, juntamente com o aumento do poder dos meios de comunicação e lazer, tem levado ao "profissionalismo" do desporto. Isso fez resultar algum conflito na prática desportiva, pois aí o salário passa a ser mais importante que o aspecto recreativo, e os desportos passam a ser estruturados de forma a torná-los mais rentáveis ​​e populares, perdendo-se, assim, valiosas tradições éticas. De facto, o desporto, por definição, é uma atividade de lazer, e "desporto profissional" não o é e não pode existir como tal. No entanto, o termo é comum e aceite para nomear um jogo ou outra atividade considerada pela população em geral como desporto e que seja realizada por pessoas pela recompensa com a intenção de entreter os espectadores. O aspecto de entretenimento significa também que os desportistas e as suas mulheres são muitas vezes elevados ao "status" de celebridade na mídia e cultura populares. Por este motivo, muitos jornalistas têm sugerido que o desporto não deve ser divulgado pela mídia em geral, mas apenas por revistas especializadas. Política e desporto. O desporto e a política podem influenciar-se muito mutuamente. Quando o "apartheid" era a política oficial na África do Sul, houve um boicote internacional ao país, inclusive no campo esportivo, e em especial no rugby de quinze. Alguns sentem que esta foi uma contribuição efetiva para a eventual queda da política de "apartheid", outros acham que esta pode ter prolongado e reforçado os seus piores efeitos. Os Jogos Olímpicos de Verão de 1936, realizados em Berlim, foram uma ilustração, talvez a mais reconhecida em retrospecto, de um momento em que uma ideologia aproveitou-se de um evento para reforçar a sua disseminação através de propaganda política. Na história da Irlanda, os desportos gaélicos estavam conectados com o nacionalismo cultural. Até meados do século XX, podia-se ser proibido de jogar futebol gaélico, "hurling", ou outros desportos geridos pela "Gaelic Athletic Association" (GAA),se jogasse ou apoiasse futebol, ou outros desportos de origem britânica. Até recentemente, a GAA continuou a proibir o futebol e o râguebi em locais gaélicos. Esta proibição, foi modificada para permitir que o futebol e o "rugby" pudessem ser jogados em Croke Park (um estádio de futebol gaélico), enquanto Lansdowne Road era substituído pelo novo Aviva Stadium. Até recentemente, de acordo com a Regra 21, a GAA proibia também os membros das forças de segurança britânicas e membros da "Royal Ulster Constabulary" (RUC) de jogar jogos gaélicos, mas o Acordo de Belfast, em 1998, levou à remoção da proibição. O nacionalismo é frequentemente evidente nos desportos, ou na sua cobertura jornalística: as pessoas competem em equipas nacionais, e comentadores e público podem adotar uma visão partidária. Em certas ocasiões, essas tensões podem levar a um confronto violento entre os jogadores ou espectadores dentro e fora do recinto desportivo, como na Guerra do Futebol. Estas tendências são vistas por muitos como contrária ao espírito fundamental do desporto, que é o do bem e gozo dos seus participantes. Um caso muito famoso de quando o desporto e a política colidiram foi nos Jogos Olímpicos de Verão de 1972 em Munique. Homens mascarados entraram no hotel da equipa olímpica israelita e mataram muitos dos seus homens. Este caso ficou conhecido como o Massacre de Munique.
687
Dante Alighieri
Dante Alighieri Dante Alighieri (Florença, entre 21 de maio e 20 de junho de 1265 d.C. – Ravena, 13 ou 14 de setembro de 1321 d.C.) foi um escritor, poeta e político florentino, nascido na atual Itália. É considerado o primeiro e maior poeta da língua italiana, definido como "il sommo poeta" ("o sumo poeta"). Disse o escritor e poeta francês Victor Hugo (1802-1885) que o pensamento humano atinge em certos homens a sua completa intensidade, e cita Dante como um dos que "marcam os cem graus de gênio". E tal é a sua grandeza que a literatura ocidental está impregnada de sua poderosa influência, sendo extraordinário o verdadeiro culto que lhe dedica a consciência literária ocidental. Seu nome, segundo o testemunho do filho Jacopo Alighieri, era um hipocorístico de "Durante". Nos documentos, era seguido do patronímico "Alagherii" ou do gentílico "de Alagheriis", enquanto a variante "Alighieri" afirmou-se com o advento de Boccaccio. Foi muito mais do que literato: numa época onde apenas os escritos em latim eram valorizados, redigiu um poema, de viés épico e teológico, "La Divina Commedia" ("A Divina Comédia"), o grande poema de Dante, que é uma das obras-primas da literatura universal. A Commedia se tornou a base da língua italiana moderna e culmina a afirmação do modo medieval de entender o mundo. Essa obra foi originalmente intitulada "Comédia" e mais tarde foi rebatizada com o adjetivo "Divina" por Giovanni Boccaccio. A primeira edição que adicionou o novo título foi a publicação do humanista veneziano Lodovicco Dolce, publicado em 1555 por Gabriele Giolito de Ferrari. Nasceu em Florença, onde viveu a primeira parte da sua vida até ser exilado. O exílio foi ainda maior do que uma simples separação física de sua terra natal: foi abandonado por seus parentes. Apesar dessa condição, seu amor incondicional e capacidade visionária o transformaram no mais importante pensador de sua época. Vida. Primeiros anos de vida e família. Não há registro oficial da data de nascimento de Dante. Ele informa ter nascido sob o signo de Gêmeos, entre fim de maio e meados de junho. A referência mais confiável é a data de 25 de maio de 1265. "Dante", na verdade, é uma abreviação de seu real nome, "Durante". Nasceu numa importante família florentina (cujo apelido era, na realidade, Alaghieri) comprometida politicamente com o partido dos guelfos, uma aliança política envolvida em lutas com outra facção de florentinos: os gibelinos. Os guelfos estavam ainda divididos em "guelfos brancos" e "guelfos negros". Dante, no "Inferno" (XV, 76), pretende dizer que a sua família tem raízes na Roma Antiga, ainda que o familiar mais antigo que se lhe conhece citado pelo próprio Dante, no livro "Paraíso", (XV, 135), seja Cacciaguida do Eliseu, que terá vivido, quando muito, à volta do ano 1100 (o que, relativamente ao próprio Dante, não é muito antigo). O seu pai, Alighiero di Bellincione, foi um "guelfo branco". Não sofreu, porém, qualquer represália após a vitória do partido gibelino na Batalha da Montaperti. Essa consideração por parte dos próprios inimigos denota, com alguma segurança, o prestígio da família. A mãe de Dante chamava-se Bella degli Abati, nome algo comentado por significar "a bela dos abades", ainda que Bella seja uma contracção de Gabriella. Morreu quando Dante contava apenas com cinco ou seis anos de idade. Alighiero rapidamente se casou com Lapa di Chiarissimo Cialuffi. Há alguma controvérsia quanto a esse casamento, propondo alguns autores que os dois se tenham unido sem contrair matrimónio, graças a dificuldades levantadas, na época, ao casamento de viúvos. Dela nasceram o irmão de Dante, Francesco, e Tana (Gaetana), sua irmã. Com a idade de doze anos, em 1277, sua família impôs o casamento com Gemma, filha de Messe Manetto Donati, prática comum — tanto no arranjo quanto na idade — na época. Era dada uma importância excepcional à cerimónia que decorria num ambiente muito formal, com a presença de um notário. Dante teve vários filhos de Gemma. Como acontece, geralmente, com pessoas famosas, apareceram muitos supostos filhos do poeta. É provável, no entanto, que Jacopo, Pietro e Antonia fossem, realmente, seus filhos. Antonia tomou o hábito de freira, com o nome de Irmã Beatriz. Um outro homem, chamado Giovanni, reclamou também a filiação mas, apesar de ter estado com Dante no exílio, restam algumas dúvidas quanto à pretensão. Educação e poesia. Pouco se sabe sobre a educação de Dante, presumindo-se que tivesse estudado em casa, de forma autodidata. Sabe-se que estudou a poesia toscana, talvez com a ajuda de Brunetto Latini (numa idade posterior, como se dirá de seguida). A poesia toscana centrava-se na "Scuola poetica siciliana", um grupo cultural da Sicília que se dava a conhecer, na altura, na Toscânia. Esse interesse depressa se alargou a outros autores, dos quais se destacam os menestréis e poetas provençais, além dos autores da Antiguidade Clássica latina, de entre os quais elegia, preferencialmente, Virgílio, ainda que também tivesse conhecimento da obra de Horácio, Ovídio, Cícero e, de forma mais superficial, Tito Lívio, Séneca, Plínio, o Velho e outros de que encontramos bastantes referências na Divina Comédia. É importante referir que durante estes séculos escuros (em italiano "Secoli Bui)", expressão usada por alguns para referir-se à Idade Média, designando-a como "Idade das trevas" - noção que hoje em dia é rebatida por muitos historiadores que demonstram que essa época foi muito mais rica culturalmente do que aquilo que a tradição pretende demonstrar), a península Itálica era politicamente dividida em um complexo mosaico de pequenos estados, de modo que a Sicília estava tão longe, cultural e politicamente, de Florença quanto a Provença. As regiões do que hoje é a Itália ainda não compartilhavam a mesma língua nem a mesma cultura, também em virtude das vias de comunicação deficitárias. Não obstante, é notório o espírito curioso de Dante que, sem dúvida, pretendia estar a par das novidades culturais a um nível internacional. Aos dezoito anos, com Guido Cavalcanti, Lapo Gianni, Cino da Pistoia e, pouco depois, Brunetto Latini, Dante lança o "Dolce Stil Nuovo". Na Divina Comédia (Inferno, XV, 82), faz-se uma referência especial a Brunetto Latini, onde se diz que terá instruído Dante. Tanto na Divina Comédia como na "Vita Nuova" depreende-se que Dante se terá interessado por outros meios de expressão como a pintura e a música. Ainda jovem (18 anos), conheceu Beatrice Portinari, a filha de Folco dei Portinari, ainda que, crendo no próprio Dante, a tenha fixado na memória quando a viu pela primeira vez, com nove anos (teria Beatriz, nessa altura, oito anos). Há quem diga, no entanto, que Dante a viu uma única vez, nunca tendo falado com ela. Não há elementos biográficos que comprovem o que quer que seja. É difícil interpretar no que consistiu essa paixão, mas, é certo, foi de importância fulcral para a cultura italiana. É sob o signo desse amor que Dante deixou a sua marca profunda no "Dolce Stil Nuovo" e em toda a poesia lírica italiana, abrindo caminho aos poetas e escritores que se lhe seguiram para desenvolverem o tema do Amor ("Amore") que, até então, não tinha sido tão enfatizado. O amor por Beatriz (tal como o amor que Petrarca demonstra por Laura, ainda que numa perspectiva diferente) aparece como a justificativa da poesia e da própria vida, quase se confundindo com as paixões políticas, igualmente importantes para Dante. Quando Beatriz morreu, em 1290, Dante procurou refúgio espiritual na filosofia da Literatura latina. Pelo "Convívio", sabemos que leu a "De consolatione philosophiae", de Boécio, e a "De amicitia", de Cícero. Dedicou-se, pois, ao estudo da filosofia em escolas religiosas, como a Dominicana de Santa Maria Novella, tanto mais que ele próprio era membro da Ordem Terceira de São Domingos. Participou nas disputas entre místicos e dialécticos, que se travavam, então, em Florença nos meios académicos, e que se centravam em torno das duas ordens religiosas mais relevantes. Por um lado, os franciscanos, que defendiam a doutrina dos místicos (São Boaventura), e, por outro, os dominicanos, que se socorriam das teorias de Tomás de Aquino. A sua paixão "excessiva" pela filosofia é criticada por Beatriz (representando a Teologia), no "Purgatório". Carreira política em Florença. Dante participou, também, na vida militar da época. Em 1289, combateu ao lado dos cavaleiros florentinos, contra os de Arezzo, na batalha de Campaldino, em 11 de junho. Em 1294, estava com os soldados que escoltavam Carlos I, Conde de Anjou (também referido por vezes como "Martel") quando este estava em Florença. Foi, também, médico e farmacêutico; não pretendia exercer essas profissões mas, segundo uma lei de 1295, todo nobre que pretendesse tomar um cargo público devia pertencer a uma das guildas ("Corporazioni di Arti e Mestieri" - ou seja, "Corporação de Artes e Ofícios"). Ao entrar na guilda dos boticários, Dante podia, assim, ascender à vida política. Esta profissão não era, de todo, inadequada para Dante, já que, na época, os livros eram vendidos nos boticários. De 1295 a 1300, fez parte do "Conselho dos Cem" (o conselho da comuna de Florença), onde fez parte dos seis priores que governavam a cidade. O envolvimento político de Dante acarretou-lhe vários problemas. O papa Bonifácio VIII tinha a intenção de ocupar militarmente Florença. Em 1300, Dante estava em San Gimignano, onde preparava a resistência dos guelfos toscanos contra as intrigas papais. Em 1301, o papa enviou Carlos de Valois, (irmão de Felipe o Belo, rei de França), como pacificador da Toscânia. O governo de Florença, no entanto, já recebera mal os embaixadores papais, semanas antes, de forma a repelir qualquer influência da Santa Sé. O Conselho da cidade enviou, então, uma delegação a Roma, com o fim de indagar ao certo as intenções do Sumo Pontífice. Dante chefiava essa delegação. Exílio e morte. Bonifácio rapidamente enviou os outros representantes de Florença de volta, retendo apenas Dante em Roma. Entretanto, a 1 de novembro de 1301, Carlos de Valois entrava em Florença com os guelfos negros que, por seis dias, devastaram a cidade e massacraram grande número de partidários da facção branca. Instalou-se, então, um governo apoiante dos guelfos negros, e Cante dei Gabrielli di Gubbio foi nomeado "Podestà" (funcionário público designado pelas famílias mais influentes da cidade). Dante foi condenado, em Florença, ao exílio por dois anos, além de ser condenado a pagar uma elevada multa em dinheiro. Ainda em Roma, o papa "sugeriu-lhe" que aí se mantivesse, sendo considerado, a partir de então, um proscrito. Não tendo pago a multa, foi, por consequência, condenado ao exílio perpétuo. Se fosse, entretanto, capturado por soldados de Florença, seria sumariamente executado, queimado vivo. O poeta participou em várias tentativas para repor os guelfos brancos no poder; em Florença, no entanto, devido a diversas traições, todas falharam. Dante, amargurado com o tratamento de que foi alvo por parte dos seus inimigos, afligia-se também com a inacção dos seus antigos aliados. Declarou solenemente, na altura, que pertencia a um partido com um único membro. Foi nesta altura que começou a fazer o esboço do que viria a ser a "Divina Comédia", poema constituído por 100 cantos, divididos em três livros ("Inferno", "Purgatório" e "Paraíso") com 33 cantos cada (exceptuando o primeiro livro que, dos seus 34 cantos, o primeiro é considerado apenas como Canto introdutório). Foi para Verona, onde foi hóspede de Bartolomeo Della Scala; mudou-se para Sarzana (Ligúria), e, depois, supõe-se que terá vivido algum tempo em Lucca com Madame Gentucca, que o acolheu de forma calorosa (o que, mais tarde, será referido de forma agradecida no Purgatório XXIV,37). Algumas fontes afirmam que teria estado em Paris, entre 1308 e 1310. Outras fontes, menos credíveis, porém, dizem que teria ido até Oxford. Em 1310, Henrique VII do Luxemburgo invadiu a Itália. Dante viu nele a hipótese de se vingar. Escreveu-lhe, bem como a vários príncipes italianos, cartas abertas onde incitava violentamente à destruição do poderio dos guelfos negros. Misturando religião e assuntos privados, invocou a ira divina sobre a sua cidade, sugerindo como alvo principal do desagrado de Deus os seus mais tenazes inimigos pessoais. Em Florença, Baldo d'Aguglione perdoou a maior parte dos guelfos brancos que estavam no exílio, permitindo-lhes o seu regresso. Dante, no entanto, tinha ultrapassado largamente os limites toleráveis para o partido negro nas suas cartas a Henrique VII, pelo que o seu regresso não foi permitido. Em 1312, Henrique assaltou Florença, derrotando os "guelfos negros". Não há, no entanto, qualquer evidência de uma possível participação de Dante no evento. Há quem diga que Dante se recusou a participar num ataque à sua cidade ao lado de um estrangeiro. Outros, porém, sugerem que o seu nome se tinha tornado incómodo para os próprios "guelfos brancos", pelo que qualquer traço da sua passagem foi prontamente apagado para a posteridade. Em 1313, com a morte de Henrique, morreu também a esperança de Dante de rever a sua cidade. Voltou para Verona onde Cangrande I della Scala, o Senhor de Verona, lhe permite viver seguro, confortável e, presume-se, com alguma prosperidade. Cangrande é um dos personagens admitidos por Dante no seu Paraíso (XVII, 76). Em 1315, Florença foi obrigada, por Uguccione della Faggiuola (oficial militar que controlava a cidade) a outorgar amnistia a todos os exilados. Dante constava na lista daqueles que deveriam receber o perdão. No entanto, era exigido que estes pagassem uma determinada multa e, acima de tudo, que aceitassem participar numa cerimónia de cariz religioso onde se retractariam como ofensores da ordem pública. Dante recusou-se a semelhante humilhação, preferindo o exílio. Quando Uguccione derrotou, finalmente, Florença, a sentença de morte que recaía sobre Dante foi comutada numa pena de prisão, sob a única condição de que teria de ir a Florença jurar solenemente que jamais entraria na cidade. Dante não foi. Como resultado, a pena de morte estendeu-se aos seus filhos. Dante ainda esperou, mais tarde que fosse possível ser convidado por Florença a um regresso honrado. O exílio era como que uma segunda morte, privando-o de muito do que formava a sua identidade. No Canto XVII, 55-60, do Paraíso, Dante refere o quanto era dolorosa para si a vida de exilado, quando o seu trisavô, Cacciaguida, lhe "profetiza" aquilo que o espera: Quanto à esperança de um dia voltar a Florença, Dante descreve o seu sentimento melancólico, como se já estivesse resignado a essa impossibilidade, no Canto XXV, 1-9 do "Paraíso": É claro que isto nunca aconteceu. Os seus restos mortais mantêm-se em Ravena, não em Florença. Guido Novello da Polenta, príncipe de Ravena, convidou-o para aí morar, em 1318. Dante aceitou a oferta. Foi em Ravenna que terminou o "Paraíso" e, pouco depois, falecia, talvez de malária, em 1321, com 56 anos, sendo sepultado na Igreja de San Pier Maggiore (mais tarde chamada Igreja de San Francesco). Bernardo Bembo, pretor de Veneza, decidiu honrar os restos mortais do poeta, erigindo-lhe um monumento funerário de acordo com a dignidade de Dante Alighieri. Na sepultura, constam alguns versos de Bernardo Canaccio, amigo de Dante, onde se refere a Florença com os seguintes termos: Posteriormente, Florença chegou a lamentar o exílio de Dante e fez repetidos pedidos para o retorno de seus restos mortais. Os responsáveis pela guarda de seu corpo em Ravenna se recusaram a cumprir, chegando ao ponto de esconder os ossos em uma parede falsa do mosteiro. No entanto, em 1829, um túmulo foi construído para ele em Florença, na basílica de Santa Cruz. Esse cenotáfio está vazio desde então, com o corpo de Dante remanescendo em Ravenna, longe da terra que ele amava tão ternamente. Em frente do seu túmulo em Florença lê-se "Onorate l'altissimo poeta" - que pode ser traduzido como "Honra ao poeta mais exaltado". A frase é uma citação do quarto canto do "Inferno", representando as boas-vindas de Virgílio quando ele volta entre os grandes poetas antigos passando a eternidade no limbo. A continuação da linha, "L'ombra sua torna, ch'era dipartita" ("seu espírito, que tinha nos deixado, volta"), é uma lamúria ao túmulo vazio. Em 2007, a reconstrução do rosto de Dante foi concluída em um projeto colaborativo. Artistas da Universidade de Pisa e engenheiros da Universidade de Bolonha em Forli completaram o modelo revelador, que indicou que as características de Dante eram um pouco diferentes do que se pensava. Obras. A Divina Comédia escreve uma viagem de Dante através do Inferno, Purgatório, e Paraíso, primeiramente guiado pelo poeta romano Virgílio (símbolo da razão humana), autor do poema épico Eneida, através do Inferno e do Purgatório e, depois, no Paraíso, pela mão da sua amada Beatriz – símbolo da graça divina – com quem, presumem muitos autores, nunca tenha falado e, apenas visto, talvez, de uma a três vezes). Em termos gerais, os leitores modernos preferem a descrição vívida e psicologicamente interessante para a sensibilidade contemporânea do "Inferno", onde as paixões se agitam de forma angustiada num ambiente quase cinematográfico. Os outros dois livros, o "Purgatório" e o "Paraíso", já exigem outra abordagem por parte do leitor: contêm subtilezas ao nível filosófico e teológico, metáforas dificilmente compreensíveis para a nossa época, requerendo alguma pesquisa e paciência. O Purgatório é considerado, dos três livros, o mais lírico e humano. É interessante verificar que é, também, aquele onde aparecem mais poetas. O Paraíso, o mais pesadamente teológico de todos, está repleto de visões místicas, raiando o êxtase, onde Dante tenta descrever aquilo que, confessa, é incapaz de exprimir (como acontece, aliás, com muitos textos místicos que fazem a história da literatura religiosa). O poema apresenta-se, como se pode ver num dos excertos acima, como "poema sagrado" o que demonstra que Dante leva muito a sério o lado teológico e, quiçá, profético, da sua obra. As crenças populares cristãs adaptaram muito do conceito de Dante sobre o inferno, o purgatório e o paraíso, como por exemplo o fato de cada pecado merecer uma punição distinta no inferno. A Comédia é o maior símbolo literário e síntese do pensamento medieval, vivido pelo autor. O poema chama-se "Comédia" não por ser engraçado mas porque termina bem (no Paraíso). Era esse o sentido original da palavra Comédia, em contraste com a Tragédia, que terminava, em princípio, mal para os personagens. Dante escreveu a "Comédia" no seu dialeto local. Ao criar um poema de estrutura épica e com propósitos filosóficos, Dante demonstrava que a língua toscana (muito aproximada do que hoje é conhecido como língua italiana, ou língua vulgar, em oposição ao latim, que se considerava como a língua apropriada para discursos mais sérios) era adequada para o mais elevado tipo de expressão, ao mesmo tempo que estabelecia o Toscano como dialecto padrão para o italiano. Outras obras importantes do autor são: Nota: Quando nos referimos a excertos da Divina Comédia, indicamos primeiro o livro (por exemplo, "Inferno"), depois o Canto, em numeração romana; e, finalmente, em algarismos indo-arábicos, os versos (que aparecem numerados na maior parte das edições da obra). Reabilitação. Em julho de 2008, o Comitê Cultural de Florença revogou o exílio e concedeu a seus herdeiros, como forma de compensação a mais alta honraria da cidade, "Il Fiorino D'Oro". A proposta, aprovada na câmara de vereadores da cidade,foi apresentada pelo vereador Enrico Bosi, do Partido Povo da Liberdade, tendo sido aprovada por apenas um voto acima do quórum mínimo, uma vez que recebeu oposição de muitos vereadores da esquerda, que a consideraram apenas uma forma de beneficiar o único herdeiro vivo de Dante, Peralvise Serego Alighieri, um produtor de vinho da região de Valpolicella. Imagens de Dante. Dante foi homenageado por grandes artistas ao longo dos séculos. Em 2007, cientistas italianos da Universidade de Bologna recriaram a face de Dante. Crê-se que o modelo seja o mais próximo possível de sua verdadeira aparência. Seu retrato, feito por Sandro Botticelli, foi usado como base junto ao crânio.Neste retrato de Botticelli, Dante esta usando "cappuccio," um gorro vermelho trançado com abas nas orelhas. Nesta representação Botticelli acrescentou uma coroa de louros por expertise em artes poéticas. Um símbolo tradicional emprestado da Grécia Antiga e até hoje usando em cerimônias de premiação de poetas laureados e ganhadores do prêmio Nobel.  
688
Diego de Almagro
Diego de Almagro
689
Dança
Dança A dança (do francês: ""danse" ou "dancier""; do grego: "ορχήομαι", romaniz. ""orchḗomai": "danzare"") é a arte de fazer movimentos ritmados com o corpo. É uma expressão artística e cênica que envolvem os movimentos corporais em sua relação com diferentes estilos musicais. É o uso do corpo seguindo movimentos previamente estabelecidos (coreografia) ou improvisados (dança livre), com passos ritmados ao som e compasso de uma música, envolvendo a expressão de sentimentos potenciados por ela. É uma das três principais artes cênicas da antiguidade, ao lado do teatro e da música, pois no antigo Egito existia danças astro-teológicas e na Grécia era frequentemente vinculada aos jogos. A dança é formada por três elementos: movimento corporal, espaço e, tempo. A dança pode existir como manifestação artística ou como forma de divertimento ou cerimónia. Atualmente, a dança manifesta-se nas ruas, em eventos como videoclipe ou em qualquer outro ambiente em que for contextualizado o propósito artístico. Em 29 de abril, anualmente, comemora-se internacionalmente o Dia da Dança. História da dança. O surgimento da dança, se deu ainda na época da Pré-História, quando os homens batiam os pés no chão. Com o passar do tempo, foram dando mais intensidade aos sons, descobrindo que seriam capazes de criar outros ritmos, conciliando os passos com as mãos, através das palmas. Sendo a dança uma das três principais artes cênicas da antiguidade, ao lado do teatro e da música. No antigo Egito já se realizavam as chamadas danças astro-teológicas em homenagem a Osíris. Na Grécia, a dança era frequentemente vinculada aos jogos, em especial aos olímpicos. A história da dança cênica representa uma mudança de significação dos propósitos artísticos através do tempo. Com o Balé Clássico (século XV), as narrativas e ambientes ilusórios é que guiavam a cena. Com as transformações sociais da época moderna, começou-se a questionar certos virtuosismos presentes no balé e começaram a aparecer diferentes movimentos de Dança Moderna. É importante notar que nesse momento, o contexto social inferia muito nas realizações artísticas, fazendo com que então a Dança Moderna Americana acabasse por se tornar bem diferente da Dança Moderna Europeia, mesmo que tendo alguns elementos em comum. A dança contemporânea como nova manifestação artística, sofrendo influências tanto de todos os movimentos passados, como das novas possibilidades tecnológicas (vídeo, instalações). Foi essa também muito influenciada pelas novas condições sociais - individualismo crescente, urbanização, propagação e importâncias da mídia, fazendo surgir novas propostas de arte, provocando também fusões com outras áreas artísticas como o teatro por exemplo. Em 1982, o Comitê Internacional da Dança da UNESCO (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) instituiu o dia internacional da dança em "29 de abril", em homenagem ao criador do balé moderno, Jean-Georges Noverre. Na educação física. A dança no contexto educacional brasileiro aparece como conteúdo da disciplina Artes e nas atividades rítmicas e expressivas da Educação Física. Na disciplina Arte a dança é trabalhada como atividade e linguagem artística, forma de expressão, socialização, como conceito e linguagem estética de arte corporal. Como atividade de arte cênica e para apresentações. Já na educação física o propósito da dança é diferente podendo até se inserir como cultura corporal de movimento humano. Mas a abordagem da dança dentro do contexto da Educação Física é diferente da abordagem da dança no contexto da Arte. Na educação física a dança é utilizada de forma instrumental, assim como a ginástica, os esportes e as lutas, deve enfocar o aspecto motor, biopsicossocial, como forma de atividade para condicionamento físico, emagrecimento, bem estar e saúde. Pode ser verificado em clubes, academias e demais espaços de lazer e ginástica. A dança na educação física é uma atividade física instrumental e não artística, que assim como as demais atividades físicas, pode ser utilizada como ferramenta para a melhoria do convívio intra e interpessoais, saúde e qualidade de vida. No âmbito de formação acadêmico-profissional, existem graduações e pós graduações específicas na área de dança. Os bacharelados em Dança que qualificam profissionais de dança, seja o artista bailarino, dançarino ou coreógrafo e ainda as licenciaturas em Dança que forma os professores de dança. Estes cursos são vinculados à área de conhecimento das Artes. No Brasil, a formação para professores e artistas de dança é adquirida nos cursos superiores de dança (bacharelados e licenciaturas). Sendo esta profissão regulamentada pela Lei 6 533/78 a Lei do Artista. Ligação com a saúde. Dançar pode auxiliar no tratamento de doenças como diabetes, síndrome do pânico, transtorno bipolar, depressão e até alguns tipos de câncer. A dança pode ser considerada um remédio que melhora a saúde física e mental. Classificação e gêneros. Várias classificações das danças podem ser feitas, levando-se em conta diferentes critérios. Existem muitos estilos de dança, onde os vinte mais praticados no mundo são: Balé; Jazz; Cigana; Contemporâneo; Sapateado; Flamenco; de Rua; Stiletto; Africana; Yangko; do Ventre; Kathak; Country; Zouk; Tango; Samba; Zumba; Poiledance; Bolero; Clássica Indiana. Estudos e técnicas. No início dos anos 1920, os estudos de dança (dança prática, teoria crítica, análise musical e história) começaram a ser considerados uma disciplina acadêmica. No final do século XX, esses estudos são parte integrante de muitos programas de artes e humanidades das universidades, incluindo: Graus acadêmicos estão disponíveis desde o bacharelado até o doutorado e também programas de pós-doutorado, com alguns estudiosos de dança fazendo os seus estudos como "estudantes maduros" depois de uma carreira profissional de dança. Competições. Uma competição de dança é um evento organizado em que os concorrentes executam danças perante um juiz ou juízes visando prêmios e, em alguns casos, prêmios em dinheiro. Existem vários tipos principais de competições de dança, que se distinguem principalmente pelo estilo ou estilos de dança executados. Os principais tipos de competições de dança incluem: Hoje, há vários concursos de dança na televisão e na internet. Balé e seus repertórios. O Balé (do francês "Ballet") é um estilo de dança criado nas cortes itálianas renascentista (século XV), que desenvolveu-se como uma forma de dança de concerto. É um tipo de dança influente a nível mundial que possui uma forma altamente técnica e um vocabulário próprio.
690
Desenho
Desenho O desenho é um suporte artístico ligado à produção de obras bidimensionais, diferindo, porém, da pintura e da gravura. Neste sentido, o desenho é encarado tanto como processo quanto como resultado artístico. No primeiro caso, refere-se ao processo pelo qual uma superfície é marcada aplicando-se sobre ela a pressão de uma ferramenta (em geral, um lápis, caneta ou pincel) e movendo-a, de forma a surgirem pontos, linhas e formas planas. O resultado deste processo (a imagem obtida), portanto, também pode ser chamada de desenho. Desta forma, um desenho manifesta-se essencialmente como uma composição bidimensional formada por linhas, pontos e formas. O desenho envolve uma atitude do desenhista (o que poderia ser chamado de "desígnio") em relação à realidade: o desenhista pode desejar imitar a sua realidade sensível, transformá-la ou criar uma nova realidade com as características próprias da bidimensionalidade ou, como no caso do desenho de perspectiva, a tridimensionalidade. Desenho como projeto. O desenho livre nem sempre é um fim em si. O termo é muitas vezes usado para se referir ao projeto ou esboço para um outro fim. Nesse sentido o desenho pode significar a composição ou os elementos estruturais de uma obra. Mais corretamente, isso é denominado "bosquejo", "debuxo", "esboço" ou "rascunho". Na língua espanhola existe a distinção entre as palavras "diseño" (que se refere à disciplina conhecida como "design" nos países lusófonos, ou ao "projeto", de uma forma geral) e "dibujo" (que se refere ao desenho propriamente dito). Estudos etimológicos de Luis Vidal Negreiros Gomes indicam que também no português existiam essas nuances de significado, no entanto as palavras foram mudando de sentido. Debuxo atualmente significa apenas esboço, bosquejo, ou desenho nos seus estágios iniciais. A palavra desenho além do sentido de projeto, ganhou as significações de "qualquer desenho", "qualquer esboço", "desenho (debuxo) no seu estado final". Com o tempo "debuxo" deixou de significar "qualquer desenho" e significa apenas "esboço", "bosquejo", "rascunho". Desenho mudou de significado (projeto apenas), e englobou vários outros, mas preservou algumas dos sentidos de projeto. Atualmente a língua portuguesa incorporou a palavra design que comporta o sentido de desenho como projeto. A palavra "debuxo" também está sendo usada no sentido de "design" (uma inversão do sentido original). O primeiro registro da palavra Desenho com o sentido de projeto foi em 1548 na obra Diálogos em Roma do pintor e humanista português, Francisco de Holanda. ""O desenho, a que e outro nome se chamam debuxo, nele consiste e é a fonte e o corpo da pintura e da escultura e da arquitetura e de todo outro gênero de pintar e a raiz de todas as ciências"." Sobre este tema também merecem destaque as obras do mesmo autor: DA FÁBRICA QUE FALECE A CIDADE DE LISBOA e DE QUANTO SERVE A CIÊNCIA DO DESENHO E ENTENDIMENTO DA ARTE DA PINTURA NA REPÚBLICA CRISTÃ, ASSIM COMO NA PAZ COMO NA GUERRA, ambas de 1571. Desenho, portanto, é uma palavra de origem portuguesa. Desenho, gravura, pintura. Entre os suportes artísticos tradicionais, três deles manifestam-se em duas dimensões: o próprio desenho, a gravura e a pintura. Embora o resultado formal de cada um deles seja bastante diferente (embora o desenho e a gravura sejam similares), a grande diferença entre eles se encontra na técnica envolvida. A "gravura" difere do "desenho" na medida em que ela é produzida pensando-se na sua impressão e reprodução. Seus meios mais comuns de confecção são a xilogravura (em que a matriz é feita de madeira), a litogravura (cuja matriz é composta de algum tipo de pedra), a gravura propriamente dita (cuja matriz é metálica) e a Serigrafia (cuja matriz é uma tela) uma técnica de imprimir sobre tecido. Existe ainda uma técnica chamada monotipia, mais próxima da pintura, na qual se obtêm apenas uma impressão. Gesto. A composição pictórica expressa pelo desenho pode representar situações e realidades diversas: aquilo que o artista vê quando desenha, uma cena lembrada ou imaginada, uma realidade abstrata ou, no caso do desenho automático (proposto pelos surrealistas), pode vir a surgir com o movimento livre da mão do artista através do papel (ou de outra superfície). No processo da grafomania entóptica, em que os pontos são feitos nos locais das impurezas ou de variações de cor em uma folha de papel em branco, e as linhas são feitas então entre os pontos, superficialmente falando, o tema do desenho é o próprio papel. Estas várias atitudes do desenhista em relação ao resultado do desenho manifestam-se através da "técnica" escolhida por ele, evidenciada pelo seu gesto. O gesto está profundamente relacionado à natureza dos movimentos da mão humana e à forma como a visão (ou o raciocínio visual, de uma forma geral) os influencia. Algumas técnicas, quando de uma abordagem figurativista do desenho, incluem: Linha pura. Este é um desenho composto predominantemente por linhas (as quais simplesmente delimitam os objetos desenhados, sem a intenção de explicitar seus sombreados ou texturas). É normalmente o primeiro tipo de desenho com o qual um estudante entra em contato - o que não significa que seja este um tipo de desenho de pouca complexidade. A linha pura também é utilizada como etapa inicial do desenho de uma perspectiva. Tom de linha. Este é um tipo de desenho que pretende, além de delimitar os objetos, representar suas texturas, mas ainda não incorpora "dégradés" ou matizados, gerados pela gradação de tons de cinza (embora o peso das texturas aplicadas assumam efetivamente tal papel). Pelo seu caráter, é também uma técnica bastante utilizada na gravura. O principal elemento deste tipo de desenho é o traçado, trama ou textura, padrões gráficos que são usados para representar uma determinada textura, cuja manipulação e gradação de peso permite sombrear os objetos. A aplicação de valores tonais, organizados a partir de uma fonte de luz que indica zonas de luz e sombra, acentua a percepção de volume e tridimensionalidade dos objetos em uma composição, características que reforçam a ilusão de profundidade em um desenho. Os materiais mais comuns para o uso dessa técnica são os nanquins (bico-de-pena) e lápis de grafite mais rígido, em espessuras variadas. Tom puro. Este tipo de desenho faz uso extenso das técnicas conhecidas como "sfumato" e "chiaroscuro", de modo a construir formas, figuras e espaços através de relações de contraste entre luz e sombra e meios-tons, sendo assim uma representação composta por manchas e texturas suaves onde a linha praticamente desaparece entre vários degradês. Os materiais mais usados aqui são o grafite, o carvão e os pastéis. Instrumentos como o esfuminho auxiliam o espalhamento do grafite e a gradação de meios-tons e sombras. Materiais como nanquins e bicos de pena são inadequados para evidenciar os volumes, as sombras e as formas dos objetos, sendo mais apropriado o uso de aguadas em nanquim aplicadas em pincel, técnica que concilia tanto uma grande versatilidade expressiva como um refinado detalhamento tonal. Material. A escolha dos meios e materiais está intimamente relacionada à técnica escolhida para o desenho. Um mesmo objeto desenhado a bico de pena e a grafite produz resultados absolutamente diferentes. As ferramentas de desenho mais comuns são o lápis, o carvão, os pastéis, "crayons" e pena e tinta. Muitos materiais de desenho são à base de água ou óleo e são aplicados secos, sem nenhuma preparação. Existem meios de desenho à base d'água (o "lápis-aquarela", por exemplo), que podem ser desenhados como os lápis normais, e então umedecidos com um pincel molhado para produzir vários efeitos. Há também pastéis oleosos e lápis de cera. Muito raramente, artistas utilizam tinta invisível (geralmente já revelada). Computação gráfica. Desde a década de 1990 o computador tem se tornado um instrumento importante na produção e acabamento de desenhos. Originalmente ele era usado principalmente para simular as técnicas e os materiais supracitados, mas nos últimos anos tem sido desenvolvidas linguagens próprias da ilustração em tela. Entre os programas mais utilizados estão o Corel Draw, Adobe Illustrator, entre outros. No campo do desenho técnico, existem diversos aplicativos CAD responsáveis por um considerável aumento de produtividade e velocidade na produção de desenhos. Existem também programas mais simples, como o Microsoft Paint, distribuído com o sistema operacional Microsoft Windows, e que possuem mais um apelo recreativo que efetivamente produtivo. Os "softwares" de modelamento 3D, como o 3D Studio Max, o Autodesk Maya e o Blender, ainda que não sejam tecnicamente aplicativos voltados à produção de desenhos, também possuem um papel importante nesta área (são bastante utilizados pela indústria cinematográfica e publicitária). Os softwares de computação gráfica tem evoluído muito rapidamente. À medida que os equipamentos de hardware ficam mais eficientes, o nível de qualidade das imagens estão cada vez melhores. Hoje em dia quase não distinguimos o que é gráfico computacional e o que é real. O ramo do entretenimento é um dos que mais se beneficiam com esta evolução. Cada ano que passa vemos efeitos especiais nos filmes, jogos eletrônicos e filmes completamente digitais cada vez mais realísticos. É quase impossível prever até que ponto esta tecnologia poderá nos oferecer em criações e realidade. Modalidades de desenho. O desenho não é necessariamente sempre um fim em si mesmo, podendo vir a assumir uma função ou caracterizar-se como mediação para outro fim. Entre as várias modalidades possíveis de desenho, incluem-se: História. O desenho tem sido um meio de manifestação estético e uma linguagem expressiva para o homem desde os tempos pré-históricos. Neste período, porém, o desenho, assim como a arte de uma forma geral, estava inserido em um contexto tribal-religioso em que acreditava-se que o resultado do processo de desenhar possuísse uma "alma" própria: o desenho era mais um ritual místico que um meio de expressão. À medida que os conceitos artísticos foram, lentamente, durante a Antiguidade separando-se da religião, o desenho passou a ganhar autonomia e a se tornar uma disciplina própria. Não haveria, porém, até o Renascimento, uma preocupação em empreender um estudo sistemático e rigoroso do desenho enquanto forma de conhecimento. A partir do Século XV, paralelamente à popularização do papel, o desenho começou a tornar-se o elemento fundamental da criação artística, um instrumento básico para se chegar à obra final (sendo seu domínio quase uma virtude secundária frente às outras formas de arte). Com a descoberta e sistematização da perspectiva, o desenho virá a ser, de fato, uma forma de conhecimento e será tratado como tal por diversos artistas, entre os quais destaca-se Leonardo da Vinci. Mestres do desenho nos séculos XV e XVI incluem Leonardo da Vinci, Albrecht Dürer, Michelângelo e Rafael. No século XVII, destacam-se Claude Monet, Nicolas Poussin, Rembrandt e Peter Paul Rubens. No século XVIII, Jean-Honoré Fragonard, Francisco Goya, Giovanni Battista Tiepolo, e Antoine Watteau. No XIX, Jacques Louis David, Edgar Degas, Theodore Gericault, Odilon Redon, Henri de Toulouse-Lautrec, Paul Cézanne e Vincent Van Gogh. Finalmente, no século XX, pode-se destacar Max Beckmann, Willem de Kooning, Jean Dubuffet, Arshile Gorky, Paul Klee, Oskar Kokoschka, Henri Matisse, Jules Pascin, Pablo Picasso.
692
Deslocamento
Deslocamento Em física, o deslocamento de um corpo é uma grandeza vetorial (possui módulo, direção e sentido) definida como a variação de posição de um corpo em um dado intervalo de tempo. Dessa forma, o vetor deslocamento pode ser obtido pela diferença entre as posições final e inicial. Vetor deslocamento. O deslocamento é independente da trajetória e seu módulo representa a menor distância entre o ponto inicial e final de um corpo em movimento; pode ser expresso na forma vetorial ou em módulo. (Os respectivos símbolos são formula_1 e formula_2). No espaço cartesiano, o vetor deslocamento une o ponto de partida ao ponto de chegada. Para a determinação do deslocamento escalar pode ser necessário utilizar o cálculo. Na figura abaixo, o móvel deslocou-se de s0 a s1, portanto, formula_3. Considerando certo intervalo de tempo, pode haver duas possibilidades de o deslocamento reduzir-se a zero: (1) o objeto em estudo permaneceu parado ou (2) o objeto moveu-se e retornou para a posição inicial. Deste exemplo, conclui-se que o deslocamento espacial não pode ser tomado sempre como o espaço total percorrido pelo móvel, mas sim como a variação do espaço percorrida em certo intervalo de tempo. Consideramos um ponto ocupando um instante , denominado formula_4, a Posição formula_5 cujo espaço chamamos de formula_6. Em um instante posterior formula_7 o ponto ocupa a posição formula_8 do espaço. Entre essas posições, a variação do espaço escrevemos assim: formula_9 O vetor formula_10 representado pelo ponto de origem formula_5 , e seu ponto de extremidade formula_8 recebe a nomenclatura de vetor deslocamento dos instantes formula_5 e formula_8. Em uma situação de ilustração, em que a trajetória é curvilínea , o módulo do vetor de deslocamento é menor do que o módulo da variação do espaço. formula_15 Em uma situação de uma trajetória ser retilínea, o módulo do vetor deslocamento é igual ao módulo da variação do espaço formula_16 . Velocidade vetorial média. A velocidade vetorial média formula_17 é o quociente entre o vetor deslocamento e o correspondente intervalo de tempo, representado por formula_18: formula_19 Onde a velocidade vetorial média possui a mesma direção e sentido do vetor de deslocamento (d). Seu módulo é representado por: formula_20 Portanto, em trajetórias curvilíneas, temos formula_15 e por conseguinte formula_22 e para trajetórias em movimento retilíneo, temos: formula_23 porque formula_24. Aceleração vetorial média. Nos movimentos variados, define-se a aceleração escalar como sendo o quociente entre a variação da velocidade escalar formula_25 pelo intervalo de tempo correspondente formula_26. De um modo análogo, podemos caracterizar a aceleração vetorial média formula_27 sendo formula_28 a velocidade vetorial de um ponto no instante formula_4 e formula_30 a velocidade posterior no instante formula_7. Calcula-se a aceleração vetorial média por: formula_32 Exemplificando, uma partícula passando pelo ponto formula_5, no instante formula_4, com velocidade formula_35 e, no instante formula_7 chega no ponto formula_8 com velocidade formula_38 assim: formula_39. Observamos que formula_35 e formula_38 são tangentes à trajetória dos pontos formula_5 e formula_8 e os mesmos têm o sentido do movimento. Ou seja: formula_44 Conclui-se: formula_45 Aceleração vetorial instantânea. Entende-se como, aceleração vetorial instantânea formula_46, sendo uma aceleração vetorial média, quando o intervalo de tempo formula_18 é muito pequeno. Havendo sempre variação de velocidade vetorial formula_48, também vai haver a aceleração vetorial. A velocidade vetorial pode variar no módulo e na direção. Portanto a aceleração vetorial é bipartida em: aceleração tangencial formula_49, estando relacionada com a variação do módulo de formula_48, e a aceleração centrípeta formula_51, que está relacionada com a variação da direção da velocidade vetorial. Aceleração tangencial. A aceleração tangencial formula_52 se dá através de diversas características como: - A direção é tangente à trajetória; - O sentido é o mesmo da velocidade vetorial, se o movimento for acelerado, ou oposto ao de formula_48 se o movimento for desacelerado. Em movimentos uniformes, o módulo da velocidade vetorial não varia e, por conseguinte, a aceleração tangencial é 0. A formula_52 só existe em movimentos variados e é independente do tipo de trajetória (retilínea ou curvilínea). Aceleração centrípeta. A aceleração centrípeta formula_51 tem as seguintes características: - O seu módulo é dado pela expressão formula_56, em que "v" é a velocidade escalar do móvel e "R" é o raio da curvatura da trajetória. - A direção é perpendicular à velocidade vetorial formula_48 em cada ponto da trajetória. - O sentido orienta-se para o centro da curvatura de uma trajetória. Em movimentos retilíneos, a direção da velocidade vetorial não varia e a aceleração centrípeta é 0. Esta, só existe em movimentos de trajetórias curvas e é independente do tipo de movimento aplicado (uniforme ou variado). Aceleração vetorial. A aceleração vetorial é o resultado da soma da aceleração centrípeta com a tangencial. Onde sua expressão é representada por: formula_58 No módulo:formula_59 onde formula_46 está relacionada com a variação da velocidade vetorial formula_48 Relação entre deslocamento e velocidade média. Sabemos que a velocidade média formula_62 é a relação entre o deslocamento (formula_63), e o intervalo de tempo empregado para realizá-lo (formula_18).
693
Dinâmica
Dinâmica Em física, a dinâmica é o ramo da mecânica clássica responsável por estudar a ação de forças no movimento de um corpo e seus efeitos, além de determinar suas causas. Os fundamentos da dinâmica foram estudados, inicialmente, por Galileu Galilei em seus experimentos com corpos em queda livre e movimento em plano inclinado. No entanto, Isaac Newton foi o primeiro a formular sistematicamente conceitos como inércia, a definição de força e o princípio da ação e reação. Princípios. Normalmente, os cientistas envolvidos na dinâmica estudam como um sistema físico pode se desenvolver ou alterar ao longo do tempo, e estudam as causas dessas alterações. Além disso, Newton estabeleceu as leis físicas fundamentais que conduzem a dinâmica da física. Ao estudar o seu sistema de mecânica, a dinâmica pode ser compreendida. A dinâmica está principalmente relacionada com a Segunda Lei de Newton. No entanto, as três leis do movimento são tidas em conta porque estão internamente relacionadas em qualquer observação ou experiência. Princípio da relatividade de Galileu. Ao construir qualquer teoria, é essencial determinar as condições sob as quais dois observadores veem os fenômenos evoluir da mesma maneira e, portanto, podem descrevê-los com as mesmas leis. No contexto da mecânica clássica, dois observadores que realizam simultaneamente uma medição enquanto estão em movimento relativo retilíneo uniforme , podem traduzir os dados de posição e velocidade observados por um nos dados medidos correspondentes pelo outro, por meio das transformações galileanas. Esses observadores são chamados de observadores inerciais , ou observadores Galileanos , e o sistema de referência no qual eles são inseridos é um sistema de referência inercial . Dinâmica Linear e Rotacional. Dinâmica Linear. A dinâmica linear diz respeito a objetos que se movem em uma linha e envolve quantidades como força , massa , deslocamento (em unidades de distância), velocidade (distância por unidade de tempo), aceleração (distância por unidade de tempo ao quadrado) e momento (tempo de massa unidade de velocidade). Dinâmica Rotacional. A dinâmica rotacional se refere a corpos que estão girando ou se movendo em um caminho curvo e envolve quantidades como torque , momento de inércia / inércia rotacional , deslocamento angular(em radianos ou graus), velocidade angular (radianos por unidade de tempo), aceleração angular (radianos por unidade de tempo ao quadrado) e momento angular (momento de inércia vezes unidade de velocidade angular). Muitas vezes, os objetos exibem movimento linear e rotacional. Força. A força é um dos conceitos mais importantes da mecânica clássica. Ela tem a função de alterar os efeitos estáticos e os efeitos dinâmicos dos corpos em que age. Assim, a ela é uma grandeza vetorial que possui módulo, direção e sentido. A força é essencial para alterar o estado de movimento de um corpo, é a partir do estudo de sua atuação sobre um corpo que fazemos uma análise dinâmica. Conforme aplica mais de uma força sobre um corpo surge a força resultante, que é a soma de todas as forças aplicadas. Elas se classificam em força de contato, que são aquelas que agem sobre os corpos apenas com contato, e força de campo, que são aquelas que atuam sobre os corpos sem ter contato, através do campo magnético. Leis de Newton. Primeira Lei de Newton. Em princípio se pensava que para que um corpo se mantivesse em movimento com velocidade constante era necessário que ele fosse impulsionado, caso contrário ele pararia “naturalmente”. Isso pode ser observado quando se faz um objeto deslizar sobre uma superfície qualquer, ele irá parar. Para fazer com que ele se mova sobre a superfície com uma velocidade constante poderíamos amarrar um cordão nele e puxar. Porém, se colocássemos este objeto em superfícies diferentes, como por exemplo uma superfície de gelo de um rinque de patinação e um chão de concreto, notaríamos que o objeto iria percorrer distâncias diferentes. A distância percorrida na superfície de gelo é muito maior do que a distancia percorrida no chão de concreto. Isto acontece porque a superfície de gelo é mais lisa (menor atrito) do que o chão de concreto (maior atrito). Isto nos leva a pensar que quanto mais lisa for a superfície, ou quanto menor for o atrito, maior será a distancia percorrida. Se imaginarmos uma superfície muito lisa, de modo que o atrito seja quase nulo, a velocidade do objeto não diminuiria. Com isso, acabamos concluindo que não precisamos de força para manter um corpo em movimento com velocidade constante, e que, ao contrário do que se pensava inicialmente, não é da natureza de um corpo parar quando posto em movimento, mas resistir à desaceleração e à aceleração. Isto nos leva à Primeira Lei de Newton, que diz o seguinte: Todo corpo persiste em seu estado de repouso, ou de movimento retilíneo uniforme, a menos que seja compelido a modificar esse estado pela ação de forças impressas sobre ele. Segunda Lei de Newton. O princípio fundamental da dinâmica enuncia que a taxa de variação no tempo da quantidade de movimento (também chamada de momento linear "formula_1") de um corpo é igual à soma das forças aplicadas neste corpo. Este princípio é chamado também de Segunda Lei de Newton. Quando a massa é constante a força é dada por: formula_2 Nessa equação, formula_3 é a massa e formula_4 a aceleração. Terceira Lei de Newton. O Princípio da ação e reação afirma que se um determinado ponto material “A” exerce uma força sobre um outro ponto material “B”, então “B” exercerá sobre “A” uma força de mesma intensidade, mesma direção e sentido contrário, ou seja a toda ação tem uma reação. O par ação e reação sempre é composto por forças de mesma natureza (ambas de contato, ou elétricas etc.) e que agem em corpos distintos, portanto não tem sentido físico dizer que ação e reação se neutralizam. A este Princípio chamamos de Terceira Lei de Newton (conhecida também como Lei da Ação e Reação).
694
Darwin (sistema operacional)
Darwin (sistema operacional) Darwin é um kernel de código aberto lançado pela Apple Inc. em 2000. É composto por código desenvolvido pela Apple, bem como código derivado do NeXTSTEP, BSD, Mach, e outros projetos de "software" livre. Darwin forma o conjunto central de componentes sobre os quais macOS (anteriormente OS X e Mac OS X), iOS, watchOS, tvOS e iPadOS são baseados. Sua maioria é compatível com POSIX, mas nunca, por si só, foi certificado como compatível com qualquer versão do POSIX. Começando com o Mac OS X Leopard,o macOS foi certificado como compatível com a versão 3 da Single UNIX Specification (SUSv3). História. A herança do Darwin começou com o sistema operacional NeXTSTEP da NeXT (mais tarde, desde a versão 4.0, conhecida como OPENSTEP), lançada pela primeira vez em 1989. Depois que a Apple comprou a NeXT em 1997, anunciou que basearia seu próximo sistema operacional no OPENSTEP. Este foi desenvolvido no em 1997, Mac OS X Server 1.0 em 1999, Mac OS X Public Beta em 2000, e Mac OS X 10.0 em 2001. Em 2000, os principais componentes do sistema operacional Mac OS X foram lançados como "software" de código aberto a Licença de Fonte Pública da Apple como Darwin; os componentes de alto nível, como as estruturas do Cocoa e , permaneceram como "software" proprietário. O nome é um tributo ao naturalista britânico Charles Darwin. Kernel. O núcleo do Darwin é o XNU, um kernel híbrido que usa OSFMK 7.3 ("Open Software Foundation Mach Kernel") da OSF, vários elementos do FreeBSD (incluindo o modelo de processo, pilha de rede, sistema de arquivos virtuais), e um driver de dispositivo orientado a objetos API chamado Kit I/O. O design do kernel híbrido fornece a flexibilidade de um microkernel e o desempenho de um kernel monolítico. Suporte a "hardware" e "software". O Darwin atualmente inclui suporte para a variante de 64-bit x86-64 dos processadores Intel x86 usados em Macs e os processadores ARM de 64 bits usados no iPhone 5S, o iPod Touch de 6ª geração, o iPad Air, a quarta geração Apple TV, modelos originais HomePod, e posteriores, bem como os processadores ARM de 32 bits usados no iPhone 5C e mais antigos, gerações anteriores do iPod Touch, o iPad até a quarta geração, e a segunda e terceira geração da Apple TV. Existe uma porta de código aberto do kernel XNU que suporta Darwin nas plataformas Intel e AMD x86 não suportadas oficialmente pela Apple, embora não pareça ter sido atualizada desde 2009. Uma porta de código aberto do kernel XNU também existe para plataformas ARM. Versões mais antigas suportavam alguns ou todos os PowerPC de 32 bits, PowerPC de 64 bits e 32 bits x86. Ele suporta a API POSIX por meio de sua linhagem BSD (em grande parte "FreeBSD userland") e um grande número de programas escritos para vários outros sistemas UNIX-like podem ser compilados em Darwin sem alterações no código-fonte. Darwin não inclui muitos dos elementos definidores do macOS, como as APIs e Cocoa ou a interface de usuário e Aqua, e, portanto, não pode executar aplicativos Mac. Ele, no entanto, suporta uma série de características menos conhecidas do macOS, como o mDNSResponder, que é o respondente "DNS multicast" e um componente central da tecnologia de rede Bonjour; e launchd uma avançada framework de gerenciamento de serviços. Licença. Em julho de 2003, a Apple lançou o Darwin sob a versão 2.0 da Licença de Fonte Pública da Apple (APSL), que a "Free Software Foundation" (FSF) classifica como uma licença de "software" gratuita incompatível com a Licença Pública Geral GNU. Versões anteriores foram lançadas sob uma versão anterior da licença APSL, que não atendeu à definição FSF de "software" livre, embora tenha cumprido os requisitos da Definição de Código Aberto. Versões. Tabela de grandes lançamentos do Darwin e suas datas e lançamentos no macOS. Observe que a versão correspondente do macOS pode ter sido lançada em uma data diferente; consulte as páginas do macOS para essas datas. O salto nos números de versão de Darwin 1.4.1 para 5.1 com o lançamento do Mac OS X v10.1.1 foi projetado para ligar Darwin à versão Mac OS X e ao sistema de numeração de compilação, que por sua vez é herdado do NeXTSTEP. No sistema de numeração de compilação do macOS, cada versão tem um número de compilação inicial único, que identifica a versão inteira do macOS que faz parte. Mac OS X v10.0 tinha números de compilação começando com 4, 10.1 tinha números de compilação começando com 5, e assim por diante (números de compilação anteriores representavam lançamentos de desenvolvedores). O comando codice_1 no Terminal mostrará o número da versão de Darwin, e o comando codice_2 mostrará a string de versão de compilação XNU, que inclui o número da versão de Darwin. Projetos derivados. Devido à natureza do "software" livre de Darwin, houve projetos que visam modificar ou melhorar o sistema operacional. OpenDarwin. OpenDarwin era um sistema operacional baseado no sistema Darwin. Foi fundada em abril de 2002 pela Apple Inc. e pela Internet Systems Consortium. Seu objetivo era aumentar a colaboração entre os desenvolvedores da Apple e a comunidade de "software" livre. A Apple se beneficiou do projeto porque as melhorias no OpenDarwin seriam incorporadas aos lançamentos do Darwin; e a comunidade de código livre/aberto beneficiou-se de ter controle total sobre seu próprio sistema operacional, que poderia então ser usado em distribuições de "software" livre, como GNU-Darwin. Em 25 de julho de 2006, a equipe OpenDarwin anunciou que o projeto estava sendo encerrado, pois eles achavam que OpenDarwin tinha "se tornado uma mera instalação de hospedagem para projetos relacionados ao Mac OS X", e que os esforços para criar um sistema operacional Darwin independente haviam falhado. Eles também afirmam: "Disponibilidade de recursos, interação com representantes da Apple, dificuldade de construção e rastreamento de recursos e falta de interesse da comunidade contribuíram para isso." O último lançamento estável foi a versão 7.2.1, lançada em 16 de julho de 2004. PureDarwin. PureDarwin é um projeto para criar uma imagem bootável de sistema operacional do código-fonte Darwin lançado pela Apple. Desde o encarramento do OpenDarwin e o lançamento de imagens bootáveis desde Darwin 8.x, tem sido cada vez mais difícil criar um sistema operacional completo à medida que muitos componentes se tornaram de codigo fechado. O projeto conseguiu criar uma versão de Natal baseada em Darwin 9 com uma GUI X11 e uma com apenas linha de comando, a 17.4 Beta baseada em Darwin 17.
696
Damão
Damão Damão (; ) é uma cidade da Índia, capital do território da União de Dadrá e Nagar Aveli e Damão e Diu. Até 1961 foi sede de distrito do antigo Estado Português da Índia. Tem 72 km² e cerca de 191.173 habitantes (2011). Situada na costa do golfo de Cambaia, era um dos três concelhos que constituíam o distrito. Dadrá e Nagar-Aveli (enclaves no território indiano) eram os outros dois concelhos de Damão. O antigo concelho de Damão era constituído pelas freguesias de Damão Grande (Moti Daman), Damão Pequeno (Nani Daman) e Sé. O primeiro contacto dos portugueses com Damão deu-se em 1523, quando chegaram ali os navios de Diogo de Melo. Em 1534, o vice-Rei D. Nuno da Cunha enviou António Silveira arrasar os baluartes mouriscos de Damão, por saber que se situavam ali os estaleiros e as demais instalações necessárias ao apetrechamento das frotas islâmicas que vinham dar combate às armadas portuguesas. Também seria enviado a Damão o capitão-mor Martim Afonso de Sousa, para bombardear e destruir as fortificações islâmicas. Mas só em 1559 viria a ser definitivamente tomada a cidade de Damão, pelo Vice-rei D. Constantino de Bragança. A zona do Pequeno Damão, na margem direita do rio Damanganga, foi ocupada em 1614. Sucessos e insucessos das guerras locais, em que se destacam as lutas contra os sidis (mercenários abissínios) e com os "maratas", levaram à perda de territórios de Baçaim, no antigo Reino de Cambaia (Sultanato de Guzarate). Nas mãos dos portugueses, desde as lutas do rei de Cambaia com os "mogores", Baçaim passará para a posse dos maratas em 1739. E, no ano seguinte, será a vez de Chaúl cair em poder dos mesmos maratas. Entretanto, muitas vilas e aldeias serão perdidas pelos Portugueses, até que, pelo auxílio militar que estes deram a Madeva Pradan, detentor do trono, contra o príncipe Ragobá que, aliado aos ingleses, pretendia derrubar o "peshwá" e ocupar o seu lugar, Portugal receberia, pelo Tratado de 1780, como restituição, 72 aldeias correspondentes a territórios outrora perdidos. E com essas aldeias se formaram os enclaves de Dadrá e Nagar-Aveli. Em 18 de dezembro de 1961 o distrito português de Damão foi invadido e ocupado pelas tropas da União Indiana e incorporado no território de Damão e Diu. Desde 2020 é a capital do território de Dadrá e Nagar Aveli e Damão e Diu.
697
Diu
Diu Diu (antigamente grafada "Dio") é uma cidade e sede de distrito que pertence ao território de Dadrá e Nagar Aveli e Damão e Diu, da Índia. Fez parte do antigo Estado Português da Índia até que, em 1961, foi anexado pela Índia. O território de Diu possui uma área de 40 km² e situa-se na península indiana de Guzerate e é composto pela ilha de Diu (separada da península pelo estreito rio Chassis e que mais propriamente pode ser considerado um braço de mar) e pelos pequenos enclaves continentais de Gogolá e Simbor. História. Diu era uma cidade de grande movimento comercial quando os portugueses chegaram à Índia. Em 1513, tentaram os portugueses estabelecer ali uma feitoria, mas as negociações não tiveram êxito. Em 1531 a tentativa de conquista levada a efeito por D. Nuno da Cunha também não foi bem sucedida. No entanto, Diu veio a ser oferecida aos portugueses em 1535 como recompensa pela ajuda militar que estes deram ao sultão Bahadur Xá de Guzerate, contra o Grão-Mogol de Deli. Assim, cobiçada desde os tempos de Tristão da Cunha e de Afonso de Albuquerque, e depois das tentativas fracassadas de Diogo Lopes de Sequeira, em 1521, de Nuno da Cunha em 1523, Diu foi oferecida aos portugueses, que logo transformaram a velha fortaleza em castelo português. Arrependido da sua generosidade, Bahadur Xá pretendeu reaver Diu, mas foi vencido e morto pelos portugueses, seguindo-se um período de guerra entre estes e a gente do Guzerate que, em 1538, veio pôr cerco a Diu. Coja Sofar, senhor da Cambaia, aliado aos turcos de Sulimão Paxá, tendo-se, então, deparado com a heroica resistência de António Silveira. Um segundo cerco será depois imposto a Diu, pelo mesmo Coja Sofar, em 1546, saindo vencedores os portugueses, comandados em terra por D. João de Mascarenhas e, no mar, por D. João de Castro. Pereceram nesta luta o próprio Coja Sofar e D. Fernando de Castro (filho do vice-rei português). Depois deste segundo cerco, Diu foi de tal modo fortificada que pôde resistir, mais tarde, aos ataques dos árabes de Mascate e dos holandeses (nos finais do ). A partir do , declinou a importância estratégica de Diu, que veio a ficar reduzida a museu ou marco histórico da sua grandeza comercial e estratégica de antigo baluarte nas lutas entre as forças islâmicas do Oriente e as cristãs do Ocidente. Diu permaneceu na posse dos portugueses desde 1535 até 1961, vindo a cair na posse das tropas da União Indiana, que invadiram todo o antigo Estado Português da Índia, no tempo de Nehru.
698
Diagrama de casos de utilização
Diagrama de casos de utilização
699
Dinâmica de partículas com dissipação
Dinâmica de partículas com dissipação
700
Dorothy Canfield Fischer
Dorothy Canfield Fischer
702
Distrito de Beja
Distrito de Beja O distrito de Beja é um distrito português, pertencente à província tradicional do Baixo Alentejo. Limita a noroeste com o distrito de Setúbal, a norte com o distrito de Évora, a leste com a província de Huelva (Espanha), a sul com o distrito de Faro e a oeste com o oceano Atlântico. Tem uma área de (o maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. Subdivisões. Municípios. O distrito compõe-se nos seguintes catorze municípios: Na atual divisão principal do país, o distrito encontra-se totalmente incluído na região do Alentejo. Relativamente a subregiões, a subregião do Baixo Alentejo inclui 13 concelhos, e o concelho de Odemira pertence à subregião do Alentejo Litoral. Em resumo: População. Geografia física. O distrito de Beja corresponde à metade sul da planície alentejana, irrigada por cursos de água em geral pequenos e que quase secam (ou secam mesmo) no verão, e pontuada aqui e ali por serras baixas e pouco inclinadas. O principal acidente do distrito é o vale do rio Guadiana, que atravessa de norte para sul a sua parte oriental, separando a planície principal de um território entre o rio e a fronteira espanhola que, conjuntamente com as serras algarvias que limitam o distrito a sul (Serra de Monchique, Serra do Caldeirão e Serra de Espinhaço de Cão) são as áreas mais acidentadas e de maior altitude do distrito: A Serra da Adiça e os primeiros contrafortes da Serra Morena espanhola ultrapassam os de altitude. Para além destas elevações, só a Serra do Cercal, no limite com o distrito de Setúbal perto de Vila Nova de Milfontes e a Serra do Mendro no limite com o distrito de Évora, a norte da Vidigueira são dignas de nota, atingindo e de altitude, respetivamente. Na rede hidrográfica, para além do Guadiana e dos seus muitos mas pouco caudalosos afluentes, há duas outras bacias hidrográficas relevantes: a do Rio Sado, que nasce no distrito, nas imediações de Ourique e se dirige para o distrito de Setúbal, e a do rio Mira, que nasce na serra do Caldeirão e vai desaguar no Atlântico junto a Vila Nova de Milfontes. Além destas redes, penetram também no distrito partes da bacia hidrográfica do rio Arade, cuja nascente é muito próxima da do Mira mas se dirige para o Algarve e da Ribeira de Seixe, cujo vale serve de fronteira com o Distrito de Faro. Ficam no distrito de Beja algumas barragens de grandes dimensões, nomeadamente a maior do país, a Barragem do Alqueva (Rio Guadiana, partilhada com o distrito de Évora e com Espanha), a barragem do Chança (rio Chança, partilhada com Espanha), barragem de Santa Clara (rio Mira), a barragem do Monte da Rocha (rio Sado) a barragem do Roxo (ribeira do Roxo) e a barragem de Odivelas (ribeira de Odivelas). A costa é rochosa e estende-se quase em linha recta de norte para sul, sendo os principais acidentes a embocadura do Mira e o Cabo Sardão. Política. Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 14 câmaras do distrito de Beja desde 1976. É de destacar a FEPU/APU/CDU como uma grande força autárquica do distrito, que chegou a ter 13 das 14 câmaras e foi a primeira força durante os primeiros 25 anos de eleições autárquicas. A partir do início do milénio, no entanto, o PS claramente superou os resultados dos comunistas e verdes, tendo atualmente 10 das 14 câmaras. Destaca-se, por último, a existência do bastião comunista de Serpa, e também a câmara de Almodôvar, por ser a única nunca pertencente às coligações lideradas pelo PCP. Legenda:
703
Distrito de Braga
Distrito de Braga O distrito de Braga é um distrito português pertencente à província tradicional do Minho. Limita a norte com o distrito de Viana do Castelo e com Espanha, a leste com o distrito de Vila Real, e a sul com o distrito do Porto. A oeste com o oceano Atlântico. Tem uma área de (16.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. Subdivisões. O distrito de Braga subdivide-se nos seguintes catorze municípios: Na atual divisão principal do país, o distrito encontra-se integrado na região do Norte. No seu território existem duas subregiões, o Cávado, a norte, e o Ave, a sul. Em resumo: População. Geografia Física. O distrito de Braga é um território bastante acidentado, dominado por altitudes elevadas a leste, junto à fronteira espanhola e aos limites com o distrito de Vila Real, e descendo até ao litoral ocidental, num relevo cortado pelos vales de vários rios que correm de nordeste para sudoeste. As altitudes maiores encontram-se na Serra Amarela (1361m) e a serra do Gerês, que tem a sua maior altitude, , precisamente no limite com o distrito de Vila Real e muito perto da fronteira espanhola, e na parte leste encontra-se a serra da Cabreira, que atinge no Alto do Talefe, dentro do distrito de Braga, de altitude. O vale do rio Cávado é o acidente mais importante relacionado com a rede hidrográfica, cortando totalmente o distrito e dividindo as suas montanhas em duas áreas distintas. O Cávado entra no distrito a leste, onde serve de fronteira com o distrito de Vila Real ao longo de alguns quilómetros, e vai desaguar no Oceano Atlântico no litoral de Esposende, a oeste, a única zona do distrito relativamente plana. A bacia hidrográfica do Cávado inclui ainda o vale do rio Homem, que nasce na serra do Gerês e desagua no Cávado na confluência dos concelhos de Braga, Vila Verde e Amares. A sul do Cávado, outro vale importante é o do rio Ave, rio que nasce no concelho de Vieira do Minho, na serra da Cabreira, e atravessa a sua parte sul, servindo de fronteira com o distrito do Porto ao longo de quase . Um dos afluentes do Ave, o rio Vizela, continua o limite sul do distrito ao longo de outros . O rio Este, que passa na capital do distrito, é outro afluente relevante do Ave. A norte, é o vale do rio Neiva, rio que nasce na Serra do Oural, em Vila Verde, a servir de limite com o distrito de Viana do Castelo ao longo de toda a parte baixa do curso deste rio (bastante curto). Por outro lado, a parte sueste do distrito faz parte da bacia hidrográfica do rio Douro, por intermédio do rio Tâmega, que serve de fronteira com o distrito de Vila Real e com o distrito do Porto, e de alguns dos seus afluentes de pequenas dimensões. Há várias barragens no distrito. A mais conhecida é a barragem de Vilarinho das Furnas, no curso superior do rio Homem. No baixo Cávado situa-se a barragem de Penide e no alto Cávado ficam a barragem da Caniçada, a barragem de Salamonde e a barragem da Venda Nova. No rio Ave ficam algumas barragens pequenas e a barragem do Ermal, bastante maior. A costa, incluída por inteiro no concelho de Esposende, é arenosa. Eleições. O distrito de Braga é o único em Portugal, desde as primeiras eleições para a Assembleia da República em 1976 até às mais recentes em 2022, onde o partido mais votado no círculo acabou por ser sempre o vencedor das legislativas. Desde 1976, sempre que o PS venceu no círculo de Braga acabou por vencer as eleições e o mesmo aconteceu com o PSD - quando concorreu sozinho ou coligado. Os socialistas venceram as eleições legislativas de 1976, 1983, 1995, 1999, 2005, 2009, 2019 e 2022 e, em todos estes anos, venceu o "cor-de-rosa" no distrito de Braga. Já o PSD venceu em 1979, 1980 e em 2015 - em pré-coligação - e em 1985, 1987, 1991, 2002 e 2011, sendo que em todas estas eleições o distrito de Braga foi "laranja".
704
Distrito de Bragança
Distrito de Bragança O distrito de Bragança é um distrito do nordeste de Portugal, pertencente à província tradicional de Trás-os-Montes e Alto Douro. Limita a norte e a leste com Espanha (províncias de Ourense, Zamora e Salamanca), a sul com o distrito da Guarda e com o distrito de Viseu e a oeste com o distrito de Vila Real. A sua área soma , sendo assim o quinto maior distrito português, habitado por uma população residente de (2021). A sede do distrito é a cidade de Bragança. Subdivisões. Municípios. O distrito de Bragança subdivide-se nos seguintes doze municípios: Na atual divisão principal do país, o distrito encontra-se integrado na Região Norte e dividido em duas subregiões, ambas integrando também concelhos de outros distritos: Alto Trás-os-Montes e Douro. Em resumo: População. Geografia. O distrito é composto por duas regiões distintas. Mais a norte, as regiões de maior altitude constituem a Terra Fria Transmontana, onde a paisagem é dominada pelos baixos declives do planalto transmontano; a sul, fica a Terra Quente Transmontana, de clima mais suave, marcada pelo vale do rio Douro e pelos vales dos seus afluentes. Em nível geral o distrito de Bragança é um distrito bastante montanhoso dominado por serras, montes e planaltos. É, aliás, o Douro que constitui a característica geográfica mais importante, visto que serve de limite ao distrito ao longo de toda a sua fronteira sul, e da maior parte da fronteira oriental, até à extremidade nordeste do território português. É no vale do Douro que se situam os terrenos de menor altitude do distrito, que se situam quase todos acima dos , com exceção dos vales dos rios principais e da região de Mirandela. Além do Douro, os principais rios do distrito correm de norte para sul ou de nordeste para sudoeste, e fazem todos parte da bacia hidrográfica do Douro. Os principais são o rio Tua, que nasce em Mirandela da junção dos rios Tuela e Rabaçal e banha a zona ocidental do distrito, e o rio Sabor, que também nasce em Espanha, mas que corre através da zona oriental do distrito. Ambos têm uma rede de afluentes significativa, sendo que o Tuela recebe as águas do rio Baceiro, o Rabaçal as do rio Mente, e o Sabor as do Rio Azibo. Entre os vales dos rios, erguem-se serras. A serra da Nogueira separa os vales do Tuela e do Sabor, erquendo-se até aos . Mais a sul, fica a serra de Bornes, nos concelhos de Macedo de Cavaleiros e Alfândega da Fé que separa o Tua do Sabor, subindo até aos . A leste, a serra do Mogadouro é pouco mais que uma série de colinas que separam o Sabor do Douro, mas mesmo assim chega aos . A norte, junto à fronteira espanhola, erguem-se as serras maiores: a serra da Coroa que sobe até aos de altitude a norte de Vinhais, e a serra de Montesinho que se prolonga por território espanhol, que utltrapassa os de altitude. A maior parte das barragens do distrito situa-se no Douro. São elas, de jusante para montante, a barragem da Valeira, a barragem do Pocinho, a barragem de Saucelle (já no Douro Internacional), a barragem de Aldeiadávila, a barragem da Bemposta, a barragem do Picote e a barragem de Miranda do Douro. Nos afluentes do Douro, existem as barragens do Azibo, Nuzedo de Baixo e de Rebordelo, estas duas bem próximas uma da outra, no extremo sul do concelho de Vinhais. Turismo. O distrito de Bragança integra em pleno a Região de Turismo do Nordeste Transmontano
705
Distrito de Castelo Branco
Distrito de Castelo Branco O distrito de Castelo Branco é um distrito português pertencente à província histórica da Beira Baixa, atual região do Centro (Região das Beiras). Limita a norte com o distrito da Guarda, a leste com a Espanha, a sul com Espanha, com o distrito de Portalegre e com o distrito de Santarém e a oeste com o distrito de Leiria e com o distrito de Coimbra. Compreende as sub-regiões da Beira Interior Sul, Pinhal Interior Sul e Cova da Beira. Tem uma área de (4.º maior distrito português) e uma população residente de (2021). A capital do distrito é a cidade com o mesmo nome. Subdivisões. Municípios. O distrito de Castelo Branco subdivide-se nos seguintes onze municípios: Na atual divisão principal do país, o distrito encontra-se integrado na Região Centro e dividido em três subregiões, uma delas integrando um concelho pertencente ao distrito de Santarém: Beira Interior Sul, Cova da Beira e Pinhal Interior Sul. Em resumo: Geografia física. O distrito de Castelo Branco é dominado por três estruturas fundamentais: a região do vale do Tejo, a sul, é uma região vasta de altitudes moderadas (entre os 200 e os ) e poucos acidentes orográficos. A norte, estende-se de nordeste para sudoeste uma segunda região, bastante mais acidentada, que compreende as serras de Alvelos, do Muradal, da Gardunha () e da Malcata, que tem a sua maior extensão já no distrito da Guarda. A noroeste desta área, a Cova da Beira corresponde ao vale do rio Zêzere e de alguns dos seus afluentes. A região oeste do distrito também acompanha o vale do Zêzere, descendo até ele das alturas de Alvelos. Pertence ainda ao distrito a maior parte da vertente sueste da serra da Estrela. Com o distrito totalmente integrado na bacia hidrográfica do rio Tejo, os principais rios são, além do próprio Tejo, afluentes deste rio ou afluentes dos afluentes. O destaque vai, naturalmente, para o Zêzere e para os seus afluentes, em especial o rio Paul, o rio Meimoa e a ribeira da Sertã. Outros rios relevantes são o rio da Ocreza, o rio Ponsul e o rio Erges, que serve de fronteira com Espanha ao longo de mais de . Todos estes rios fluem mais ou menos na mesma direção, de nordeste para sudoeste, com excepção do Erges, cujo curso é predominantemente de norte para sul. Quanto à orografia, as maiores altitudes situam-se na serra da Estrela, com a fronteira do distrito a ficar muito próxima da máxima altitude do continente português (). Também nos limites do distrito situam-se outras altitudes elevadas: o ponto mais elevado da serra do Açor () fica na fronteira com o distrito de Coimbra, e a segunda maior elevação da serra da Malcata () situa-se no limite com o distrito da Guarda, muito perto de Espanha. Mesmo no interior do distrito, os pontos mais elevados são os cumes da Gardunha (), de Alvelos () e de Muradal (). Embora a barragem de Castelo de Bode propriamente dita fique fora dos limites do distrito de Castelo Branco, a sua albufeira acaba por ser a maior extensão represada do distrito, mesmo havendo várias outras barragens no Zêzere (barragem da Bouçã e barragem do Cabril), no Tejo (barragem de Fratel no curso português e Embalse de Cedillo no Tejo internacional) e noutros rios e ribeiras (barragem de Corgas na ribeira de Isna, barragem do Pisco no rio Ramalhoso, barragem de Meimoa na ribeira de Meimoa, barragem da Idanha e barragem de Penha Garcia no Ponsul e barragem da Toulica na ribeira de Aravil.
706
Distrito de Coimbra
Distrito de Coimbra O distrito de Coimbra é um distrito português da região do Centro (Região das Beiras, Norte da Estremadura e Norte do Ribatejo), pertencente na sua maior parte à província histórica da Beira Litoral, exceto os concelhos de Tábua e Oliveira do Hospital da província da Beira Alta e Pampilhosa da Serra da Beira Baixa. Limita a norte com o distrito de Aveiro e com o distrito de Viseu, a leste com o distrito da Guarda e com o distrito de Castelo Branco, a sul com o distrito de Leiria e a oeste com o oceano Atlântico. Tem uma área de (12.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. População. "" O Distrito. Coimbra é um distrito de contrastes, entre o mar e as montanhas. Devido à Universidade, Coimbra é, acima de tudo, uma terra de convívio e boémia estudantil. A principal característica geográfica do distrito é o vale do rio Mondego, o maior rio que nasce em Portugal, que domina a paisagem em grande parte do distrito. A sua situação geografica confere-lhe uma paisagem repleta de praias (Figueira da Foz e Mira), termas; paisagem alpestre visitável, de grandes tradições (Serra de S. Pedro de Açor ou de Arganil, a do Calcorinho, a da Lousã...). Os inúmeros monumentos de Coimbra atestam o seu passado histórico: o Arco e Porta de Almedina, os Arcos do Jardim; o Convento de Santa Clara-a-Nova; o Convento de Santa Maria de Celas, o Convento de S. Francisco; o Mosteiro de Celas, o Mosteiro de Lorvão, o Mosteiro de Santa Clara-a-Velha; as Igrejas de Santa Cruz, de Santa Justa, de Santo António dos Olivais, de S. Bartolomeu, de S. Salvador e de S. Tiago; a Sé Nova e a Sé Velha, a Quinta das Lágrimas, o Aqueduto de S. Sebastião. Foi em Coimbra que aconteceu o amor proibido de D. Pedro I e D. Inês, que inspirou poetas e escritores. A sua história continua a fazer parte do património da cidade. São também de destacar: o Museu Machado de Castro; o Museu Nacional da Ciência e da Técnica, o Mosteiro de Lorvão, o Museu Monográfico de Conímbriga; todos classificados como Património da Humanidade; a Anta do Pinheiro dos Abraços e a Ponte Romana de Bobadela, em Oliveira do Hospital, classificados como Imóveis de Interesse Público. O leitão assado, a Chanfana e o arroz de lampreia, são alguns dos pratos mais característicos de Coimbra. Ao nível da doçaria, a lista é grande: arrufadas, bolinhos bolinhós, arroz doce, sopa dourada das freiras de Santa Clara , pudim de ovos, deliciosos pastéis de Tentúgal, os pastéis de Lorvão, as queijadas e as espigas de milho. Subdivisões. O distrito de Coimbra subdivide-se nos seguintes dezassete municípios (com o estatuto da sua sede entre parêntesis): Na atual divisão principal do país, o distrito encontra-se integrado na Região Centro e dividido em duas subregiões, uma das quais integrando ainda concelhos pertencentes ao Distrito de Leiria: Baixo Mondego e Pinhal Interior Norte. Em resumo: Demografia. O distrito de Coimbra é constituído por 17 concelhos e 155 freguesias, ocupando uma área de 3973.73 km2, o que corresponde a 4.31% do território nacional. De acordo com os Censos 2011, o distrito de Coimbra é habitado por 429.987 pessoas (4.07% dos habitantes a nível nacional), das quais, 22.84% têm mais de 65 anos e 12.89% são crianças ou adolescentes, uma estrutura demográfica que pode ser melhor compreendida se se considerar que por cada 100 jovens, existem 177 idosos Ainda em termos demográficos, constata-se que das 168.934 famílias residentes no distrito de Coimbra, 22.39% são compostas por uma única pessoa (a média nacional cifra-se em 21.45%), e que o peso dos agregados familiares com quatro ou mais indivíduos é de 5.22% (um resultado inferior abaixo da média nacional, em que o valor de referência se situa em torno dos 6.49%) Geografia física. A principal característica geográfica do distrito de Coimbra é o vale do rio Mondego, que domina a paisagem em todo o ocidente do distrito e constitui, com os vales de dois dos seus afluentes, o rio Alva e o Rio Ceira, as principais características da zona oriental. O distrito divide-se, pois, em duas metades: A ocidente estende-se uma planície costeira, atravessada, a sul, pelo curso inferior do Mondego. Esta área prolonga a planície costeira do distrito de Aveiro e tem a maior altitude ( na serra da Boa Viagem, perto do Cabo Mondego, junto à Figueira da Foz. A oriente, pelo contrário, entra-se na serra. No noroeste desta área, o relevo ainda não é muito pronunciado, com a serra do Buçaco a atingir apenas de altitude. Mas a sueste domina a cordilheira central, com a serra da Lousã a subir até aos de altitude, e a serra do Açor até aos . O distrito termina em plena vertente ocidental da serra da Estrela, a pouco mais de das maiores altitudes do território continental português. O Mondego domina a hidrografia, correndo de nordeste para sudoeste no curso superior e de leste para oeste no curso inferior, onde está rodeado de terrenos alagadiços. Todo o distrito está integrado na sua bacia hidrográfica, à excepção do litoral norte e da extremidade sueste, e todos os outros rios principais são seus afluentes. O rio Pranto vem do distrito de Leiria e desagua no rio Mondego próximo da sua foz. O rio Alva atravessa a zona oriental do distrito, de leste para oeste, o mesmo fazendo o rio Ceira, um pouco mais a sul. O rio Dueça também conhecido por rio Corvo, por sua vez, corre de sul para norte, indo desaguar no rio Ceira muito perto de Coimbra, e o mesmo fazem o rio Soure, mais conhecido por Rio Arunca a ocidente, e o rio Pranto, também conhecido por ribeira de Carnide, ainda mais a oeste. Todos estes rios são afluentes da margem esquerda do Mondego, que quase não tem afluentes na margem direita, no distrito de Coimbra. As exceções são um pequeno rio que nasce no Buçaco, o Botão e o rio Foja. No sueste do distrito, a ribeira da Pampilhosa é afluente da margem direita do rio Zêzere, e o seu vale já vai, portanto, pertencer à bacia do Tejo. O próprio Zêzere serve de limite com o distrito de Castelo Branco. No Mondego existe uma grande barragem, a barragem da Aguieira, que serve de fronteira com o distrito de Viseu, e uma outra, bastante mais pequena: a barragem da Raiva. No Alva existe a barragem do Rei de Moinhos e a barragem de Fronhas. O Ceira é represado pela barragem do Alto de Ceira e pela barragem de Monte Redondo. E, para completar a lista de barragens, a barragem de Santa Luzia represa a ribeira da Pampilhosa e a albufeira da barragem do Cabril, no rio Zêzere, ainda pertence em parte ao distrito de Coimbra. A costa litoral é em geral arenosa e baixa, com excepção do Cabo Mondego. Para norte estendem-se dunas extensas, que se prolongam vários quilómetros para o interior, semeadas de pequenas lagoas. A porção mais a norte do litoral do distrito, no concelho de Mira, é já uma parte afastada do sistema lagunar da ria de Aveiro, e quase todo o noroeste do distrito é drenado para a ria de Aveiro–rio Vouga. Apenas três concelhos de Coimbra não limitam com outros distritos: Montemor-o-Velho, Condeixa-a-Nova e Vila Nova de Poiares. Desporto. O futebol é o mais conhecido e praticado desporto em Coimbra. Os clubes mais representativo do distrito é a Associação Académica de Coimbra da capital de distrito. Podemos ainda salientar os históricos Naval 1º de Maio da Figueira da Foz, o União de Coimbra e o FC Oliveira do Hospital. No futsal o clube mais representativo é Centro Social de S. João. O organismo responsável pela regulamentação é AF Coimbra.
707
Distrito de Évora
Distrito de Évora O distrito de Évora é um distrito português, pertencente à subregião do Alentejo Central. Limita a norte com o distrito de Santarém e com o distrito de Portalegre, a leste com Espanha, a sul com o distrito de Beja e a oeste com o distrito de Setúbal. Tem uma área de (2.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. O distrito de Évora é formado por catorze municípios, e 69 freguesias. Subdivisões. Municípios. O distrito de Évora subdivide-se nos seguintes catorze municípios: Na atual divisão principal do país, o distrito encontra-se integrado na região do Alentejo e corresponde por inteiro à subregião do Alentejo Central, em resumo: Geografia física. A geografia física do distrito de Évora é bastante uniforme, com a planície a dominar a paisagem quase por completo, com altitudes que na maior parte do território ondulam entre os 200 e os , interrompida aqui e ali por vales e por serras com vertentes pouco inclinadas e semeada de barragens relativamente extensas. A única excepção é o vale do rio Guadiana, que atravessa a extremidade sueste do distrito e que por vezes é bastante profundo, com especial destaque para a região de Alqueva, onde o vale chega ter mais de de profundidade relativamente aos terrenos circundantes. Por esse motivo, foi essa a localização escolhida para a represa da barragem de Alqueva que, quando estiver completamente cheia, irá gerar o maior lago artificial da Europa. O Guadiana é o centro de uma das três bacias hidrográficas em que se divide o distrito, e é a sua aquela que mais território ocupa no distrito. São suas afluentes uma série de ribeiras que, em geral, correm de noroeste para sueste e desaguam na margem direita do rio (Degebe, Álamo, Azebel, Lucefece), embora a margem esquerda também receba a ribeira de Alcarache, que vem de Espanha, correndo de és-nordeste para oés-sudoeste. O terço ocidental do distrito divide-se entre as bacias hidrográficas do Sado, a sul, e do Tejo, a norte. Para o Sado correm rios e ribeiras com um curso que é geralmente de nordeste para sudoeste ou de leste para oeste (rio Xarrama e ribeiras de Odivelas, Alcáçovas, São Cristóvão, São Martinho, Marateca, etc.); para o Tejo, correm ribeiras com um curso, enquanto dentro do distrito de Évora, que é quase sempre de sueste para noroeste (ribeiras de Canha, Lavre, Rio Vide, Divor, Raia, etc.). A maior parte destes pequenos cursos de água nascem numa das serras de pequena altitude que interrompem a planície: a serra de Monfurado, a oeste ( de altitude máxima), a derra de Mendro, a sul () e a derra de Ossa, a norte (), Estremoz () e Arraiolos () a norte . O distrito tem bastantes barragens. Além da já referida barragem do Alqueva, no Guadiana, há ainda a barragem de Monte Novo, na ribeira de Degebe, a albufeira de Torres, na ribeira de Azambuja, a barragem da Vigia, num afluente da Ribeira de Pardiela, a barragem de Lucefece, na ribeira homónima, a barragem do Alvito (embora a represa fique situada no distrito de Beja), na ribeira de Odivelas, a barragem de Nossa Senhora da Tourega, na ribeira das Alcáçovas e a barragem do Divor, na ribeira homónima. Há, ainda, várias barragens e açudes mais pequenos. Vários monumentos e lugares importantes, nomeadamente o Templo Romano, a Sé, a Biblioteca Pública de Évora, inúmeras igrejas, o Palácio de Dom Manuel, a Praça do Giraldo, entre outros. Política. Eleições Autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 14 câmaras do distrito de Évora desde 1976. É de destacar a FEPU/APU/CDU como uma grande força autárquica do distrito, que chegou a ter 13 das 14 câmaras e foi a primeira força durante os primeiros 25 anos de eleições autárquicas. A partir de 2005, no entanto, o PS claramente superou os resultados dos comunistas e verdes, tendo atualmente maioria do número de câmaras e votos. Destaca-se também a subida recente dos partidos de direita (PSD sozinho ou coligado com o CDS), que atualmente detêm 4 câmaras, e também os grupos de cidadãos, que encontram uma tração relativamente grande neste distrito, tendo chegado a ter 3 câmaras. Por fim, refere-se a existência de um bastião, no concelho de Arraiolos, onde a coligação liderada pelo PCP sempre teve maioria absoluta de votos. Legenda:
708
Distrito de Faro
Distrito de Faro O distrito de Faro é um distrito português coincidente com o território da província do Algarve. Limita a norte com o distrito de Beja, a leste com Espanha, e a sul e a oeste com o oceano Atlântico. Tem uma área de 4960 km² (10.º maior distrito português) e uma população residente de (2021). A capital do distrito é a cidade com o mesmo nome. Subdivisões. Municípios. O distrito de Faro subdivide-se nos seguintes dezasseis municípios: O Algarve é a única região portuguesa perfeitamente definida, e consequentemente é a única que não tem uma divisão administrativa confusa. O distrito de Faro corresponde quer à tradicional quer à moderna região do Algarve, e esta constitui também uma única subregião estatística, com o mesmo nome. Coincide perfeitamente com a região do Algarve, tendo uma área de e uma população de habitantes (Censos 2021) (0,06% da população da Europa e 4,74% da população de Portugal), constitui a região turística mais importante de Portugal e uma das mais importantes da Europa. O seu clima temperado mediterrânico, caracterizado por Invernos amenos e curtos e Verões longos, quentes e secos, as águas tépidas e calmas que banham a sua costa sul, as suas paisagens naturais, o património histórico e etnográfico e a deliciosa e saudável gastronomia são atributos que atraem milhões de turistas nacionais e estrangeiros todos os anos e que fazem do Algarve a região mais visitada e uma das mais desenvolvidas do país. Faro é atualmente um dos distritos mais ricos de Portugal, em conjunto com o Distrito de Lisboa, de Setúbal e a Madeira, com um PIB per capita de 86% da média da União Europeia. História. Época pré-romana. Na época pré-romana era habitado pelos cónios, cúneos ou "cinetes", um povo (formado por várias tribos) de filiação linguística e étnica possivelmente celta ou ibera, cujo território incluía toda a atual região e ainda o sul do atual distrito de Beja. Esse antigo território dos "cónios" ia da foz do rio Mira à foz do Guadiana, pelo litoral, e da foz do rio Mira passando pela área das nascentes do rio Sado e pelas ribeiras de Terges e de Cobres até à confluência desta última com o Guadiana e descendo pela margem direita ou oeste desse rio novamente até à sua foz, pelo interior, abrangendo assim toda a área da Serra do Caldeirão (também denominada Serra de Mu) e seu planalto. É possível que fossem relacionados com os tartessos (povo cuja filiação linguística e étnica também ainda não está plenamente conhecida ou determinada), mas não eram o mesmo povo, tal como diversos autores da Antiguidade clássica, por exemplo, Estrabão e Plínio, o Velho, afirmavam. Devido ao nome do povo nativo, "conii" ou "cynetes" ("cónios" ou "cinetes" em latim), o distrito de Faro, na época romana, era denominado "Cyneticum" (Cinético). O território deste povo situava-se muito próximo de uma antiga civilização nativa da Península Ibérica, a de "Tartessos" (que se desenvolveu no oeste da atual Andaluzia), na bacia do rio Guadalquivir (antigo "Betis"). Devido a isso, os "cónios" foram muito influenciados por esta antiga cultura ou fizeram mesmo parte dessa civilização. Também foram influenciados pelas civilizações mediterrânicas (grega, romana, cartaginesa) ainda antes da época romana e eram um dos povos culturalmente mais avançados do atual território de Portugal e mesmo da Península Ibérica de então, pois já tinham conhecimento da linguagem escrita, tendo mesmo criado e desenvolvido uma escrita própria, a escrita do sudoeste, que também pode ser designada escrita cónia. Durante séculos, o atual Algarve (então denominado "Cyneticum") foi ponto de passagem para vários povos, incluindo tartessos, fenícios, gregos e cartagineses. Época romana. Antes da integração definitiva dos "cónios" no Império Romano, durante o período que vai de cerca de 200 a.C. a 141 a.C. estes estavam sob forte influência romana mas gozavam de elevado grau de autonomia. Devido, em parte, ao relacionamento favorável com os romanos, os "cónios" haviam tido alguns conflitos com os lusitanos que, sob a liderança de Cauceno ("Kaukenos"), o chefe lusitano anterior a Viriato, tinham conquistado durante algum tempo o seu território, incluindo a capital, Conistorgis (de localização ainda desconhecida, num monte a norte de Ossonoba, atual Faro, ou talvez Castro Marim?) no ano 153 a.C. Em parte devido a esse conflito com os lusitanos e em parte devido à influência cultural das civilizações mediterrânicas, ao contrário de muitos dos povos pré-romanos de Portugal, foram aliados dos romanos durante algum tempo e não seus adversários, diferindo da atitude de outros povos tais como os lusitanos, os célticos e os galaicos, que foram fortes opositores à conquista romana. Apesar disso, um pouco mais tarde, no contexto das guerras lusitânicas, no ano 141 a.C., os "cónios" revoltaram-se contra os romanos, juntamente com os túrdulos da Betúria (também denominados betures), mas foram derrotados por Fábio Máximo Serviliano, procônsul romano, e integrados definitivamente no Império Romano. Nos séculos que se seguiram, a população nativa ("cónios") foi fortemente romanizada, adotando o latim como língua, e integrada em termos culturais, políticos e económicos na civilização romana e no seu império. O Algarve, então denominado "Cyneticum" (Cinético), fez parte do Império Romano, integrado primeiro na província da Hispânia Ulterior e, mais tarde, na província da Lusitânia, durante mais de 600 anos, desde cerca de 200 a.C. até ao ano 410 d.C., ostentando cidades relevantes tais como "Baesuris" (atual Castro Marim), "Balsa" (próxima de Tavira), "Ossonoba" (atual Faro), "Cilpes" (atual Silves), "Lacobriga" (atual Lagos e "Myrtilis" (atual Mértola) ) pois, nessa época, também pertencia ao "Cyneticum". Durante a época romana, teve um desenvolvimento cultural e económico significativo (agricultura, pesca e manufatura), beneficiando muito do facto de ser uma importante região de produção agrícola. Nessa época, a região exportava principalmente azeite e garum (um condimento feito a partir de peixe), ambos os produtos eram muito apreciados no Império Romano. A sua localização geográfica também era importante em termos de apoio às rotas de navegação marítima entre os portos romanos do mar Mediterrâneo e os do Oceano Atlântico, na Hispânia, Gália e Britânia. Os rios Guadiana ("Anas") e Arade ("Aradus") serviam de rotas de navegação fluvial de contato com o interior e continuariam a sê-lo durante muitos séculos. Também, em termos de localização geográfica, foi importante o facto da região estar logo a oeste da Bética Bética (que corresponde, em grande parte, ao território da atual Andaluzia), uma das províncias cultural e economicamente mais desenvolvidas da Hispânia e do Império Romano (região de origem de importantes figuras tais como o erudito e filósofo Séneca, o agrónomo Columela e dos imperadores Trajano e Adriano). Todos estes factores contribuíram para a prosperidade d«e Faro durante muitos séculos. Em termos culturais, a época romana também assistiu à difusão do cristianismo na Hispânia, incluindo a Lusitânia e atual Algarve a partir de meados do século I d.C., mas seria a partir do século IV d.C., com a publicação do Édito de Milão, no ano 313 d.C. pelo imperador Constantino (que concedia liberdade de culto aos cristãos), que o cristianismo se difundiria mais e ganharia importância significativa na região com a conversão de muita da população nativa, embora as religiões animistas ou pagãs tenham permanecido durante mais alguns séculos. Época bárbara. Apesar de ter sido conquistado pelos chamados povos bárbaros (vândalos, alanos, suevos e depois visigodos) na época ou período das migrações ou invasões bárbaras, a cultura romana e o cristianismo permaneceram. No ano de 552, o atual Algarve foi reconquistado pelo Império Romano do Oriente ou Império Bizantino (então governado pelo imperador Justiniano I), aos visigodos, governo esse que durou até 571, quando o rei Leovigildo o conquistou novamente para o Reino Visigótico. Época árabe. Durante mais de cinco séculos (c. 715–1249) esteve sob o domínio dos povos islâmicos, árabes, berberes e populações nativas convertidas ao islamismo, embora o cristianismo também tenha permanecido entre a população do Algarve nessa época (moçárabes – cristãos que viviam sob governo muçulmano). Durante a época de governo islâmico, o Algarve atingiu um elevado esplendor cultural e económico, em continuidade com as características que já vinham desde a época romana, sendo a cidade de Silves a mais importante durante essa época (foi mesmo capital de um reino taifa muçulmano após a fragmentação do Califado de Córdova). As regiões espanholas e portuguesas outrora conhecidas por Algarbe Alandalus () eram o mais importante centro muçulmano da época da "Hispânia Islâmica", sendo assim o centro islâmico da cultura, ciência e tecnologia. Nessa altura, a principal cidade da região era Silves, que, quando foi conquistada pelo rei D. Sancho I, dizia-se ser cerca de 10 vezes maior e mais fortificada que Lisboa. O Algarve foi a última porção de território de Portugal a ser definitivamente conquistado aos mouros, no reinado de D. Afonso III, no ano de 1249. Época portuguesa. Segundo alguns documentos históricos, a conquista definitiva do Algarve aos mouros neste reinado, nomeadamente a tomada da cidade de Faro, foi feita de forma relativamente pacífica. No entanto, apenas em 1267 — no tratado de Badajoz — foi reconhecida a posse do Algarve como sendo território português, devido a pretensões do Reino de Castela. Curiosamente, o nome oficial do reino resultante seria frequentemente designado de "Reino de Portugal e do Algarve", mas nunca foram constituídos dois reinos separados. Terminada a conquista da região durante o reinado de D. Afonso III, o antigo Algarbe Alandalus mourisco foi incluído no reino cristão de Portugal, entrando numa certa decadência que seria interrompida já no século XV pela odisseia da exploração da costa africana e da conquista das praças marroquinas, sob o comando do Infante D. Henrique. O território do distrito, devido às condições favoráveis à navegação, foi uma das primeiras bases da expansão marítima portuguesa nos séculos XV e XVI, do qual partiram algumas expedições, sendo o porto de Lagos um dos mais importantes dessa época. Com o fim da presença portuguesa nas praças africanas, o distrito entrou novamente numa certa decadência, acentuada pela destruição imposta pelo terremoto de 1 de Novembro de 1755. O primeiro-ministro do rei D. José I, o Marquês de Pombal tentou efectuar uma divisão, nunca reconhecida pelo Papado Romano, da diocese de Faro em dois bispados: Faro e Vila Nova de Portimão. O limite entre eles era a ribeira de Quarteira e o seu prolongamento em linha recta até ao Alentejo. Posteriormente, Faro iniciou o século XX como um distrito rural, periférico, com uma economia baseada na cultura de frutos secos, na pesca e na indústria conserveira. Contudo, a partir da década de 1960, dá-se a explosão da indústria do turismo, mudando assim por completo a sua estrutura social e económica. Desde os alvores do reino, constituiu uma região bem delimitada e individualizada, não só em termos geográficos mas também do ponto de vista identitário, com características históricas, climáticas, etnográficas, arquitetónicas, gastronómicas e económicas muito próprias. Actualmente, o turismo constitui o motor económico do distrito. A província tradicional possui algumas das melhores praias do Sul da Europa, e condições excepcionais para a prática de actividades e desportos ao ar livre. O Algarve é a terceira região mais rica do país, com um PIB per capita de 87% (média Europeia). Ocupa uma área de e nela residem habitantes (2011). Geografia. O distrito de Faro confina a norte com o Distrito de Beja (Alentejo), a sul e oeste com o Oceano Atlântico, e a leste o Rio Guadiana marca a fronteira com Espanha. O ponto mais alto situa-se na serra de Monchique, com uma altitude máxima de 902 m (Pico da Foia). Além da cidade de Faro, têm também categoria de cidade os aglomerados populacionais de Albufeira, Lagoa, Lagos, Loulé, Olhão, Portimão, Quarteira, Silves, Tavira e Vila Real de Santo António. Destas, todas são sede de concelho à excepção de Quarteira. A zona ocidental do Algarve é designada por Barlavento e a oriental por Sotavento. A designação deve-se com certeza ao vento predominante na costa sul do Algarve, sendo a origem histórica desta divisão incerta e bastante remota. Na Antiguidade, os Romanos consideravam no sudoeste da Península Ibérica a região do cabo Cúneo – que ia desde Mértola por Vila Real de Santo António até à enseada de Armação de Pêra – e a região do Promontório Sacro – que abrangia o restante do Algarve. Internamente, o distrito é subdividida em duas zonas, uma a Ocidente (o Barlavento) e outra a Leste (o Sotavento). Com esta divisão podemos registar um claro efeito de espelho entre as duas zonas. Cada uma destas zonas tem 8 municípios e uma cidade dita principal: Faro está para o Sotavento como Portimão está para o Barlavento. De igual modo possui cada uma delas uma serra importante (a Foia, no Barlavento, e o Caldeirão, no Sotavento). Rios com semelhante importância (o Arade no Barlavento e o Guadiana no Sotavento). Um hospital principal em cada uma das zonas garante os cuidados de saúde em todo o Algarve. Em termos de infraestruturas, o Aeroporto Internacional está numa zona e o Autódromo Internacional noutra. Finalmente, a nível desportivo, os históricos do futebol algarvio Sporting Clube Olhanense (representante do Sotavento) e o Portimonense Sporting Clube (representante do Barlavento) encontram-se regularmente na Primeira Liga do futebol português. A equipa do Olhanense ascendeu à 1.ª Liga em 2009, enquanto que por sua vez a equipa de Portimão ascendeu um ano depois, em 2010. Clima. Um dos principais traços distintivos do distrito de Faro constitui o seu clima. As condições climáticas que o senso-comum atribui geralmente ao clima algarvio podem ser encontradas em todo o seu esplendor no barrocal e no litoral sul, especialmente na região central e no sotavento algarvio. Um conjunto de características base resumem o clima da região, em especial do barrocal e do litoral sul: verões longos e quentes, invernos amenos e curtos, precipitação concentrada no Outono e no Inverno, reduzido número anual de dias com precipitação e elevado número de horas de sol por ano. A temperatura média anual do litoral do sotavento e da região central do distrito é mais elevada de Portugal Continental e uma das mais elevadas da Península Ibérica, rondando os 18 °C, atendendo às normais climatológicas 1961/90. A precipitação encontra-se essencialmente concentrada entre Outubro e Fevereiro, e assume com frequência um carácter torrencial. As médias anuais são inferiores a 600 mm em grande parte do litoral e no vale do Guadiana, e superam os 800 mm na serra do Caldeirão e os na serra de Monchique. Na região litoral existem 5 meses secos, e entre Junho e Setembro a queda de precipitação é muito pouco frequente. O clima de Faro, segundo a classificação de Koppen, divide-se em duas regiões: uma de clima temperado com Inverno chuvoso e Verão seco e quente (Csa) e outra de clima temperado com Inverno chuvoso e Verão seco e pouco quente (Csb). Com excepção da Costa Vicentina e das serras de Monchique e de Espinhaço de Cão, toda a região algarvia possui um clima temperado mediterrânico do tipo Csa. No litoral do sotavento algarvio as noites tropicais (noites com temperatura mínima igual ou superior a 20 °C) são frequentes durante o período estival. De facto, a temperatura mínima mais alta de sempre registada em Portugal pertence à estação meteorológica de Faro: 32,2 °C, a 26 de Julho de 2004. A queda de neve na região algarvia é muito rara e é mais susceptível de ocorrer na Foia. A última vez que ocorreu queda de neve no litoral algarvio foi em Fevereiro de 1954. Na madrugada de 1 de Fevereiro de 2006 nevou na Serra do Caldeirão, e na manhã de 10 de Janeiro de 2009 nevou na Serra de Monchique. Primavera. A Primavera farense é uma estação inconstante: alguns anos é fugaz, curta, noutros mais longa, roubando espaço ao Estio ou ao Inverno; por vezes chuvosa e fresca, ou então quente e seca, ou ainda soalheira, mas ventosa. Em Março e Abril as temperaturas sobem lentamente, transitando para os valores estivais; durante o dia estas oscilam entre os 9/12 °C e os 19/22 °C. Em ambas os meses a precipição média ronda os 40 mm, num total para ambos os meses de cerca de 20 dias com precipitação igual ou superior a 0,1 mm. Verão. Uma das características climáticas de referência da região algarvia é a existência de verões longos, quentes e secos. A partir de meados de Maio, a queda de precipitação no litoral e barrocal sul começa a ser um evento raro, e as temperaturas máximas e mínimas abandonam a amenidade primaveril para atingirem valores estivais. Junho é um mês seco, com precipitações médias inferiores a 10 mm e temperaturas médias que oscilam entre os 16 °C e os 26 °C. Julho e Agosto são os dois meses mais quentes e secos do ano. A queda de precipitação é um evento pouco frequente, podendo suceder-se vários anos sem que ocorra queda de precipitação durante estes dois meses. As temperaturas médias oscilam entre os 17/19 °C e os 28/30 °C. A temperatura mais alta registada no Verão é de 44.3 °C na estação Faro/Aeroporto no dia 26 de Julho de 2004. Setembro ainda apresenta características estivais bem marcadas. As temperaturas oscilam entre os 16/18 °C e os 26/29 °C. Por vezes, as primeiras chuvas de Outono podem ocorrer no final de Setembro; por esse motivo, a precipitação média deste mês ronda os 15 mm. Outono. As primeiras chuvas após o Verão, que ocorrem regularmente durante o mês de Outubro, caracterizam o início do Outono. Após a queda das primeiras chuvas, os dias ainda poderão permanecer quentes, mas as noites começam gradualmente a ficar mais frescas. Por vezes, sucedem-se semanas de dias soalheiros, banhados por uma luz doce e inconfundível: é o chamado "Verão de São Martinho". Ocasionalmente, as condições estivais prolongam-se durante parte do mês de Outubro. Em Outubro, as temperaturas oscilam entre os 13/16 °C e os 23/25 °C. As chuvas que caem durante este mês assumem com frequência um carácter torrencial: durante apenas um dia pode ser acumulada uma parte substancial da precipitação total do mês, seguindo-se vários dias de sol e céu limpo. A precipitação média de Outubro ronda os 45/70 mm. Novembro é o segundo mês mais chuvoso do ano, com uma precipitação média que ronda os 75/90 mm, concentrada geralmente num reduzido número de dias. As temperaturas baixam ligeiramente durante este mês, variando entre os 10/12 °C e os 18/21 °C. Inverno. O inconfundível Inverno farense pode ser resumidamente caracterizado por três adjectivos: curto, chuvoso e suave. Dezembro é o mês mais chuvoso do ano. Dias tempestuosos, marcados pela chuva intensa e trovoada alternam com dias amenos, soalheiros e de céu limpo, óptimos para a práctica de actividades ao ar livre. A precipitação média ronda os 90 a 120 mm, e as temperaturas médias oscilam entre os 8/10 °C e os 16/18 °C. Janeiro é o mês com temperaturas menos altas do ano: regra geral, estas variam entre os 6/8 °C e os 15/17 °C. A precipitação média ronda os 70/80 mm. Já em Fevereiro, as temperaturas começam paulatinamente a subir, e no final deste mês as condições primaveris começam a fazer-se sentir. As temperaturas oscilam os 7/9 °C e os 16/18 °C, e a precipitação média ronda os 45 a 70 mm. Ocasionalmente, durante o Inverno a região algarvia é assolada por curtos períodos mais frios, nos quais as temperaturas mínimas atingem valores próximos dos 0 °C e as máximas não ultrapassam os 10 °C. Contundo, estes eventos meteorológicos são raros. Fauna. O Cabo de São Vicente está situado numa rota de migração de aves, permitindo a observação sazonal de variedade de avifauna. A vegetação predominante no barrocal Algarvio é o matagal mediterrânico, caracterizado pela abundância de plantas resistentes à falta de água. O subsolo do distrito é habitado por várias espécies endémicas, únicas de Faro, algumas delas descobertas recentemente. As espécies mais emblemáticas da fauna subterrânea do Algarve são o pseudoescorpião gigante das grutas do Algarve ("Titanobochica magna") e o maior insecto cavernícola terrestre da Europa, a "Squamatinia algharbica". Acidentes geográficos. Serra de Monchique. A serra de Monchique localiza-se na zona oeste de Faro, onde se situa o ponto mais alto da região – a Foia – que está a 902 m de altitude. Este é também um dos pontos mais proeminentes de Portugal. O cume-pai chama-se Picota e está a 774 m acima do nível do mar. Serra do Caldeirão. A Serra do Caldeirão faz a fronteira entre o litoral e barrocal algarvios e as planícies do Baixo Alentejo. Faz parte do maciço antigo, sendo constituída por xisto-grauvaque, rocha que origina solos finos e pouco férteis. O seu ponto mais alto localiza-se no distrito de Beja, próximo da fronteira com Faro, onde atinge os 580 m de altitude; nos concelhos de Tavira e de Loulé possui diversos pontos em que ultrapassa os 500 m. Rio Guadiana. O rio Guadiana é a fronteira natural entre o Faro e a Andaluzia e, portanto, entre Portugal e Espanha. O rio nasce a uma altitude de cerca de , nas lagoas de Ruidera, na província espanhola de Ciudad Real, tendo uma extensão total de 829 km. A bacia hidrográfica tem uma área de , situada, em grande parte, em Espanha (cerca de ). Este rio é navegável até à cidade alentejana de Mértola, constituindo um atractivo turístico relevante. Rio Arade. O rio Arade é um rio de Portugal que nasce na Serra do Caldeirão e passa por Silves, Portimão e Lagoa indo desaguar no Oceano Atlântico, em Portimão, imediatamente a leste da Praia da Rocha. No tempo dos descobrimentos portugueses era navegável até Silves, onde existia um importante porto. Hoje, devido ao enorme assoreamento, apenas pequenos barcos aí podem chegar. Ria Formosa. A ria Formosa é um sapal situado na província do Algarve em Portugal, que se estende pelos concelhos de Loulé, Faro, Olhão, Tavira e Vila Real de Santo António, abrangendo uma área de cerca de ao longo de 60 km desde o rio Ancão até à praia da Manta Rota. Trata-se de uma área protegida pelo estatuto de Parque Natural, atribuído pelo Decreto-lei 373/87 de 9 de Dezembro de 1987. Anteriormente, a Ria Formosa tinha estatuto de Reserva Natural, instituído em 1978. Economia. Turismo. O turismo é a principal actividade económica da região algarvia, que assenta nos lucros da sua oferta um crescimento económico notável. Graças ao tempo apelativo e à melhoria das condições de vida das populações a que se assistiam nas últimas décadas, o Algarve é a única zona do país, a par das grandes áreas urbanas de Lisboa e do Porto, a registar um crescimento da população. O Aeroporto Internacional de Faro, localizado na capital de distrito e inaugurado em 1965, constituiu o grande impulso para a afirmação de Faro como estância balnear a nível internacional. Faro dispõe de belíssimas praias e paisagens naturais, que aliado ao clima temperado mediterrânico a torna a mais turística das províncias de Portugal. Hoje em dia, as ligações rodoviárias fazem com que qualquer ponto do distritp esteja a menos de uma hora de distância do aeroporto. Atualmente o aeroporto é o terceiro mais movimentado de Portugal (atrás do aeroporto da Portela e do aeroporto Francisco Sá Carneiro), tendo transportado 5,5 milhões de passageiros no ano de 2007. A maioria dos turistas vêm de Portugal, Reino Unido, Espanha, Alemanha, Holanda e Irlanda, mas também se regista uma forte presença de franceses e escandinavos. Destaque para Vilamoura, um dos mais conhecidos complexos turísticos da Europa junto à praia da Falésia (concelho de Loulé), Albufeira, considerada a capital do turismo, para a Praia da Rocha no concelho de Portimão e para a Praia da Marinha no concelho de Lagoa. Lagos é também uma das cidades com maior presença túristica no distrito. As suas praias são consideradas das melhores de Portugal e dispõe de diversos bares, restaurantes e hotéis. Nos últimos anos, a região de Tavira tem-se assumido cada vez mais como um importante pólo turístico, graças ao seu valioso património cultural e paisagístico. Já na extremidade do sotavento algarvio, encontramos ainda Monte Gordo, um dos mais antigos pontos de turismo balnear da costa algarvia; a antiga aldeia de pescadores localiza-se já em pleno Golfo de Cádiz, e como tal é banhada pelas águas mais quentes do país: não raras vezes durante a estação estival a temperatura da água do mar atinge os 27 °C. Embora a grande procura turística se deva primeiramente às praias paradisíacas da região, eventos desportivos dos últimos anos, têm contribuído para um sério acréscimo dessa procura. O campeonato europeu de futebol Euro 2004 que teve três dos seus jogos em Faro, os campeonatos mundiais de voleibol que têm tido lugar em Portimão, campeonatos mundiais de golfe e ainda a passagem do maior Rally do mundo, Lisboa–Dakar em 2006 e 2007. Eventos musicais têm vindo a ganhar peso, nomeadamente o Algarve Summer Festival e o Portimão Air Show – um festival aéreo que teve a sua primeira edição em 2008 e que por iniciativa da cidade de Portimão veio também colorir os céus do Algarve e encher a cidade numa época de pouca procura turística. Durante o período de Verão o Algarve triplica a sua população. Um milhão é o número de turistas que visitaram Faro em Agosto de 2010. Agricultura. Os produtos agrícolas tradicionais, dignos de nota, são as produções de frutos secos (figos, amêndoas e alfarrobas), aguardente de medronho e ainda a produção de cortiça, nomeadamente nas regiões do nordeste algarvio. Regista-se ainda a produção de cortiça e de citrinos, cuja produção é bastante relevante, os maiores pomares de laranja situam-se no concelho de Silves, especialmente na freguesia de Algoz, a laranja algarvia é muito doce e goza de grande fama não só em território nacional como internacionalmente. Na imagem pode vêr-se uma das imagens pela qual Faro é mais conhecido. As amêndoas são bastante utilizadas na gastronomia da região, destacando-se os doces de amêndoa, exportados para todo o país e para o estrangeiro, que são outro marco da cultura algarvia. Pesca. A indústria da pesca principalmente devido ao desenvolvimento de várias fábricas de conservas desempenhou um papel importante na economia do Algarve durante o tempo do Estado Novo. Contudo, nos últimos anos tem-se assistido ao fechar destas fábricas, havendo uma aposta crescente na exploração do pescado junto dos turistas que visitam a região. As cidades mais dedicadas à pesca são Olhão, Tavira, Portimão e Vila Real de Santo António, destacando-se a pesca da sardinha, do carapau, do atum, do espadarte e dos famosos chocos que deram origem à famosa receita: choquinhos à algarvia. Gastronomia. A gastronomia Algarvia remonta aos tempos históricos da presença romana e árabe, constituindo a par do clima da região um dos principais pontos de interesse turístico. Os ingredientes utilizados reflectem os sabores do mar e os aromas do campo. Desde o famoso "Arroz de Lingueirão" farense, à sardinha assada portimonense até aos doces "Dom Rodrigos" de Lagos, é diversa a gastronomia algarvia. A vila de Monchique destaca-se neste capítulo pois é conhecida pela suinicultura, prova disso são os conhecidos enchidos feitos com carne de porco (molho, morcela de farinha ou farinheira, morcela e chouriça) e presuntos, expostos anualmente na Feira dos Enchidos e na Feira do Presunto, respectivamente. É também conhecida a aquardente de medronho produzida nesta região, com marca própria. São também procurados os licores feitos com produtos da região. Seguidamente apresenta-se uma lista de algumas das melhores iguarias: Produtos locais. Nesta região são produzidos vários produtos com Denominação de Origem Protegida podendo destacar-se: E produtos com Indicação Geográfica Protegida como: Extracção mineira. A mina de sal-gema, localizada em Loulé surgiu aquando da mutação geológica que resultou na separação entre a Europa e África, que criou o Mar Mediterrânico, há 250 milhões de anos, ainda antes da era Jurássica. A cobertura de uma enorme massa de água salgada pela terra num período relativamente curto resultou no enorme torrão de pelo menos um quilómetro de profundidade que hoje se estende a Leste de Loulé e não se sabe onde acaba. Há quem diga que ramos dessa linha de sal poderão atingir as proximidades de Barcelona, onde há uma jazida semelhante. Com início 90 metros abaixo da superfície – após uma camada de calcário (1 aos 45 metros) e outra de gesso (45 aos 90 metros) –, a mina já foi explorada até aos 313 metros de profundidade, mas as enormes galerias feitas pelo homem situam-se em dois níveis, a 230 e 260 metros de profundidade. A primeira galeria situa-se 64 metros abaixo do nível do mar. Antes realizada a poder de dinamite, picaretas e martelos pneumáticos, actualmente, a extracção de sal é feita com uma máquina de perfuração a que os trabalhadores chamam "roçadora". Após esse trabalho, os camiões que circulam no interior das galerias (algumas maiores do que um túnel rodoviário comum) levam o minério a uma máquina que o desfaz e leva ao poço de transporte de material, até à superfície. Uma parte significativa da produção é exportada, onde é utilizado sobretudo para o fabrico de descongelante para as estradas europeias. A mina foi descoberta há meio século, graças a um furo realizado numa propriedade em Campina de Cima. Actualmente e depois de décadas de aumento na sua produção, a mina louletana está a diminuir a sua produção, contudo, a empresa que procede à sua exploração pretende inserir a mina no roteiro turístico da região algarvia. O sal produzido, mais "salgado" que o utilizado nas cozinhas, não serve para alimentação humana. Para as novas tarefas "terciárias", terão que ser instalados no subsolo, entre 230 e 260 metros de profundidade, equipamentos como uma secção multimédia em que se explique aos visitantes o que é e para que serve a mina. Poderão ainda vir a ser construídas outras infraestruturas como um restaurante, zonas de vendas baseadas nas pedras de sal (da pedra de sal gema podem ser feitos candeeiros, esculturas e pisa-papéis, por exemplo), além de terem que ser abertos novos poços para instalar elevadores, que substituam as "gaiolas" por onde agora descem e sobem os trabalhadores. Educação. A Universidade do Algarve é uma instituição de ensino superior público que conta com um corpo docente de 700 professores para mais de 10 mil alunos. A Universidade possui os seguintes campii: Conta com as melhores infraestruturas a nível nacional e internacional, apostando fortemente na área da investigação científica, nomeadamente nas áreas da biologia (fauna e flora), desenvolvendo diversa actividade prática no Parque Natural da Ria Formosa, assim como no turismo. Desporto. Ciclismo. A Volta ao Algarve traz todos os anos os melhores ciclistas do mundo, incluindo Alberto Contador em 2009, 2010, 2011 e Lance Armstrong em 2004. O Clube Ciclismo de Tavira ganhou a Volta a Portugal nos anos 2008, 2009 e 2010 com David Blanco. O Louletano Desportos Clube também ganhou a Volta a Portugal com o britânico Cayn Theakson em 1988. Nos anos 1947 e 1948 o algarvio José Martins ganhou a Volta a Portugal. No BTT a região também se destaca por ter a maior escola de ciclismo do país no Clube BTT Terra de Loulé. Futebol. Os clubes de futebol algarvios com mais historial são o Sporting Clube Farense, o Sporting Clube Olhanense, o Portimonense Sporting Clube e o Lusitano Futebol Clube. Os únicos clubes algarvios que já competiram na primeira divisão, encontrando-se actualmente apenas o Portimonense a disputar a Primeira liga nacional portuguesa. Os marcos históricos a nível nacional são a presença na Final da Taça do Sporting Clube Olhanense e do Sporting Clube Farense, e a nível internacional, a presença do Portimonense Sporting Clube e do Sporting Clube Farense na Taça UEFA. Futebol de praia. No Verão, é costume realizar-se na Praia da Rocha, em Portimão, o Mundialito de Futebol de Praia e a etapa portuguesa da Liga Europeia de Futebol de Praia. Voleibol. Apesar de a região não estar representada na primeira divisão do voleibol nacional, têm-se realizado nos últimos anos diversos campeonatos internacionais de selecções no Portimão Arena. Voleibol de praia. Em virtude das excelentes praias da região, o voleibol de praia é também um desporto em voga. Destaque para os torneios nacionais e internacionais de Armação de Pêra, de Ferragudo e da Praia da Rocha. Registo ainda para a realização de uma etapa do campeonato nacional de voleibol de praia em Lagos no ano 2008. Golfe. O Algarve possui uma crescente oferta em termos de campos de golfe, pelo que se tem tornado num dos principais destinos a nível mundial no que diz respeito à prática desta modalidade. Motociclismo. A capital algarvia é conhecida por ser a capital das motos em Portugal. Em Faro tem lugar anualmente a maior concentração "motard" da Europa, que conta com a organização do Moto Clube de Faro. A associação foi criada em 1979, tendo sido legalizada a 5 de Fevereiro de 1982. Actualmente com mais de 400 membros, é reconhecida pela Federação Europeia de Motociclismo (FEMA), organizando diversos eventos anualmente dos quais se destaca a concentração "motard" que começou com 200 participantes em 1982, e que actualmente já conta com mais de . Sendo o maior evento do género em Portugal, conta com participantes vindos um pouco de toda a Europa, nomeadamente de Espanha, França, Reino Unido e Itália, sendo um dos grandes atractivos turísticos da cidade. Automobilismo. O Rally Lisboa–Dakar passou em dois anos consecutivos (2006 e 2007) no distrito de Faro. O Rally de Portugal realizou-se em 2007 no Estádio do Algarve. Espera-se que o novo Autódromo Internacional do Algarve venha a atrair novas provas que venham a pôr o Algarve na rota dos grandes campeonatos da modalidade. Até à data já recebeu alguns treinos de pré-época da Fórmula 1, e a última ronda do Campeonato Mundial de Superbike na sua inauguração. Política. Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 16 câmaras do distrito de Faro desde 1976. É de destacar a grande força autárquica que é o PS neste distrito, tendo tido maioria durante quase toda a história autárquica, chegando a ter 15 das 16 câmaras e tendo atualmente 12 autarquias. O PSD, sozinho ou coligado com o CDS, foi também uma grande força autárquica, chegando a ter 9 câmaras no início do milénio, mas atualmente detém apenas 3 câmaras. Por fim, destaca-se a existência de dois bastiões, ambos do PS, em Olhão e Portimão. Legenda:
709
Distrito da Guarda
Distrito da Guarda O distrito da Guarda é um distrito de Portugal pertencente à província tradicional da Beira Alta. Limita a norte com o distrito de Bragança, a leste com Espanha, a sul com o distrito de Castelo Branco e a oeste com o distrito de Coimbra e com o distrito de Viseu. Tem uma área de (7.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. A Guarda é o único caso de um distrito português com um exclave, devido ao encravamento da freguesia de Guilheiro (concelho de Trancoso) entre os concelhos de Sernancelhe e Penedono (ambos do distrito de Viseu). Território. Municípios. O distrito da Guarda subdivide-se nos seguintes catorze municípios: Na atual divisão principal do país, o distrito encontra-se quase totalmente integrado na Região do Centro (Região das Beiras), embora Vila Nova de Foz Côa pertença à Região do Norte e à subregião do Douro. Os restantes concelhos compõem as subregiões da Beira Interior Norte e da Serra da Estrela, havendo ainda um pertencente a Dão-Lafões. Em resumo: População. <small> i) 0 aos 14 anos; ii) 15 aos 24 anos; iii) 25 aos 64 anos; iv) 65 e mais anos ★ Obs. Até 1950 há diferenças entre a soma dos grupos etários e o total. Isso é devido ao facto de terem sido seguidos critérios diferentes no apuramento de dados ("população residente" e "população presente")
710
Distrito de Leiria
Distrito de Leiria O distrito de Leiria é um distrito português situado na região do Centro, dividido entre as províncias tradicionais da Beira Litoral e da Estremadura. Limita a norte com o distrito de Coimbra, a leste com o distrito de Castelo Branco e com o distrito de Santarém, a sul com o distrito de Lisboa e a oeste com o oceano Atlântico. Tem uma área de (13.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome e inclui a sede administrativa da Diocese de Leiria-Fátima. Tem 110 freguesias distribuídas pelos seus 16 municípios. Subdivisões. Municípios. O distrito de Leiria subdivide-se nos seguintes dezasseis municípios: Na atual divisão principal do país, o distrito encontra-se totalmente integrado na Região Centro, distribuindo-se os seus municípios pelas subregiões do Oeste (o qual foi transferido para a Região do Centro em 2002, com a redução da área da Região de Lisboa e Vale do Tejo) e Região de Leiria. Em resumo: População. O município mais populoso é o de Leiria, que é o único com mais de cem mil habitantes. Fora Leiria, apenas Alcobaça, Caldas da Rainha e Pombal têm mais de 50 mil habitantes. Os municípios situados no nordeste têm vindo a perder população nos últimos anos. Leiria é o município com menor percentagem de população com mais de 65 anos. Leiria, Caldas da Rainha e Marinha Grande são os municípios cuja população mais tem crescido. A atividade económica. Atualmente, a dinâmica económica do distrito é, predominantemente, do tipo urbano-industrial, havendo apenas alguns municípios nos quais as condições necessárias para o arranque industrial não têm sido reunidas, continuando maioritariamente agrícolas e rurais. De acordo com um relatório da NERLEI, Associação Empresarial de Leiria, o setor primário produz no distrito, relativamente aos totais nacionais: - 80% de peras - 35% de maçãs - 20% de pêssegos - 15% de vinhos de qualidade - 50% de efectivos suinícolas - de pinhal em regime contínuo - de floresta comunitária - 17% de pesca - e uma boa parte do queijo denominado Rabaçal Relativamente ao setor secundário, Leiria é o distrito líder no fabrico de moldes metálicos, tendo, igualmente, uma grande importância as industrias extractiva, transformadora e a construção civil. Mesmo assim, a imagem de marca ligada ao vidro, aos plásticos, à madeira, aos têxteis e aos agroindustriais, sendo um dos distritos com maiores índices de PME/Excelência. A indústria encontra-se principalmente nos municípios de Leiria, Alcobaça, Marinha Grande, Pombal e Caldas da Rainha, que garantem 70% das unidades industriais do distrito e 75% do emprego neste setor. Por sua vez, o setor terciário assume mais de 50% de todo o tecido empresarial do distrito, tendo vindo a população ativa deste sector a crescer progressivamente nos últimos anos. Este crescimento tem ocorrido sensivelmente na mesma proporção de crescimento da malha dos principais centros urbanos, situando-se já acima dos 40%. Mais de 70% das empresas deste setor estão ligadas ao comércio, tendo os serviços uma preponderante cobertura com os principais balcões bancários, e as mais importantes seguradoras, tal como uma boa presença de empresas de transportes, de serviços de saúde privados e públicos e uma notável rede escolar da pré-primária ao superior, com vários pólos de universidades privadas e seis escolas superiores do Instituto Politécnico de Leiria, nesta cidade, nas Caldas da Rainha e em Peniche. Também a imprensa, falada e escrita, tem no distrito delegações dos principais órgãos nacionais. Infraestruturas. Relativamente ao transporte ferroviário o distrito é atravessado pela Linha do Oeste, estando previsto a modernização da linha ferroviária até Caldas da Rainha. O município de Pombal é servido pela Linha do Norte, a principal linha ferroviária portuguesa. Quanto à rede viária, o distrito é cruzado pela A1 e pelo IC1. A8 e A17 até à cidade de Marinha Grande e A15 até à cidade de Caldas da Rainha. As acessibilidades aos restantes municípios são facilitadas por IP e IC. Existem ainda importantes portos de pesca em Peniche e na Nazaré, a cobertura em quase todos os municípios por parques industriais e pela rede de gás natural, estando a caminho da totalidade o abastecimento de água e o saneamento básico.
711
D. Afonso Henriques
D. Afonso Henriques
712
Distrito de Lisboa
Distrito de Lisboa O distrito de Lisboa é um distrito português, que limita a norte com o distrito de Leiria, a leste com o distrito de Santarém, a sul com o distrito de Setúbal e a oeste com o oceano Atlântico. O distrito tem uma área de e é assim o 16.º maior distrito português. A população residente era de (2021). A capital deste distrito é a cidade de Lisboa. População. Segundo as estatísticas do Instituto Nacional de Estatística em 2021, residiam no distrito de Lisboa , distribuídos pelos dezasseis concelhos, sendo os municípios da Área Metropolitana de Lisboa os mais populosos. A Grande Lisboa concentra uma média de 2 milhões de habitantes. A estrutura da população mostra que 56% tem entre 15 e 64 anos, sendo o peso idêntico entre a população entre os 0 e os 14 e a com mais de 65 anos (15% e 17 % respectivamente). Em termos evolutivos, a população entre os anos de 1980 e 1999 manteve-se estável com mais ou menos 2 milhões de habitantes. Desde o ano de 1999 até o ano de 2005 a população do distrito cresceu em cerca de 200 mi habitantes. Em 2005, o distrito de Lisboa registou uma taxa de natalidade de 11,6 por mil e uma taxa de mortalidade de 2,6 por mil. A população encontra-se em renovação. Subdivisões. Municípios. O distrito de Lisboa subdivide-se nos seguintes dezasseis municípios: A divisão do distrito de Lisboa é a seguinte: Economia. A estrutura empresarial que domina o distrito é o setor terciário (79%). O setor primário representa 1% da economia, enquanto o setor secundário representa 19%. Política. Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 16 câmaras do distrito de Lisboa desde 1976 (excetuando, obviamente, Odivelas, dado que o concelho apenas se formou em 1998). Vê-se um distrito com bastante heterogeneidade de partidos, sem uma evidente primeira força política, especialmente nas eleições de 1979, 1982 e 1985, apesar de, mais recentemente o PS se destacar bastante. Realça-se também que, entre 1989 e 2001, a câmara de Lisboa foi governada por uma coligação entre o PS e o PCP-PEV (envolvendo também outros partidos), algo único na história eleitoral portuguesa. Por último, nota-se a existência de 3 bastiões, em Alenquer, Lourinhã e Torres Vedras, todos do PS (Odivelas não se enquadra na definição de bastião). Legenda dos principais partidos:
713
Distrito de Portalegre
Distrito de Portalegre O Distrito de Portalegre é um distrito português, pertencente integralmente à sub-região e Comunidade Intermunicipal do Alto Alentejo. Limita a norte com o distrito de Castelo Branco, a leste com a Espanha, a sul com o distrito de Évora e a oeste com o distrito de Santarém. Tem uma área de (6.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade homónima. À data da criação dos distritos (1835), o município de Olivença já se achava administrado por Espanha (apesar de constituir território português, segundo o Congresso de Viena), não tendo sido adstrito a nenhum dos distritos portugueses. No entanto, é provável que integrasse, pela proximidade geográfica e cultural, o distrito de Portalegre e não o de Évora. Na atual divisão principal do país, o distrito integra-se na Região do Alentejo e todos os municípios, pertencem à sub-região do Alto Alentejo. Formam a CIMAA - Comunidade Intermunicipal do Alto Alentejo. Os principais núcleos urbanos segundo os censos de 2021, são as cidades de Elvas (16 084 habitantes), Portalegre (14 335 habitantes), Ponte de Sor (10.507 habitantes) e a Vila do Campo Maior (7 400 habitantes). Subdivisões. O distrito engloba 69 freguesias subdivididas por 15 municípios: População. O Distrito de Portalegre é o distrito português com menos população, segundo os dados do INE de 2021 com 104.989 habitantes. Embora o distrito tenha 15 municípios, existem apenas 3 cidades nele, sendo então os restantes 12 concelhos sediados por vilas. Apesar da capital de distrito ser a cidade de Portalegre, é Elvas a maior cidade do distrito, no entanto o concelho do distrito com mais população é o de Portalegre. "Lista ordenada dos concelhos pertencentes ao distrito de Portalegre e respetiva população da sede de concelho e do concelho tendo em conta os censos do INE de 2021." Educação no distrito. Escolas Superiores. O Pólo de Ensino Superior de Elvas é uma parceria entre a Universidade de Évora, a Universidade Técnica de Lisboa, a Universidade da Estremadura, o Instituto Politécnico de Portalegre e os Municípios de Elvas, Badajoz, Olivença, Campo Maior, Alandroal, Arronches, Borba, Vila Viçosa, Estremoz e Sousel. Este polo iniciou funções no ano letivo 2013/2014 com pós-graduações nas áreas da Regeneração Urbana e Económica. Atua em parceria com o Centro de Pós-Graduação Internacional de Campo Maior. Corpos Policiais e Fiscal. GNR (Guarda Nacional Republicana). SEF (Serviço de Estrangeiros e Fronteiras) Poder Judicial. O Distrito de Portalegre integra juntamente com os distritos de Évora, Faro, Castelo Branco, Beja e Setúbal a Área Judicial de Évora que é comandada pelo Tribunal da Relação de Évora e é neste distrito composto por uma comarca, dois tribunais de primeira instância, quatro tribunais de instância local e um tribunal de secção de proximidade. Os tribunais são os seguintes e caracterizam-se da seguinte forma: Política. Autarquias Locais. O Distrito de Portalegre conta com 15 Câmaras Municipais sendo estas lideradas pelos seguintes partidos, coligações ou movimentos desde as eleições autárquicas de 26 de setembro de 2021: Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 15 câmaras do distrito de Portalegre desde 1976. Nota-se um distrito que, apesar de uma inicial clara predominância do PS, que chegou a ter simultaneamente 12 das 15 câmaras, agora é muito mais heterogéneo, sendo que atualmente o PSD (sozinho ou coligado com o CDS) tem o mesmo número de autarquias que o PS. Por fim, destaca-se a existência de dois bastiões, um do PS em Gavião, e o outro da CDU em Avis. Legenda dos principais partidos:
714
Distrito de Porto
Distrito de Porto
715
Distrito do Porto
Distrito do Porto O distrito do Porto é um distrito de Portugal localizado na Região Norte que corresponde ao núcleo da província tradicional do Douro Litoral. Limita a norte com o distrito de Braga, a leste com o distrito de Vila Real, a sul com o distrito de Viseu e com o distrito de Aveiro e a oeste com o Oceano Atlântico. Tem uma área de (14.º maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. Subdivisões. O distrito do Porto subdivide-se nos seguintes dezoito municípios: Na actual divisão principal do país, o distrito integra-se na Região Norte, espalhando-se os seus municípios pelas sub-regiões do Grande Porto e Tâmega. Em resumo: Área Metropolitana do Porto. O Porto é a sede e a capital de uma grande área metropolitana portuguesa: a Área Metropolitana do Porto, que agrupa 18 municípios com 1 722 374 habitantes (2018) em 2 040 km² de área, presidida, na atualidade, por Eduardo Vítor Rodrigues. Tem uma densidade populacional próxima de 844 hab/km². O Porto e a Área Metropolitana do Porto (NUTS III) constituem o núcleo estrutural da Região Norte (NUTS II), que tem uma área de 21 278 km² (24% do Continente) e uma população de 3 689 609 habitantes (Censos de 2011), correspondendo a 37% de Portugal Continental e a 35% do Estado-nação português, sendo, portanto, a região mais populosa e de maior dimensão do país e a região onde se situam a maioria das pequenas e médias empresas, sendo também a que mais contribui para as exportações nacionais, sendo a única região que exporta mais do que importa. A Região Norte produz 40% do valor acrescentado do país e tem 50% do emprego industrial, tendo uma taxa de cobertura das importações pelas exportações de 129%, contra a média nacional de 74%. Esta região é servida por duas importantes infra-estruturas: o Porto de Leixões, que representa 25% do comércio internacional português e movimenta cerca de 14 milhões de toneladas de mercadorias por ano, e o Aeroporto Francisco Sá Carneiro, que é o melhor aeroporto de Portugal em termos de espaço na aerogare. Em termos de movimentos aéreos de carga e de passageiros, é o segundo maior de Portugal, tendo sido galardoado como o melhor do mundo na categoria de aeroportos até 5 milhões de passageiros. Dando continuidade à reorganização administrativa, na actualidade, verifica-se o forte aumento de importância das Áreas Metropolitanas e Comunidades Intermunicipais em detrimento dos distritos. De acordo com a lei nº 45/2008 de 27 de Agosto, das áreas metropolitanas, criadas em 2003, só subsistiram as chamadas clássicas: a Área Metropolitana do Porto e a Área Metropolitana de Lisboa, sendo as restantes reorganizadas em Comunidades Intermunicipais. A razão óbvia para esta situação, para além de razões de associação económica e administrativa, tem a ver com o facto das populações não se identificarem com o distrito a que foram sujeitos, como acontece, a título de exemplo paradigmático, com os municípios de Espinho, Santa Maria da Feira, Arouca, São João da Madeira, Oliveira de Azeméis e Vale de Cambra, municípios da Área Metropolitana do Porto, que, apesar de pertencerem ao Distrito de Aveiro, sempre tiveram uma forte ligação socio-económica ao espaço urbano do Porto, para além da proximidade territorial à cidade do Porto e do seu enquadramento identitário nos municípios do Distrito do Porto, factos que se acentuaram na contemporaneidade. Com a lei 75/2013 de 12 de Setembro, dando continuidade à reorganização administrativa e à restruturação de competências na organização do território, os distritos foram relegados para um plano secundário, com o protagonismo administrativo das Áreas Metropolitanas e das Comunidades Intermunicipais.
717
Distrito de Santarém
Distrito de Santarém O Distrito de Santarém, com sede na cidade de Santarém, é um distrito de Portugal que pertenceu à região histórica do Ribatejo, exceto, nos atuais municípios que o compõem, Ourém, englobado na região histórica da Beira Litoral, e Mação, incluído na região histórica da Beira Baixa. Parte do seu território está incluído na região estatística NUT II do Alentejo, sub-região da Lezíria do Tejo, e na região estatística NUTS II do Centro, sub-região do Médio Tejo. Limita a norte com o Distrito de Leiria e com o Distrito de Castelo Branco, a leste com o Distrito de Portalegre, a sul com o Distrito de Évora e com o Distrito de Setúbal e a oeste com o Distrito de Lisboa e com o Distrito de Leiria. Tem uma área de 6 747 km² (3.º maior distrito português) e uma população residente de (2021). Subdivisões. Municípios. O distrito de Santarém subdivide-se nos seguintes 21 municípios: Até 2002, o distrito integrava-se quase totalmente na Região de Lisboa e Vale do Tejo, com exceção de Mação e Tomar, o único município que pertencia à Região Centro e à sub-região do Pinhal Interior Sul e o Pinhal Interior da Beiras. Os restantes municípios constituíam duas sub-regiões de Lisboa e Vale do Tejo: Médio Tejo e Lezíria do Tejo. Na atual divisão do país, após a reformulação dos contornos e renomeação da região de Lisboa e Vale do Tejo, o distrito passou a repartir-se entre as regiões Centro e do Alentejo; da Região Centro fazem parte agora as sub-regiões do Médio Tejo, Pinhal Interior Sul e Pinhal Interior da Beiras , e ao Alentejo pertence a sub-região da Lezíria do Tejo Economia. Segundo o INE, o distrito de Santarém tinha em 2010 cerca de 46,500 empresas registadas. A média regional do segmento de PME anda em torno de 5.20% e 0.04% para o segmento de Grandes empresas, o que indica que no distrito existem em torno de 2,418 PME e cerca de 19 Grandes. Os restantes 97.76% respetivos a Micro empresas totalizam cerca de 44,063. Outras estatísticas, da D&B, indicam que existiam 18,952 empresas registadas em 2011 no distrito. Contudo, esta amostra contabiliza apenas empresas com obrigatoriedade legal de prestar contas. Política. Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 21 câmaras do distrito de Santarém desde 1976. Vê-se um distrito com bastante heterogeneidade de partidos, sem uma evidente primeira força política especialmente nas eleições de 1979, 1982 e 1985 apesar de, mais recentemente, o PS se destacar bastante. Realça-se também os 3 mandatos do BE na câmara de Salvaterra de Magos, a única autarquia alguma vez detida por este partido. Destaca-se por fim a existência de somente 1 bastião, do PSD em Mação, apesar de 6 das câmaras só não o serem por 1 mandato (Abrantes, Almeirim, Benavente, Cartaxo, Ferreira do Zêzere e Vila Nova da Barquinha). Legenda dos principais partidos:
718
Distrito de Setúbal
Distrito de Setúbal O Distrito de Setúbal é um distrito de Portugal. Está limitado a norte pelos distritos de Lisboa e Santarém, a leste pelos distritos de Évora e Beja, a sul pelo Distrito de Beja e a oeste pelo Oceano Atlântico. Tem uma área de 5 064 km² (oitavo maior distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. Subdivisões. O distrito de Setúbal é constituído por treze municípios: Os municípios que integram o distrito pertencem à sub-região do Alentejo Litoral da região do Alentejo e à Área Metropolitana de Lisboa: Em junho de 2021 o governo anunciou a intenção de criar uma subregião NUT III na península de Setúbal. Os seus municípios estavam integrados nas antigas províncias da Estremadura e do Baixo Alentejo. Relevo e hidrografia. O relevo do distrito de Setúbal é maioritariamente constituído por planícies. As principais serras do distrito de Setúbal são a Serra da Arrábida e a Serra de Grândola. O distrito de Setúbal é atravessado pelo Rio Sado e seus afluentes. Criação. O distrito de Setúbal foi criado pelo governo da Ditadura Militar, em 22 de dezembro de 1926, por desanexação de concelhos do distrito de Lisboa Tratou-se de uma resposta política à criação do município de Palmela, por desanexação de várias freguesias do município de Setúbal. Foi o último distrito a ser criado em Portugal. Política. Eleições autárquicas. Abaixo encontra-se uma tabela com o partido pelo qual foram eleitos os presidentes das 13 câmaras do distrito de Setúbal desde 1976. É de destacar a grande força autárquica da FEPU/APU/CDU neste distrito, que sempre manteve maioria do número de câmaras, mantém 3 bastiões (Palmela, Santiago do Cacém e Seixal) e é o único partido a alguma vez ter tido todas as câmaras de um distrito simultaneamente de Portugal continental (1979 e 1982). Apesar disso, o PS tem-se vindo a aproximar dos comunistas e verdes, conseguindo pela primeira vez a maioria do número de votos do distrito em 2021. Por último, de destacar o facto deste distrito ser o único a nunca ter tido uma câmara de um partido de direita (PSD e CDS). Legenda:
719
Distrito de Viana do Castelo
Distrito de Viana do Castelo O Distrito de Viana do Castelo é um distrito português que pertence à província tradicional do Minho. Está limitado a norte e leste por Espanha, a sul pelo Distrito de Braga e a oeste pelo Oceano Atlântico. Tem uma área de 2 255 km² (o menor – décimo oitavo – distrito português) e uma população residente de (2021). A sede do distrito é a cidade com o mesmo nome. Organização administrativa. O distrito de Viana do Castelo subdivide-se nos seguintes dez municípios: Na atual divisão principal do país, o distrito faz parte da Região Norte, onde constitui a sub-região do Minho-Lima. Em resumo:
720
Distrito de Vila Real
Distrito de Vila Real O Distrito de Vila Real é um distrito de Portugal pertencente à antiga província de Trás-os-Montes e Alto Douro. Limita a norte com a Espanha, a leste com o Distrito de Bragança, a sul com o Distrito de Viseu e a oeste com o Distrito do Porto e com o Distrito de Braga. A sua área soma 4 328 km² (sendo o 11.º maior distrito português) e a sua população residente é de (2021). A sede do distrito é a cidade de Vila Real. Subdivisões. Municípios. O distrito de Vila Real subdivide-se nos seguintes catorze municípios: Na divisão do país em unidades territoriais para fins estatísticos (NUTS), o distrito faz parte da Região Norte, onde se divide pelas sub-regiões do Douro, do Alto Tâmega e do Ave. Em resumo:
721
Douro (sub-região)
Douro (sub-região) O Douro é uma sub-região portuguesa situada no nordeste do país, pertencendo à região do Norte. Tem uma extensão total de 4.032 km2, 183.886 habitantes em 2021 e uma denisdade populacional de 46 habitantes por km2. Está compostada por 19 municípios e 217 freguesias, sendo a cidade de Vila Real a cidade administrativa e o principal núcleo urbano da sub-região. Com 24.112 habitantes na sua área urbana e 49.574 habitantes em todo o município, é a maior cidade e o maior município do Douro, sendo limitada a noroeste com o Ave, a norte com o Alto Tâmega, a nordeste com as Terras de Trás-os-Montes, a leste com a região espanhola de Castela e Leão, a sul com as Beiras e Serra da Estrela, a sudoeste com Viseu Dão-Lafões e a oeste com o Tâmega e Sousa. Corresponde basicamente à região natural do Alto Douro, e grande parte do seu território está integrado na Região Vinhateira do Alto Douro, marcada pela produção de Vinho do Porto e declarada Património da Humanidade pela UNESCO. O seu principal centro urbano é a cidade de Vila Real, que em conjunto com Peso da Régua e Lamego forma um eixo urbano que concentra mais de 95 mil habitantes. Municípios. Compreende 19 municípios: Note-se que em 2008, Vila Flor passou a integrar a sub-região de Terras de Trás-os-Montes.
722
Democracia direta
Democracia direta Uma democracia direta é qualquer forma de organização na qual todos os cidadãos podem participar diretamente no processo de tomada de decisões. As primeiras democracias da antiguidade foram democracias diretas. O exemplo mais marcante das primeiras democracias diretas é a de Atenas (e de outras cidades gregas), nas quais o povo se reunia nas praças e ali tomava decisões políticas. Na Grécia antiga o "povo" era composto por pessoas com título de cidadão ateniense. Porém, mulheres, escravos e mestiços não tinham direito a esse título, exclusivo para homens que fossem filhos e netos de atenienses. No mundo atual o sistema que mais se aproxima dos ideais da democracia direta é a democracia semidireta da Suíça. Democracia indireta vs. democracia direta e democracia semidireta. Em um sistema de democracia indireta (ou democracia representativa), os cidadãos elegem representantes, os quais serão responsáveis pela tomada de decisões em seu nome. Este é o processo mais comum de tomada de decisão nos governos democráticos, e por isto é também chamado de mandato político. Já em regime de democracia direta, os cidadãos não delegam o seu poder de decisão. As decisões são tomadas através de assembleias gerais. Se por acaso precisam de um representante, este só recebe os poderes que a assembleia quiser dar-lhe, os quais podem ser revogados a qualquer momento. Assim, na democracia direta, o poder do representante se assemelha ao que é conferido por um mandato comercial. Democracia direta pura, como tal, não existe em nenhum país moderno a nível nacional. Existe hoje em dia apenas para decisões de caráter estritamente local ou paroquial em alguns cantões da Suíça ("Glarus" e "Appenzell Innerrhoden"), e na cidade sueca de Vallentuna. Por definição, a própria forma de democracia direta a ser implementada em um país deve ser escolhida com ampla participação popular, seja através de plebiscitos e/ou referendos, assembleias populares e congresso geral do povo, governo 2.0 (plataformas digitais colaborativas que podem ser utilizadas para elaboração de leis), etc. Entretanto, o termo "democracia direta" também é usado para descrever sistemas mistos, onde democracia "direta" e "indireta" coexistem; seu nome mais correto seria "democracia semidireta". Nesses sistemas de democracia semidireta, além da existência de representantes eleitos que tomam a maior parte das decisões em nome dos cidadãos, estes também têm a oportunidade de influenciá-las através de iniciativas populares, plebiscitos e referendos (ratificação de decisões de representantes). A Suíça, por exemplo, se considera oficialmente uma "democracia semidireta", com o sistema representativo e de referendos e plebiscitos coexistindo; somente no cantão de "Glarus" e no semicantão "Appenzell Innerrhoden" a democracia é praticamente direta, com o Povo se reunindo ao ar livre no vilarejo para tomar decisões. Mais da metade dos referendos realizados a nível nacional entre 1900 e 1993 - 52 porcento - tiveram lugar na Suíça. Outra forma de análise conceitua todas as democracias como diretas pois todo o poder emana do povo que o exerce diretamente com uma delegação condicionada a representantes (na suposição que os representantes cumprirão os seus programas pré-eleitorais pactuados com o cidadão, podendo o não cumprimento resultar em cassação de mandato através de ação na justiça) ou diretamente sem delegação condicionada. Exemplos do uso da democracia direta. Pelo aspecto político, em termos gerais, podemos definir a democracia direta como uma entre seis formas de "governo", a saber: Democracia semidireta na Suíça. Na Suíça, maioria simples é suficiente nas cidades e estados (chamados cantões ou semicantões (veja Cantões da Suíça). Já em nível nacional, podem ser necessárias "maiorias duplas", cuja intenção seria de confirmação de qualquer lei criada por um cidadão Maiorias duplas são, primeiramente, a aprovação pela maioria dos votantes e, depois, a maioria dos estados em que a votação teria sido aprovada. Uma lei criada por um cidadão não pode ser aprovada se a maioria das pessoas a aprova, mas não a maioria dos estados. A maioria dupla foi instituída em 1890, copiando-se o modelo vigente no congresso americano, onde os deputados votam representando as pessoas e os senadores, os estados. Aparentemente este método tem sido muito bem sucedido desde 1890. Contrastando com o conceito de plebiscitos promovidos por governos para obter suporte a uma política de governo já estabelecida, como no caso das constituições da França e da Áustria (ou mesmo do Brasil), na democracia semidireta da Suíça não compete ao Governo nem ao Parlamento a decisão de submeter qualquer matéria à decisão popular. Em consequência os instrumentos de "democracia direta" da Suíça são os meios de que o Povo dispõe para se opor, e para controlar, políticas criadas pelo governo e pelos partidos políticos. Sistema democrático. Na Suíça o Povo tem a última palavra sobre questões essenciais, num sistema chamado de "democracia semidireta". Além do Parlamento, os cidadãos comuns podem participar da elaboração da Constituição e das leis. E os suíços não se abstêm de o fazer. Na Suíça, ao contrário da maioria dos países onde há plebiscitos, não compete ao Governo nem ao Parlamento a decisão de submeter qualquer matéria à decisão popular, mas sim a seu Povo. Pelo menos quatro vezes por ano os cidadãos suíços recebem um envelope da Confederação Suíça, de seu Cantão ou de sua Comuna e são convocados a opinar sobre assuntos específicos. Ao contrário das "democracias representativas" puras, os eleitores suíços podem se manifestar amiúde, se constituindo assim na instância política suprema, e não apenas episódica. A grande maioria das votações se faz de forma secreta utilizando urnas, ou enviando envelopes fechados pelo correio. Em dois cantões ainda se utiliza o sistema de "assembleia popular" ("Landsgemeinde"), onde os cidadãos votam em praça pública, erguendo suas mãos. Modificação da Constituição. Mediante um abaixo-assinado de cem mil pessoas (cerca de 1,34% da população), o povo suíço pode obrigar o governo a submeter à votação um novo artigo, uma emenda ou uma revisão constitucional Fiscalização e controle do parlamento. Outro instrumento muito importante da democracia semidireta suíça é o referendo, que permite aos cidadãos aceitar ou rejeitar decisões tomadas pelo Parlamento. Algumas leis requerem obrigatoriamente a consulta popular antes de entrarem em vigor; é o que se chama de "referendo obrigatório". Em outros casos, os cidadãos que queiram se opor a uma determinada lei aprovada pelo Parlamento na Suíça deverão tentar reunir 50 mil assinaturas (cerca de 0,67% da população), e assim ter direito a convocar um "referendo facultativo", que poderá revogar essa lei. Uma das mais importantes consequências benéficas desse sistema de controle popular do parlamento é que esse, sabendo que uma lei depois de aprovada por ele poderá ser revogada pelo Povo, procura consultar todos os grupos da sociedade que a ela possam se opor, tentando obter um consenso o mais amplo possível antes de aprová-la. "Landsgemeinde". A "Landsgemeinde" ("Assembleia provincial", em alemão) é uma das mais antigas e mais puras formas de "democracia direta", pela qual os eleitores se reúnem ao ar livre, e votam erguendo suas mãos. Introduzida no cantão suíço de Uri em 1231, só permanece em vigor, em nível cantonal, no semicantão "Appenzell Innerrhoden" e no cantão de "Glarus". Nas outras localidades os eleitores suíços exprimem sua vontade através das urnas. A "Landsgemeinde" normalmente ocorre uma vez por ano, na primavera. É nessa ocasião que se elegem os governantes, os juízes e os representantes na câmara alta do parlamento federal. A "Landsgemeinde" é também o local das votações sobre assuntos cantonais. A contagem de votos é aproximada; ela se baseia mais numa estimativa que na contagem efetiva das mãos erguidas. Democracia direta no Canadá. O Canadá tem feito algumas experiências no uso da democracia direta. Uma das mais importantes foi a criação do "The Citizens' Assembly on Electoral Reform", um grupo criado pelo governo da Colúmbia Britânica para investigar e propor alterações no sistema de eleições provinciais; em 25 de outubro de 2004 esse grupo propôs a substituição do sistema eleitoral existente ' pelo sistema ', cuja aprovação foi submetida ao eleitorado em geral, num referendo realizado em 17 de maio de 2005, conjuntamente com as eleições. Regras do referendo na Colúmbia Britânica. Na Colúmbia Britânica, para ser considerada aprovada e tornada lei pelo referendo, a proposta teria que passar pela regra da "maioria dupla", ou seja obter a aprovação de 60% do total votos válidos na província e simultaneamente obter mais de 50% dos votos em pelo menos 48 dos 79 distritos eleitorais; ou seja, vencer por maioria simples em 60% dos distritos. Resultados do referendo em BC. A proposta obteve maioria simples em 77 dos 79 distritos eleitorais. Porém o total de votos "sim" válidos, (57.69%) não atingiu o requisito mínimo de 60% para que a proposta se tornasse lei. Em Ontário. Processo idêntico foi iniciado pela província de Ontário, em março de 2006, e foi concluído em maio de 2007, com a seguinte recomendação: ""Nós, a Assembleia dos Cidadãos Sobre a Reforma Eleitoral, recomendamos uma nova maneira de votar que acreditamos ser apoiada pelas tradições da província e refletir os valores que são importantes para os ontarianos. A Assembleia recomenda que Ontário adote o sistema ", especificamente concebido para atender as necessidades de Ontário.”" A proposta foi submetida a referendo obrigatório, realizado em 10 de outubro de 2007, tendo sido derrotada por larga margem; a manutenção do atual sistema de votação "" recebeu 63.1% do total de votos válidos em Ontário, obtendo maioria simples em 102 dos 107 distritos eleitorais. Democracia direta na Itália. Na Itália, o projeto "Listapartecipata" cujo slogan é "O controle do governo nas mãos do Povo (e não só no dia das eleições)" é uma experiência de democracia direta que vem sendo posta em prática, e é similar ao projeto sueco, chamado "Demoex - democracia experimental". O Projeto Lista Partecipata permite que um grupo de pessoas se reúna e participe de discussões utilizando internet, telefone ou os correios para eleger um membro como candidato às eleições regionais. Em caso de vitória, o membro da lista eleito é obrigado a seguir as decisões tomadas por todos os membros dentro desse sistema de decisão multi-canal, e arriscando-se a ser automaticamente demitido do cargo se não o fizer (. Esse sistema de decisões, chamado Deciadiamo foi criado pela Fundação Telemática Livre, com sede em Roma. O "Movimento per la Democrazia Diretta", cujo lema é "Ogni cittadino um membro del Parlamento" ("Cada cidadão um membro do Parlamento") promove a democracia direta na Itália, e coordena várias iniciativas similares. Democracia direta na França. As duas maneiras de democracia, representativa e direta, coexistem na França. Além do sistema representativo tradicional, contam os eleitores franceses com o procedimento referendário previsto no artigo 11 da constituição francesa, à qual foi incluído em 28 de março de 2003, e pelo qual os projetos de deliberação ou de ato relevante da competência de uma coletividade podem, por sua iniciativa, ser submetidos, pela via do referendo, à decisão dos eleitores dessa coletividade.. Enquanto alguns países, como a Suíça e, num menor grau, a Itália, recorrem frequentemente aos referendos, por tradição histórica o uso do referendo é mais raro na França. Democracia semidireta em Portugal. Em Portugal há que se considerar dois aspectos: o aspecto nacional e o aspecto local (municipal), uma vez que a organização política portuguesa, ao contrário do que ocorre em outros países, como no Brasil, não reproduz nos diversos níveis de governo o mesmo sistema político. No plano nacional, Portugal, que é uma república parlamentarista, consagra o referendo de uma forma muito tímida. Múltiplas salvaguardas constitucionais foram incorporadas na atual constituição portuguesa para assegurar que o referendo em Portugal não possa jamais vir a ser usado de maneira delegatória, e foram tantas que acabaram por restringir bastante a operacionalidade de seus referendos; apesar disso já três foram realizados em Portugal com sucesso. Em Portugal o referendo é um instrumento de democracia semidireta, pelo qual os eleitores são chamados a pronunciarem-se, por sufrágio direto e secreto, em questões que o poder político pretenda resolver mediante ato normativo. É regulado pelo artigo n.° 115 da Constituição da República Portuguesa. A sua convocação é feita pelo Presidente da República sob proposta da Assembleia da República ou do Governo. Está previsto no mesmo artigo que o referendo pode partir de uma iniciativa popular, que apresenta a sua proposta à Assembleia da República, e dependo da sua aceitação é enviada para o Presidente da República que decidirá favoravelmente ou contra a convocação do referendo. O primeiro refendo português, depois da queda do Estado Novo, realizou-se em 28 de Junho de 1998, com a pergunta: "“Concorda com a despenalização da interrupção voluntária da gravidez, se realizada, por opção da mulher, nas 10 primeiras semanas, em estabelecimento de saúde legalmente autorizado?”", tendo vencido o "não" (1 356 754 votos, ou 50,07%). Na esfera exclusivamente local (municipal) Portugal adota certos princípios de democracia direta, muito semelhantes aos adotados na Suíça. Democracia direta na Suécia. Na Suécia um partido político local desenvolveu um projeto, denominado "Demoex - democracia experimental", que criou a tecnologia de computação e o software para votações através da internet, estando em operação experimental na cidade de Vallentuna, um subúrbio de Estocolmo. No plano nacional dois partidos promovem a plataforma da democracia direta na Suécia: o Direktdemokraterna eo Aktivdemokrati. Democracia representativa na América Latina. Na década de 90 consultas populares, referendos, iniciativas da sociedade civil e revogação de leis se tornaram instrumentos ao alcance do público da maioria dos países latino-americanos, com a incorporação em suas constituições de mecanismos de participação direta. Esses mecanismos de participação que já existiam na Colômbia, no Chile e Uruguai se generalizaram nos últimos 15 anos, mas emergem em contextos políticos muito diferentes entre si, e ainda são muitas vezes aplicados de maneira descaracterizada, esporádica e, às vezes, perversa, dizem os especialistas. As experiências – ou a falta delas – na região mostraram uma realidade que é muito diferente da existente na Suíça, onde o emprego mecanismos de democracia direta têm tradição de mais de um século de prática eficiente e exitosa. Em países em que as instituições democráticas não são sólidas, ou são instáveis, como é o caso da maioria dos países da América Latina, se o chefe do Poder Executivo tem o poder de convocar consultas populares, existe um risco de que faça uso "político" dessa convocação, isto é, que se utilize da convocação para fins partidários, ideológicos, autoritários ou auto-legitimadores. Nos países de "baixa qualidade democrática", se o alcance desses instrumentos não forem muito bem definidos e delimitados nas suas constituições, existe o risco de que referendos e plebiscitos possam vir a influir negativamente na democracia; um chefe do poder executivo pode tentar convocar um referendo que mire além do tema da consulta, buscando sua auto-legitimação política, levando a plebiscito na realidade sua pessoa mais que nada, e pervertendo assim a função dos mecanismos de democracia direta. Há várias maneiras constitucionais de prevenir esses riscos; uma delas é proibir a realização de plebiscitos e referendos em anos eleitorais. A democracia representativa precisa cuidar de ter sempre a seu alcance meios e modos constitucionais que impeçam seus instrumentos de vir a ser usados, perversamente, para fomentar a democracia delegativa - que é seu exato oposto - o que poderia conduzir, como no passado já conduziu, à criação regimes totalitários. Em março de 2007 realizou-se, em Buenos Aires, a "Conferência Internacional sobre Democracia Direta na América Latina", com a participação de acadêmicos da região e também do Canadá, da Espanha, Itália e Suíça, e da Universidade de Genebra, que foi promovida pela organização intergovernamental "IDEA" (sigla em inglês do "Instituto Internacional para a Democracia e a Assistência Eleitoral") com sede na Suécia. Em maio de 2008, na cidade suíça de Lucerna, se realizará a primeira "Conferência Mundial sobre Democracia Direta". Argentina. Em 1996 a Argentina regulamentou a "iniciativa cidadã", pela qual o Povo pode apresentar projetos de lei de seu interesse ao Congresso, que deverá submetê-los à votação em no máximo doze meses (curiosamente o dispositivo não prevê sanções ao Congresso, caso não o faça). A lei 24 747 fixou em 1,5% dos eleitores, distribuídos pelo menos por seis distritos eleitorais, o número necessário de assinaturas para essa convocação. Não podem ser propostas emendas constitucionais. A constituição argentina não contempla a iniciativa popular, nem o veto popular (quer dizer os cidadãos não podem convocar um plebiscito ou referendo para propor uma reforma, ou para derrubar uma lei). Não há o direito "revogatório de mandato"" ("recall) a nível nacional. Bolívia. Desde 2004, na Bolívia, os cidadãos têm o "direito de iniciativa" para convocar um referendo de caráter nacional e vinculante, mediante um abaixo-assinado por 6% dos eleitores. Para referendos regionais esse número sobe para 8% dos eleitores, e para referendos municipais, 10%. São excluídos assuntos fiscais, de segurança interna e externa, e da divisão política da república. As resoluções do referendos se aprovam por maioria simples do eleitorado, e exigem um quórum de no mínimo 50% de participação. Não podem ser realizados no período entre os 120 dias anteriores e os 120 dias posteriores à realização de eleições ("quarentena"). Brasil. A constituição brasileira (1988) prevê, em seu artigo 1º, Parágrafo único, que "Todo o poder emana do povo, que o exerce por meio de representantes eleitos ou diretamente, nos termos desta Constituição". Além disso, em seu artigo 14 está previsto que "a soberania popular será exercida pelo sufrágio universal e pelo voto direto e secreto, com valor igual para todos, e, nos termos da lei, mediante": I - "plebiscito;" II - "referendo;" III - "iniciativa popular". A constituição, e a lei que a regulamentou, estabelecem que a iniciativa popular consiste na apresentação de um projeto de lei, subscrita por no mínimo 1% do eleitorado nacional, distribuídos por pelo menos cinco estados, com não menos do que 0,3% dos eleitores de cada um deles. Cabe à Câmara dos Deputados aceitá-lo ou rejeitá-lo, e o projeto deve versar sobre um único tema. O Congresso Nacional oferece mecanismos de participação popular nas atividades da casa: o e-Democracia, na Câmara dos Deputados, e o Portal e-Cidadania, no Senado Federal. No Portal e-Cidadania, até o início de 2018, sete ideias de cidadão foram transformadas em PLSs ou PECs, entre elas o uso da Cannabis para fins terapêuticos, criminalização da homofobia, redução de impostos dos games fabricados no Brasil e o fim do auxílio moradia. Atualmente, também já existem institucionalizados diversos outros mecanismos de participação social direta e controle social. O Decreto nº 8.243, de 23 de maio de 2014, organizou essas instâncias e mecanismos da seguinte maneira: Nos estados brasileiros. Todos os estados brasileiros incorporam o "direito de iniciativa" legislativa. O Amapá, Espírito Santo, Maranhão, Pará, Paraná, Paraíba, Piauí, Rio de Janeiro, Rio Grande do Norte, Santa Catarina, Tocantins e Sergipe o incluem (ou deverão fazê-lo) nas Leis Orgânicas dos Municípios. No Acre, Alagoas, Amapá, Amazonas, Bahia; Ceará, Espírito Santo, Goiás, Minas Gerais, Paraíba, Pará, Pernambuco, Piauí, Río Grande do Sul; Roraima, São Paulo, Sergipe e Santa Catarina a "iniciativa legislativa" incluí o direito a propor emendas constitucionais. As constituições do Amapá, Ceará, Mato Grosso, Pará, Paraná, Sergipe, Rio de Janeiro, Rio Grande do Norte, Rio Grande do Sul e Santa Catarina contém artigos específicos que estabelecem os mecanismos de Iniciativa, Referendo, e Plebiscito como formas de expressão popular; embora apenas as constituições do Mato Grosso, Pará, Rio de Janeiro, Rio Grande do Sul e Sergipe especifiquem seus alcances e limites, detalhadamente, em artigos específicos. A maioria desses mecanismos foi aprovada entre 1989 e 1990. Nas cidades brasileiras. Várias cidades brasileiras tem desenvolvido formas de participação popular ativa na vida do município, especialmente com a prática de Orçamento Participativo, como é o caso de Porto Alegre, Recife, Belo Horizonte, Suzano, Contagem, Ribeirão Preto, entre outras. Chile. O Chile não possui nenhum tipo de iniciativa popular a nível nacional. Várias organizações e políticos advogam a incorporação de mecanismos de democracia direta à constituição chilena. Equador. A constituição de 1967 do Equador já previa a realização de plebiscitos em várias circunstâncias, tais como reformas constitucionais proposta pelo Poder Executivo que fosse derrotada no Poder Legislativo, reformas aprovadas pelo Poder Legislativo com as quais o Poder Executivo estivesse em desacordo, total ou parcial, projetos de lei de importância fundamental para o progresso do país, decisões de transcendetal importância para os interesses da nação, e outros. As constituições subsequentes ampliaram as possibilidades de consulta popular e a atual constituição (1998) prevê a figura "revogatória de mandato" ("recall"). Peru. No Peru os referendos tornaram-se obrigatórios, desde 1993, para alterações na constituição, exceto se uma reforma constitucional for aprovada no Congresso por duas legislaturas consecutivas, e obtenha, em cada caso, uma votação favorável superior a dois terços do número legal de congressistas (maioria qualificada). Os mecanismos de democracia direta incluídos na constituição do Peru são bem mais limitados que os da constituição venezuelana, e não podem ser vistos como instrumentos que promovam a participação dos cidadãos nas decisões políticas, mas apenas como instrumentos criados para conter o poder dos partidos políticos e, em especial, do parlamento. Uruguai. O Uruguai é o país latino-americano que tem a maior e mais antiga experiência com instrumentos da democracia direta, tendo incorporado seus mecanismos pela primeira vez em 1934, e posteriormente os ampliou e melhorou. O plebiscito uruguaio de 1989, que deteve os julgamentos contra militares acusados de violar direitos humanos, foi considerado muito importante, e a partir dessa experiência, iniciou-se uma etapa "contestatória" de referendos sendo convocados para impedir privatizações, ou para frear uma redução nas aposentadorias. Até os anos 90, os plebiscitos no Uruguai eram utilizados pelos partidos políticos para dirimir suas diferenças, inclusive diferenças intrapartidárias. Isso mudou, e agora os políticos uruguaios só costumam aderir a essas consultas depois do tema ter sido lançado pelos movimentos sociais. Os cidadãos uruguaios têm o "poder de iniciativa" para convocar reformas constitucionais, sendo para isso requeridos 10% de assinaturas dos eleitores. Em 2000 foi aprovada a lei n° 17.244, que incorporou à constituição uruguaia um interessante processo em duas etapas, pelo qual os cidadãos uruguaios, reunindo 2% de assinaturas dentre os eleitores, podem, durante os 150 dias contados da publicação de uma nova lei, interpor recurso de veto a essa lei. Se votarem a favor dessa interposição pelo menos 25% dos eleitores, uma consulta popular será convocada, para aprovar ou derrubar a referida lei. Venezuela. A constituição venezuelana é a única na América Latina que prevê a possibilidade da revogação do mandato presidencial, o chamado "recall", e é uma das poucas que inclui a obrigatoriedade de submeter a referendo cada emenda ou reforma constitucional, sendo a menos restritiva para fixar o número de votos necessários para introduzir mudanças. Os venezuelanos podem convocar um referendo consultivo em matérias de "especial transcendência nacional", mediante abaixo-assinado por 10% dos eleitores. O referendo contra leis e decretos propostas pelo presidente pode também ser solicitado por 10% dos eleitores. Para que os resultados de um referendo sejam válidos devem nele votar pelos menos 40% dos eleitores inscritos (quorum). Não podem ser submetidas a referendo matérias relativas ao orçamento, aos impostos, ao crédito público e à anistia; bem como as leis que protejam, garantam, ou ampliem os "direitos humanos". A constituição venezuelana permite a revogação de mandato em todos os cargos e magistraturas eleitas, inclusive do presidente da república, pela solicitação de um número não inferior a 20% dos eleitores inscritos na circunscrição correspondente. A revogação de mandato se dará se o número dos que votarem pela revogação for superior aos votos obtidos pelo eleito na sua eleição original, sendo necessário um quorum mínimo de 25% de participação. Os cidadãos venezuelanos têm "direito de iniciativa" legislativa e popular (0,1%). Também podem promover uma reforma constitucional mediante abaixo-assinado por 15% dos eleitores inscritos. Argumentos a favor da democracia direta. Além do crescente desencanto com os políticos profissionais, na democracia representativa a opinião do Povo só é consultada uma vez a cada quatro anos. E após serem eleitos, os políticos tradicionais podem agir praticamente como bem entenderem, até a próxima eleição. Essa separação em castas de governantes e governados faz com que os políticos estejam mais atentos às suas próprias vontades e vontades de outros poderes que não aquele que emana da eleição popular, como por exemplo o econômico. O político ocupa uma posição que foi criada pela delegação de um poder que não lhe pertence de fato, mas apenas de direito. Entretanto, ele age como se o poder delegado fosse dele, e não do eleitor. Isso torna sua vontade suscetível a todo tipo de fisiologismo e negociata das quais ele possa extrair mais poder, seja em forma de aliados políticos ou em forma de capital. O fim da casta de políticos tornaria o jogo político-social mais intenso, com discussões verdadeiramente produtivas mobilizando a sociedade, pois atribuiria ao voto um valor inestimável, uma vez que pela vontade do povo questões de interesse próprio seriam decididas (imaginem o fervor que surgiria nas semanas que antecederiam uma votação a favor ou contra o aumento do salário mínimo, ou para cortes na previdência pública). Os instrumentos de democracia semidireta, como são entendidos atualmente, resultam não só de construções políticos-processuais. Ultrapassam as limitações formais ou os institutos como o "plebiscito" e "referendo", ou os aspectos materiais que se prendem às formas de sua execução - na realidade decisões democráticas podem ser obtidas seja pelo medieval sistema de levantar mãos suíço ("Landsgemeinde"), ou pela mais atualizada técnica eletrônica digital - mas exigem, como pressuposto para poder se realizar, uma formação social consistente, em toda sua complexidade, que aja como um mecanismo indutor e controlador, criando meios de freios e contrapesos, de "accountability", nessa forma democrática de exercício da cidadania, fora do tripé dos três Poderes constituídos. O então deputado federal Aécio Neves, que criou uma comissão parlamentar para estudar esse assunto, declarou: Democracia na era digital. A tecnologia digital possibilitou a construção de incontáveis redes digitais computadorizadas que viabilizam o voto direto e diário. Por exemplo, através da rede TCP/IP, qualquer cidadão com acesso à internet poderia votar. Entretanto, mesmo que seja relativamente fácil colocar os mais longínqüos pontos da Terra em conexão permanente com a internet, é necessário um grande investimento de capital para que isso ocorra. O acesso à internet está disseminado em locais como instituições de ensino, repartições públicas, companhias privadas, agências de notícias e bibliotecas, porém são relativamente poucos os cidadãos com acesso caseiro (14,1 milhões no Brasil em março de 2006, contra os quase 126 milhões de eleitores que votaram nas últimas eleições). Uma forma simples de resolver este problema seria a utilização de redes digitais já existentes e mais abrangentes, como por exemplo as lotéricas (atualmente, no Brasil, é possível enviar diversos tipos de informação ao aparato governamental via lotéricas, como a declaração de isenção do imposto de renda). Outra alternativa viável seria o voto pelo telefone. Estas formas de votação têm em comum um ponto fraco: a autenticação. Seria necessário a criação de meios de autenticação suficientemente seguros para viabilizar esta televotação, ou votação descentralizada. Atualmente, no Brasil, a autenticação do voto é feita por meio da assinatura, um método falho e bem pouco sofisticado - mas já estão sendo feitas experiências com leitores biométricos instalados junto às urnas eletrônicas. Democracia da era digital já em operação. Suécia. Na Suécia um projeto denominado "Democracy Experiment", ou DEMOEX, já desenvolveu a tecnologia de computação, e o software para votações através da internet, que está em operação experimental na cidade de Vallentuna, um subúrbio de Estocolmo. Também é usada pelo "The World Parliament Experiment." Os primeiros anos das atividades do DEMOEX foram avaliados pela Universidade Mitthögskolan, na Suécia, num ensaio (em sueco) sob o título "Flexible representation by use of delegated voting - a case study of practical use", elaborado por Karin Ottesen, 2003. Itália. Na Itália já opera o projeto "Listapartecipata", que tem como seu lema "O controle do governo nas mãos do Povo (e não somente no dia das eleições)", e cujos princípios são muito similares ao Demoex. Propostas de implantação de democracia direta, digital ou não, no Brasil. A Câmara dos Deputados do Congresso Brasileiro conta com uma comissão permanente denominada CLP - Comissão de Legislação Participativa, cuja função precípua é incrementar a participação popular na vida do legislativo brasileiro. A CLP desenvolve seu trabalho elaborando projetos de lei que podem nascer de propostas enviadas por qualquer cidadão brasileiro, sendo reunidas estas propostas no Banco de Ideias da CLP. Os membros da CLP e do próprio Congresso estão ainda constantemente sendo bombardeados com ideias de democracia direta divulgadas em páginas da internet, tais como democraciadireta.org e MDD-BrasiL.
723
Divisa Alegre
Divisa Alegre Divisa Alegre é um município brasileiro do estado de Minas Gerais, emancipado em 1995. Está localizado no norte do estado, na microrregião de Salinas e compõe com outros municípios o Alto Rio Pardo, próximo à divisa de Minas Gerais e Bahia. História. O município foi criado em 1995 e instalado em 1 de janeiro de 1997. Geografia. "Coordenadas:" Latitude: -15.7261, - Longitude: -41.3385 15° 43′ 34″ Sul, 41° 20′ 19″ Oeste. Superfície 11.780 hectares 117,80 km² (45,48 sq mi) Altitude:960 m Clima:semiárido. Demografia. Número de habitantes:6.702 Densidade demográfica:49,9(hab./km²) Estrutura urbana. O município é localizado as margens da rodovia BR-116 trecho esse conhecido como Rio-Bahia pois no início de sua pavimentação em meados dos anos 60 ia do Rio de Janeiro à Bahia, hoje vai de Jaguarão, no estado do Rio Grande do Sul, na fronteira com o Uruguai até a cidade de Fortaleza, no estado do Ceará, ela liga Divisa Alegre ao norte com o estado da Bahia, e ao sul a primeira cidade onde passa a mesma rodovia é Medina no mesmo estado de Minas Gerais, a cidade vizinha mais próxima é Águas Vermelhas.
724
Ácido desoxirribonucleico
Ácido desoxirribonucleico O ácido desoxirribonucleico (ADN, em português: ácido desoxirribonucleico"; ou DNA, em inglês: deoxyribonucleic acid") é um polímero composto por duas cadeias polinucleotídicas que se enrolam umas sobre as outras para formar uma dupla hélice. O polímero carrega instruções genéticas para o desenvolvimento, funcionamento, crescimento e reprodução de todos os organismos conhecidos e muitos vírus. O ADN e o ácido ribonucléico (RNA) são ácidos nucleicos. Ao lado de proteínas, lipídios e carboidratos complexos (polissacarídeos), os ácidos nucléicos são um dos quatro principais tipos de macromoléculas essenciais para todas as formas de vida conhecidas. É um composto orgânico cujas moléculas contêm as instruções genéticas que coordenam o desenvolvimento e funcionamento de todos os seres vivos e alguns vírus, e que transmitem as características hereditárias de cada ser vivo. A sua principal função é armazenar as informações necessárias para a construção das proteínas de ARNs. Os segmentos de ADN que contêm a informação genética são denominados genes. O restante da sequência de ADN tem importância estrutural ou está envolvido na regulação do uso da informação genética. A estrutura da molécula de ADN foi originalmente descoberta por Rosalind Franklin. No entanto, o Prémio Nobel de Fisiologia ou Medicina de 1962 foi entregue ao norte-americano James Watson e ao britânico Francis Crick, que se inspiraram em Franklin e demonstraram o funcionamento e a estrutura em dupla hélice do ADN em 7 de Março de 1953, juntamente com Maurice Wilkins. Do ponto de vista químico, o ADN é um longo polímero de unidades simples (monômeros) de nucleotídeos, cuja cadeia principal é formada por moléculas de açúcares e fosfato intercalados unidos por ligações fosfodiéster. Ligada à molécula de açúcar está uma de quatro bases nitrogenadas mantidas juntas por forças hidrofóbicas. A sequência de bases ao longo da molécula de ADN constitui a informação genética. A leitura destas sequências é feita por intermédio do código genético, que especifica a sequência linear dos aminoácidos das proteínas. A tradução é feita por um ARN mensageiro que copia parte da cadeia de ADN por um processo chamado transcrição e posteriormente a informação contida neste é "traduzida" em proteínas pela tradução. Embora a maioria do ARN produzido seja usado na síntese de proteínas, algum ARN tem função estrutural, como por exemplo o ARN ribossômico, que faz parte da constituição dos ribossomos. Dentro da célula, o ADN pode ser observado numa estrutura chamada cromossoma durante a metáfase. O conjunto de cromossomas de uma célula forma o cariótipo. Antes da divisão celular os cromossomas são duplicados por meio de um processo chamado replicação. Eucariontes como animais, plantas, fungos e protozoários têm o seu ADN dentro do núcleo enquanto que procariontes como as bactérias o têm disperso no citoplasma. Dentro dos cromossomas, proteínas da cromatina como as histonas compactam e organizam o ADN. Estas estruturas compactas guiam as interacções entre o ADN e outras proteínas, ajudando a controlar que partes do ADN são transcritas. Propriedades físicas e químicas. O ADN é um longo polímero formado por unidades repetidas chamadas nucleotídeos. A cadeia de ADN tem 2,2 a 2,4 nanómetros de largura, e um nucleotídeo possui aproximadamente 0,33 nanómetros de comprimento. Embora os monômeros (nucleotídeos) que constituem o ADN sejam muito pequenos, os polímeros de ADN podem ser moléculas enormes, com milhões de nucleotídeos. Por exemplo, o maior cromossomo humano (cromossomo 1), possui 220 milhões de pares de bases de comprimento. Uma molécula de ADN do ser humano possui aproximadamente dois metros de comprimento, encapsulada em um núcleo celular de 6 µm, o equivalente a acomodar uma linha de 40 km de comprimento em uma bola de tênis. Em organismos vivos, o ADN não existe como uma molécula única (cadeia simples), mas sim como um par de moléculas firmemente associadas. As duas longas cadeias de ADN enrolam-se como uma trepadeira formando uma dupla hélice. Os nucleotídeos estão presentes em ambas as cadeias da dupla hélice, unidos com nucleótidos da mesma cadeia por ligações fosfodiéster e à cadeia complementar por meio de pontes de hidrogénio formadas pelas suas bases. Em geral, uma base ligada a um açúcar é chamada nucleosídeo e uma base ligada a um açúcar e um ou mais fosfatos é chamada nucleotídeo. Portanto, o ADN pode ser referido como um polinucleotídeo. A cadeia principal do ADN é formada por fosfato e resíduos de açúcar, dispostos alternadamente. O açúcar no ADN é 2-desoxirribose, uma pentose (açúcar com cinco carbonos). Os açúcares são unidos por grupos fosfato que formam ligações fosfodiester entre o terceiro e quinto átomos de carbono dos anéis de açúcar adjacentes. Estas ligações assimétricas significam que uma cadeia de ADN tem uma direção. Numa dupla hélice, a direção dos nucleotídeos de uma cadeia é oposta à direção dos nucleotídeos da outra cadeia. O formato das cadeia do ADN é designado antiparalelo. As terminações assimétricas das cadeias de ADN são designadas terminais 5' (cinco linha) e 3' (três linha). Uma das diferenças principais entre o ADN e o ARN encontra-se no açúcar, com a substituição da 2-desoxirribose no ADN pela ribose no ARN. A dupla hélice do ADN é estabilizada por pontes de hidrogênio entre as bases presas às duas cadeias. As quatro bases encontradas no ADN são a adenina (A), citosina (C), guanina (G) e timina (T). Estas quatro bases ligam-se ao açúcar/fosfato para formar o nucleotídeo completo. Estas bases são classificadas em dois tipos; a adenina e guanina são compostos heterocíclicos chamados purinas, enquanto que a citosina e timina são pirimidinas. Uma quinta base (uma pirimidina) chamada uracila (U) aparece no ARN e substitui a timina, a uracila difere da timina pela falta de um grupo de metila no seu anel. A uracila normalmente não está presente no ADN, só ocorrendo como um produto da decomposição da citosina. Exceções para esta regra são os fagos AR9, 3NT, I10, bem como o PBS1 (muito utilizado em pesquisas), que contém uracila no seu ADN, em vez de timina. No topo, pareamento GC com três pontes de hidrogênio. Em baixo, AT com duas pontes de hidrogênio. Emparelhamento de bases. Cada tipo de base numa cadeia forma uma ligação com apenas um tipo de base na outra cadeia. Este comportamento é designado de complementariedade de bases. Assim, as purinas formam pontes de hidrogênio com pirimidinas, i.e. A liga-se com T e C com G. Este arranjo de dois nucleotídeos complementares na dupla hélice é chamado "par de bases". Além das pontes de hidrogênio entre as bases, as duas cadeias são mantidas juntas devido a forças geradas por "interações hidrofóbicas" entre as bases "empilhadas", a qual não é influenciada pela sequência do ADN. Como as pontes de hidrogênio não são ligações covalentes, podem ser quebradas e reunidas com relativa facilidade. Desta forma, as duas fitas da dupla hélice de ADN podem ser separadas como um zíper (fecho de correr) por força mecânica ou altas temperaturas. Como resultado desta complementariedade, toda a informação contida numa das cadeias de ADN está também contida na outra, o que é fundamental para a replicação do ADN. Os dois tipos de pares de base formam diferentes números de pontes de hidrogênio: AT forma duas pontes de hidrogênio enquanto que GC formam três pontes de hidrogênio. Desta forma a interação entre GC é mais forte que AT. Como resultado, a percentagem de GC numa dupla fita de ADN determina a força de interação entre as duas cadeias. Uma parte da dupla cadeia de ADN que precisa de ser separada facilmente, tal como a TATAAT Caixa de Pribnow nos promotores bacterianos, tende a ter sequências com maior predomínio de AT, para facilitar a abertura da dupla cadeia aquando da transcrição. No laboratório, a força desta interacção pode ser medida encontrando a temperatura necessária para quebrar as pontes de hidrogénio, a temperatura de desnaturação (também chamado "Tm"). Quando todos os pares de base numa dupla hélice de ADN quebram as suas ligações, as duas cadeias separam-se e existem em solução como duas moléculas completamente independentes. Estas moléculas de ADN de cadeia simples não têm uma única forma comum, mas algumas conformações são mais estáveis do que outras. Sulcos. O ADN normalmente encontra-se em forma de uma espiral dextrógira (gira para a direita, ou no sentido horário). Portanto, as duas cadeias de nucleotídeos giram uma sobre a outra e acabam por formar sulcos entre as cadeias de fosfato, deixando expostas as faces das bases nitrogenadas que não estão unidas por pontes de hidrogênio com a base complementar. Há dois tipos de sulcos na superfície da dupla hélice: um com 22 Å denominado sulco maior e um com 12 Å designado de sulco menor. A principal função dos sulcos do ADN é fornecer a informação acerca das bases que se encontram ligadas numa determinada região da dupla cadeia sem necessidade de abertura. O sulco maior oferece maior acessibilidade para ligação com proteínas do que o sulco menor. Um exemplo disto é a TBP ("TATA-binding protein") uma importante proteína para a transcrição em eucariotas. Senso e antissenso. Uma sequência de ADN é chamada de "senso" se possui a mesma sequência do ARNm. A cadeia oposta (complementar) à cadeia "senso" é denominada sequência "antissenso". Como a ARN polimerase sintetiza um ARN que é complementar à fita molde, então podemos dizer que ela utiliza a cadeia anti-senso como molde para produzir um ARN. As sequências senso e anti-senso podem existir em diferentes partes da mesma cadeia de ADN, que pode ser de um lado ou do outro, dependendo de onde se encontra a sequência codificadora. Às vezes não é possível dizer qual é a cadeia senso ou antissenso. Isto acontece devido à existência de genes que se sobrepõem. Neste caso ambas as cadeias dão origem a um ARN. Nas bactérias, a sobreposição pode estar envolvida da regulação da transcrição. Nos vírus, a sobreposição aumenta a capacidade do armazenamento de informações em pequenos genomas virais. Superenrolamento. O ADN pode ser torcido num processo denominado superenrolamento. No estado "relaxado" do ADN, uma fita normalmente dá uma volta completa ao eixo da dupla hélice a cada 10,4 pares de base, mas se o ADN está torcido, as cadeias ficam mais ou menos enroladas. Se o ADN está torcido na direção da hélice, é denominado um "superenrolamento positivo" e as bases estão unidas mais firmemente. Já o "superenrolamento negativo" refere-se a uma torção na direção oposta, resultando num "afrouxamento" das bases. Na natureza, o ADN apresenta um ligeiro superenrolamento negativo que é causado pela ação da enzima topoisomerase. Estas enzimas também são necessárias para aliviar o estresse de torção causado no ADN durante os processos de transcrição e replicação. Estrutura alternativa da dupla hélice. O ADN pode existir em muitas formações diferentes. As formações mais comuns são: ADN-A, ADN-B, ADN-C, ADN-D, ADN-E, ADN-H, ADN-L, ADN-P, e ADN-Z. Porém, só as formações de ADN A, B e Z foram encontradas em sistemas biológicos naturais. A formação que o ADN adopta depende de vários fatores da própria sequência de ADN: a intensidade e direção do superenrolamento, modificações químicas das bases e a solução na qual o ADN está presente (ex.: concentração de metais, iões e poliaminas). Das três formações referidas, a forma “B” é a mais comum nas condições encontradas nas células. A forma “A” corresponde à espiral dextra mais larga, com um sulco menor largo e superficial e um sulco maior estreito e profundo. A forma “A” ocorre sob condições não fisiológicas em amostras de ADN desidratadas, enquanto na célula pode ser produzida por pareamento híbrido de ADN e ARN ou pelo complexo enzima-ADN. Em segmentos de ADN onde as bases foram quimicamente modificadas por metilação, o ADN pode sofrer uma grande modificação na sua formação e adoptar a forma ADN-Z. A cadeia gira sobre o eixo da dupla hélice para a esquerda, o oposto da forma mais comum – ADN-B. Esta estrutura é rara e pode ser reconhecida por proteínas especificas de ligação com o ADN-Z. Pode estar envolvida na regulação da transcrição. Estruturas em quadrúplex. Nas extremidades do cromossomas lineares estão zonas especializadas do ADN chamadas telómeros. A função principal destas regiões é permitir que a célula replique as extremidades do cromossoma usando a enzima telomerase, porque enzimas que permitem replicar ADN normalmente não conseguem copiar as extremidades 3' dos cromossomas. Estas tampas de cromossoma especializadas também ajudam a proteger as extremidades do ADN, e evitam que o sistema de reparação de ADN elimine estas regiões como erros que precisassem de ser corrigidos. Em células humanas, os telómeros têm normalmente vários milhares de repetições de uma sequência simples (TTAGGG). Estas sequências ricas em guanina podem estabilizar as extremidades dos cromossomas formando estruturas de unidades de quatro bases empilhadas, ao invés dos pares de base usuais encontrados em outras moléculas de ADN. Quatro bases de guanina formam uma placa chata e depois estas unidades chatas de quatro bases empilham-se no topo umas das outras, para formarem estruturas quadrúplex-G estáveis. Estas estruturas são estabilizadas por pontes de hidrogénio entre as margens das bases e por quelação de um ião metálico no centro de cada unidade de quatro bases. Outras estruturas podem também ser formadas, com o conjunto central de quatro bases provenientes de uma cadeia simples enrolada à volta das bases ou de diversas cadeias paralelas, cada uma contribuindo com uma base para a estrutura central. Além destas estruturas empilhadas, os telómeros também formam grandes estruturas em forma de laço chamados "telomere loops" ou "T-loops". O ADN de cadeia simples enrola-se à volta de um círculo grande estabilizado por proteínas que se ligam a telómeros. Mesmo no fim dos "T-loops", o ADN de cadeia simples do telómero é mantido sobre uma região de ADN de cadeia dupla pela cadeia do telómero que desestabiliza o ADN de dupla hélice e o emparelhamento de bases de uma das duas cadeias. Esta estrutura de cadeia tripla é chamada de laço de deslocamento ou D-loop. Modificações químicas. Estrutura da citosina com e sem o grupo 5-metil. Depois de desaminação, a 5-metilcitosina tem a mesma estrutura da timina Modificações de bases. A expressão de genes é influenciado pela maneira como o ADN está disposto nos cromossomas, numa estrutura chamada cromatina. As modificações de bases podem estar envolvidas na disposição, com as regiões quem tem expressão génica baixa ou inexistente contendo usualmente níveis elevados de metilação de citosina. Por exemplo, a metilação de citosina produz 5-metilcitosina, que é importante na inactivação do cromossoma X. O nível médio de metilação varia entre organismos - o verme "Caenorhabditis elegans" tem pouca metilação da citosina, enquanto que vertebrados têm níveis mais elevados, com até 1% do seu ADN contendo 5-metilcitosina Apesar da importância da 5-metilcitosina, esta pode desaminar transformando-se em timina. Citosinas metiladas são por isso especialmente susceptíveis de sofrer mutações. Outras modificações de bases incluem metilação de adeninas em bactérias e glicosilação do uracilo para produzir a "base-J" em organismos da classe Kinetoplastida. Danos ao ADN. O ADN pode ser danificado por muitos tipos diferentes de mutagénios, que alteram a sequência de ADN. Estes incluem agentes oxidantes, agentes alquilantes e também por radiação electromagnética de grande energia tal como luz ultravioleta e raios-X. O tipo de dano ao ADN produzido depende do tipo de mutagénio. A luz ultravioleta, por exemplo, pode danificar o ADN produzindo dímeros de timina, que são ligações cruzadas entre pirimidinas. Por outro lado, oxidantes como radicais livres ou peróxido de hidrogénio produzem múltiplos tipos de danos, incluindo modificações de bases, em particular guanosina, e quebras das cadeias duplas. Em cada célula humana, cerca de 500 bases podem sofrer danos por oxidação por dia. As quebras da cadeia dupla são lesões oxidativas de difícil reparação, que podem produzir mutações pontuais, inserções e delecções, assim como translocações cromossómicas. Muitos mutagénios encaixam entre o espaço entre dois pares de bases adjacentes, na chamada "intercalação". A maioria dos intercaladores são aromáticos e moléculas planas e incluem brometo de etídio, daunomicina, doxorrubicina e talidomida. Para que um intercalador encaixe entre pares de bases, as bases têm de se separar, abrindo a cadeia dupla. Isto inibe a transcrição e a replicação do ADN, causando toxicidade e mutações. Como resultado, os intercaladores de ADN são muitas vezes carcinogénicos. Benzopireno, acridinas, aflatoxina e brometo de etídio são exemplos bem conhecidos. No entanto, devido à sua capacidade de inibir a transcrição e replicação, estas toxinas também são usadas em quimioterapia para inibir o crescimento rápido de células tumorais. Funções biológicas. O ADN ocorre normalmente como cromossomas lineares em eucariotas e como cromossomas circulares em procariotas. O conjunto dos cromossomas numa célula perfazem o seu genoma; o genoma humano tem aproximadamente 3 mil milhões de pares de base dispostos em 46 cromossomas. A informação transportada pelo ADN está contida nas sequências de ADN chamados genes. A transmissão da informação dos genes é conseguida pela complementaridade do emparelhamento das bases. Por exemplo, na transcrição, quando uma célula usa a informação num gene, a sequência de ADN é copiado para uma sequência de ARN complementar por meio da atracção entre o ADN e os nucleotídeos de ARN correctos. Esta cópia de ARN pode ser depois usada para compor uma sequência proteica correspondente no processo de tradução, que depende da mesma interacção entre nucleotídeos de ARN. Alternativamente, uma célula pode simplesmente copiar a sua informação genética num processo chamado replicação do ADN. Genes e genomas. O ADN genómico está localizado no núcleo celular dos eucariontes, assim como em pequenas quantidades em mitocôndrias e em cloroplastos. Em procariontes, o ADN está dentro de um corpo de forma irregular no citoplasma chamado nucleóide. A informação genética num genoma está nos genes, e o conjunto completo desta informação num organismo é chamado o seu genótipo. Um gene é a unidade básica da hereditariedade e é uma região do ADN que influencia uma característica particular num organismo. Genes contêm uma fase aberta de leitura que pode ser transcrita, assim como sequências reguladoras tais como promotores ou acentuassomos, que controlam a transcrição da fase aberta de leitura. Em muitas espécies, apenas uma pequena fracção da sequência total do genoma codifica uma proteína. Por exemplo, apenas 1,5% do genoma humano consiste de exões (que codificam proteínas), com mais de 50% do ADN humano consistindo de sequências repetitivas. As razões para a presença de tanto ADN não codificante em genomas eucarióticos e as extraordinárias diferenças no tamanho do genoma, ou valor C, entre espécies representam um enigma conhecido por enigma do valor C. Contudo, sequências de ADN que não codificam proteínas podem ainda codificar moléculas de ARN não codificante funcional, que estão envolvidas na regulação da expressão génica. Algumas sequências de ADN não codificante têm um papel estrutural nos cromossomas. Os telómeros e centrómeros contêm tipicamente poucos genes, mas são importantes para a função e estabilidade dos cromossomas. Uma forma abundante de ADN não codificante em humanos são os pseudogenes, que são cópias de genes que foram desabilitados por mutação. Estas sequências são usualmente apenas fósseis moleculares, apesar de poderem servir ocasionalmente como material genético em bruto para a criação de novos genes por meio do processo de duplicação de genes e divergência. Transcrição e tradução. Um gene é uma sequência de ADN que contêm informação genética e pode influenciar o fenótipo de um organismo. Dentro de um gene, a sequência de bases ao longo de uma cadeia de ADN definem uma cadeia de ARN mensageiro, que por sua vez define uma ou mais sequências proteicas. A relação entre a sequência de nucleótidos de um gene e a sequência de aminoácidos de uma proteína é determinada pelas regras de tradução, conhecidas colectivamente como o código genético. O código genético consiste de 'palavras' de três letras chamadas codões formadas por uma sequência de três nucleótidos (p.e. ACU, CAG, UUU). Na transcrição, os codões de um gene são copiados para um ARN mensageiro pela ARN polimerase. Esta cópia de ARN é depois descodificada por um ribossoma que lê a sequência de ARN emparelhando o ARN mensageiro com o ARN de transferência, que carrega aminoácidos. Uma vez que há quatro bases em combinações de 3 letras, há 64 codões possíveis (formula_1 combinações). Estas codificam os vinte aminoácidos, dando à maioria dos aminoácidos mais do que um codão possível. Há também três codões 'stop' ou 'nonsense' significando o fim da região codificante; estes são os codões UAA, UGA e UAG. Replicação. A divisão celular é essencial para que um organismo cresça, mas quando uma célula se divide tem de replicar o ADN do seu genoma para que as duas células-filha tenham a mesma informação genética que a célula parental. A estrutura em dupla-hélice do ADN fornece um mecanismo simples para a sua replicação. As duas cadeias são separadas e sequências de ADN complementares a cada uma das cadeias são recriadas por uma enzima chamada ADN polimerase. Esta enzima constrói a cadeia complementar encontrando a base correcta por intermédio do emparelhamento com a base complementar, e ligando-a à cadeia original. Como as polimerases de ADN só conseguem fazer a extensão de uma cadeia de ADN na direcção 5' para 3', outros mecanismos são usados para copiar a cadeia antiparalela da dupla hélice. Desta forma, a base presente na cadeia antiga determina que base vai aparecer na nova cadeia e a célula acaba com uma cópia perfeita do seu ADN. Interacções com proteínas. Todas as funções do ADN dependem de interacções com proteínas. Estas interacções com proteínas podem ser não específicas, ou a proteína pode ligar-se especificamente a uma única sequência de ADN. Algumas enzimas também se podem ligar ao ADN. Destas, as polimerases que copiam as sequências de ADN na transcrição e replicação são particularmente importantes. Proteínas que se ligam ao ADN ("DNA-binding"). Interacção do ADN com histonas (mostrado em branco, em cima). Os aminoácidos básicos destas proteínas (em baixo à esquerda, em azul) liga-se aos grupos fosfato do ADN (em baixo à direita, em vermelho). Proteínas estruturais que se ligam ao ADN são exemplos bem estudados de interacções não específicas ADN-proteínas. Nos cromossomas, o ADN está ligado a proteínas estruturais formando complexos. Estas proteínas organizam o ADN numa estrutura compacta, a cromatina. Em eucariontes esta estrutura envolve a ligação do ADN a um complexo de pequenas proteínas básicas chamadas histonas, enquanto que em procariontes estão envolvidas vários tipos de proteínas. As histonas formam um complexo em forma de disco, o nucleossoma, que contém duas voltas completas de ADN de cadeia dupla à sua volta. Estas interacções não específicas formam-se quando os resíduos básicos das histonas fazem ligações iónicas ao esqueleto açúcar-fosfato acídico do ADN, e por isso são largamente independentes da sequência de bases. Modificações químicas nestes resíduos de amino-ácidos incluem metilação, fosforilação e acetilação. Estas mudanças químicas alteram a força da interacção entre o ADN e as histonas, tornando o ADN mais ou menos acessível a factores de transcrição e mudando a taxa de transcrição. Outras proteínas com ligação a ADN não específicas incluem o grupo de proteínas de alta mobilidade, que se ligam a ADN dobrado ou distorcido. Estas proteínas são importantes pois dobram conjuntos de nucleossomas e organizam-nos em estruturas maiores que constituem os cromossomas. Um grupo distinto destas proteínas são as que se ligam especificamente a ADN de cadeia simples. Nos humanos, a proteína de replicação A é o membro desta família mais bem compreendido e é usado em processos onde a dupla hélice é separada, incluindo durante a replicação do ADN, recombinação e reparo. Estas proteínas parecem estabilizar ADN de cadeia dupla e protegem-no da formação de "hairpin loops" e da degradação por nucleases. Em contraste, outras proteínas evoluíram de modo a ligar-se a sequências de ADN específicas. Os factores de transcrição são dos mais intensivamente estudados (proteínas que regulam a transcrição). Cada factor de transcrição liga-se a um conjunto particular de sequências de ADN e activa ou inibe a transcrição de genes que tenham estas sequências perto dos seus promotores. Os factores de transcrição fazem isto de duas maneiras. Primeiro, podem ligar-se à polimerase do ARN responsável pela transcrição, quer directamente quer por meio de proteínas mediadoras; isto posiciona a polimerase no promotor e permite que comece a transcrição. Em alternativa, os factores de transcrição podem ligar-se a enzimas que modificam as histonas no promotor; isto muda a acessibilidade do molde de ADN à polimerase. Como estes locais de ligação podem ocorrer pelo genoma inteiro de um organismo, mudanças na actividade de um tipo de factor de transcrição pode afectar milhares de genes. Por consequência, estas proteínas são muitas vezes alvo de processos de transdução de sinal que controlam respostas a mudanças ambientais ou diferenciação e desenvolvimento celular. A especificidade da interacção destes factores de transcrição com o ADN provém das proteínas que fazem contactos múltiplos com a extremidade das bases de ADN, permitindo a leitura da sequência de ADN. A maior parte destas interacções com bases faz-se no sulco maior, onde as bases estão mais acessíveis. Enzimas que modificam o ADN. Nucleases e ligases. As nucleases são enzimas que cortam as cadeias de ADN mediante a catálise da hidrólise das ligações fosfodiéster. As nucleases que hidrolisam nucleótidos a partir dos extremos das cadeias de ADN denominam-se "exonucleases", enquanto que as "endonucleases" cortam no interior das cadeias. As nucleases que se utilizam com maior frequência em biologia molecular são as enzimas de restrição, endonucleases que cortam o ADN em sequências específicas. Por exemplo, a enzima EcoRV, mostrada à esquerda, reconhece a sequência de 6 bases 5′-GAT|ATC-3′ e faz um corte em ambas as cadeias na linha vertical indicada, gerando duas moléculas de ADN. Outras enzimas de restrição geram, no entanto, extremidades coesivas, já que cortam de forma diferente as duas cadeias de ADN. Na natureza, estas enzimas protegem as bactérias contra as infecções de fagos, ao digerir o ADN do fago quando entra através da parede bacteriana, actuando como um mecanismo de defesa. Em biotecnologia, estas nucleases específicas utilizam-se na clonagem molecular e na técnica de impressão de ADN (" fingerprinting", em inglês). As enzimas denominadas ADN ligases podem reunir pedaços de ADN cortados ou quebrados. As ligases são particularmente importantes na replicação do ADN da cadeia atrasada de ADN, já que unem os fragmentos curtos de ADN gerados no garfo de replicação para formar uma cópia completa do molde de ADN. Também se utilizam no reparo de ADN e na recombinação genética. Topoisomerases e helicases. As topoisomerases são enzimas que possuem actividade de nuclease e ligase. Estas proteínas mudam a quantidade de ADN superenrolado. Algumas destas enzimas funcionam cortando a hélice de ADN e permitindo a uma secção que faça rotação, de maneira a reduzir o grau de superenrolamento; uma vez feito isto, a enzima volta a unir os fragmentos de ADN. Outros tipos de enzimas são capazes de cortar uma hélice de ADN e depois passar a segunda cadeia de ADN através desta quebra, antes de reunir as hélices. As topoisomerases são necessárias para muitos processos em que intervém o ADN, como a replicação e a transcrição. As helicases são proteínas que pertencem ao grupo dos motores moleculares. Utilizam energia química armazenada nos trifosfatos de nucleósidos, fundamentalmente ATP, para romper pontes de hidrogénio entre bases e separar a dupla hélice de ADN em cadeias simples. Estas enzimas são essenciais para a maioria dos processos em que as enzimas necessitam de aceder às bases do ADN. Polimerases. As polimerases são enzimas que sintetizam cadeias de nucleótidos a partir de trifosfatos de nucleósidos. A sequência de seus produtos são cópias de cadeias de polinucleótidos existentes, que se denominam "moldes". Estas enzimas funcionam adicionando nucleótidos ao grupo hidróxilo em 3' do nucleótido anterior numa cadeia de ADN. Por consequência, todas as polimerases funcionam na direcção 5′ → 3′. Nos sítios activos destas enzimas, o trifosfato de nucleósido que se incorpora emparelha a sua base com a correspondente no molde: isto permite que a polimerase sintetize de forma precisa a cadeia complementar ao molde. As polimerases classificam-se de acordo com o tipo de molde que utilizam: Recombinação genética. Estrutura de um intermediário em junção de Holliday na recombinação genética. A quatro cadeias de ADN separadas estão coloridas em vermelho, azul, verde e amarelo. Uma hélice de ADN normalmente não interage com outros segmentos de ADN. Nas células humanas os diferentes cromossomas ocupam áreas separadas no núcleo celular denominadas “territórios cromossómicos”. A separação física dos diferentes cromossomas é importante para que o ADN mantenha a sua capacidade de funcionar como um armazém estável de informação. Um dos poucos momentos em que os cromossomas interagem é durante o sobrecruzamento cromossómico ("chromosomal crossover", em inglês), durante o qual se recombinam. O sobrecruzamento cromossómico ocorre quando duas hélices de ADN se rompem, sofrem intercâmbio e se unem novamente. A recombinação permite aos cromossomas trocar informação genética e produzir novas combinações de genes, o que aumenta a eficiência da selecção natural e pode ser importante na evolução rápida de novas proteínas. Durante a profase I da meiose, uma vez que os cromossomas homólogos estão perfeitamente emparelhados formando estruturas que se denominam bivalentes, produz-se o fenómeno de sobrecruzamento ou entrecruzamento "(crossing-over)", no qual os cromatídeos homólogos não irmãos (procedentes do pai e da mãe) trocam material genético. A recombinação genética resultante faz aumentar em grande medida a variação genética entre a descendência de progenitores que se reproduzem por via sexual. A recombinação genética também pode estar implicada na reparação do ADN, em particular na resposta celular às roturas da dupla cadeia ("double-strand breaks"). A forma mais frequente de sobrecruzamento cromossómico é a recombinação homóloga, na qual os dois cromossomas implicados compartilham sequências muito similares. A recombinação não homóloga pode ser danosa para as células, já que pode produzir translocações cromossómicas e anormalidades genéticas. A reacção de recombinação é catalisada por enzimas conhecidas como "recombinases", tais como a RAD51. O primeiro passo no processo de recombinação é uma rotura da dupla cadeia, causada por uma endonuclease ou por dano no ADN. Posteriormente, uma série de passos catalisados em parte pela recombinase conduz à união das duas hélices formando pelo menos uma junção de Holliday, na qual um segmento de uma cadeia simples é anelada com a cadeia complementar na outra hélice. A junção de Holliday é uma estrutura de união tetraédrica que pode mover-se ao longo do par de cromossomas, intercambiando uma cadeia por outra. A reacção de recombinação detém-se pelo corte da união e a reunião dos segmentos de ADN libertados. Evolução do metabolismo de ADN. O ADN contém a informação genética que permite à maioria dos organismos vivos funcionar, crescer e reproduzir-se. No entanto, desconhece-se o intervalo de tempo durante o qual ele exerceu esta função nos ~3000 milhões de anos desde a história da vida, já que se propôs que as formas de vida mais precoces poderiam ter utilizado ARN como material genético. O ARN poderia ter funcionado como parte central de um metabolismo primordial, já que pode transmitir informação genética e simultaneamente actuar como catalisador, formando parte das ribozimas. Este antigo "mundo de ARN" onde os ácidos nucleicos funcionariam como catalisadores e como armazéns de informação genética, poderia ter influenciado na evolução do código genético actual, baseado em quatro nucleótidos. Isto se deveria a que o número de bases únicas num organismo é determinado entre um número pequeno de bases (o que aumentaria a precisão da replicação) e um número grande de bases (que por sua vez aumentaria a eficiência catalítica das ribozimas). Infelizmente, não dispomos de evidência directa dos sistemas genéticos ancestrais, porque a recuperação do ADN a partir da maior parte dos fósseis é impossível. O ADN é capaz de sobreviver no meio ambiente durante menos de um milhão de anos, e logo começa a degradar-se lentamente em fragmentos de menor tamanho em solução. Algumas investigações pretendem a obtenção de ADN mais antigo, como no caso do isolamento de uma bactéria viável a partir de um cristal salino de 250 milhões de anos de antiguidade, mas estes dados são controversos. No entanto, podem utilizar-se ferramentas de evolução molecular para inferir os genomas de organismos ancestrais a partir de organismos contemporâneos. Em muitos casos, estas inferências são suficientemente fiáveis, de maneira que uma biomolécula codificada num genoma ancestral pode ser ressuscitada no laboratório para ser estudada hoje. Uma vez recomposta a biomolécula ancestral, suas propriedades poderiam oferecer informações sobre os ambientes primordial, remetendo ao campo emergente da "paleogenética experimental". Apesar de tudo, o processo de trabalho "retrospectivo" tem limitações inerentes, razão pela qual outros investigadores tentam elucidar o mecanismo evolutivo trabalhando desde a origem da Terra até adiante no tempo. Dada suficiente informação sobre como as substâncias cósmicas poderiam haver-se depositado na Terra e sobre as transformações que poderiam ter tido lugar na superfície terrestre, talvez poderíamos ser capazes de desenvolver modelos prospectivos de evolução da informação genética. História. Descoberta. A história do ADN começa no final da década de 1860, com a chegada do bioquímico e médico suíço Friedrich Miescher (1844-1895) à Universidade de Tübingen, uma pacata cidade no sul da Alemanha. O jovem pesquisador estava disposto à dedicar-se ao estudo da química da célula e escolheu essa universidade porque nela o químico Felix Hoppe-Seyler (1825-1895) havia inaugurado um importante laboratório de química fisiológica. Na época floresciam ideias a respeito das origens e funções das células, após a queda da teoria da geração espontânea. A teoria celular estabelecia-se como um dos pilares da Biologia. Por tudo isso, as células atraíam a atenção de estudantes entusiasmados, como Miescher. Felix Hoppe-Seyler foi quem primeiro descreveu as interações entre a hemoglobina, a proteína responsável pela cor do sangue, e o gás oxigênio. Seu trabalho levou-o a interessar-se pela composição bioquímica dos linfócitos. Mas Miescher enfrentou dificuldades para obter amostras com linfócitos em quantidade e grau de pureza adequados. Por sugestão de Hoppe-Seyler, Miescher começou a estudar a química das células do pus; o material para a pesquisa era abundante, pois dezenas de bandagens com material purulento eram diariamente descartadas por um hospital próximo à universidade. Miescher desenvolveu técnicas adequadas para o isolamento das células presentes em pus das bandagens e para a sua análise química. O objetivo inicial era investigar as proteínas celulares, um grupo de substâncias descoberto cerca de trinta anos antes. Em um dos seus muitos experimentos com células do pus, Miescher obteve um precipitado que diferia quimicamente de todas as substâncias protéicas conhecidas. Ele descobriu que a nova substância concentrava-se no núcleo celular, na época considerado uma estrutura de pouca importância para o funcionamento celular. Aprimorando os métodos de extração e purificação da nova substância, Miescher pôde realizar uma análise química mais precisa, que mostrou que as quantidades relativas de hidrogênio, carbono, oxigênio e nitrogênio presentes diferiam das encontradas em proteínas, além de uma quantidade incomum de fósforo. À substância descoberta Miescher denominou "nucleína", pelo fato de ela estar concentrada no núcleo das células. O trabalho sobre nucleína só foi publicado em 1871, após certa resistência do editor da revista científica, o próprio Hoppe-Seyler, que, no início, não acreditou nos resultados apresentados por Miescher. Mesmo depois da publicação do trabalho, muitos pesquisadores continuaram duvidando da existência da nucleína; na opinião deles, o achado de Miescher devia ser uma mistura de fosfato inorgânico e proteínas. Elucidação da composição química. As desconfianças quanto à real existência da nova substância descrita por Miescher só foram superadas por volta de 1889, quando Richard Altmann (1852-1900) obteve preparações altamente purificadas de nucleína, sem nenhuma contaminação por proteínas. Pelo fato de a substância ter caráter ácido, o que já havia sido detectado por Miescher, Altmann sugeriu que ela fosse chamada de ácido nucléico em vez de nucleína. Outro pesquisador pioneiro na descoberta foi Albrecht Kossel (1853-1927). Em 1877, ele juntou-se ao grupo de pesquisa de Hoppe-Seyler, então trabalhando na Universidade de Estrasburgo (França), e começou a estudar a composição química das nucleínas. Kossel detectou dois tipos de bases nitrogenadas já conhecidas, a adenina e a guanina. Em 1893, identificou uma nova base nitrogenada, que era liberada pela degradação de nucleína da células do timo; por isso denominou-a timina. Logo em seguida, descobriu que a nucleína continha um quarto tipo de base nitrogenada, a qual denominou citosina. Em 1894, o grupo liderado por Kossel descobriu que os ácidos nucleicos continham também pentose, um açúcar com cinco átomos de carbono. Em reconhecimento às suas contribuições na área, foi agraciado em 1910 com o Nobel de Fisiologia ou Medicina. Em 1909, Phoebus Levene e Walter Abraham Jacobs (1883-1967) conseguiram determinar a organização das moléculas de fosfato, de pentose e base nitrogenada no ácido nucleico. Esses três componentes estão unidos entre si formando uma unidade fundamental, o nucleotídeo. Em 1929, Levene e colaboradores identificaram pentoses componente do ácido nucleico das células do timo, que denominaram 2-deoxi-D-ribose, pelo fato de ela possuir, no carbono 2 de sua cadeia, um átomo de oxigênio a menos que a ribose, uma pentose já conhecida, encontrada pelos pesquisadores em dois tipos de ácidos nucléicos: o ácido ribonucleico, ou ribose, e o ácido desoxirribonucléico, ou ADN, cujo açúcar é a desoxirribose. Descoberta da transformação. Frederick Griffith fez uma importante observação no curso dos experimentos com a bactéria "Streptococcus pneumoniae" em 1928. Esta bactéria, que causa pneumonia em humanos, normalmente é letal em camundongos. Entretanto algumas linhagens desta espécie de bactérias eram menos virulentas (menos capazes de causar doenças ou morte). Nos experimentos de Griffith, ele usou duas linhagens distinguíveis pelas suas colônias quando cultivadas em laboratório. Uma linhagem era um tipo normalmente virulento e mortal para a maioria dos animais de laboratório. As células desta linhagem estão envoltas em uma cápsula de polissacarídeo, dando às colônias em aspecto liso, sendo esta linhagem identificada com "S" ("smooth", em inglês). A outra linhagem de Griffith era um tipo mutante não virulento que crescia em camundongos. Nesta linhagem, a capa de polissacarídeo está ausente, dando às colônias um aspecto rugoso. Esta linhagem é chamada "R" ("rough", em inglês). Griffith inativou algumas células virulentas a alta temperatura. Injetou então as células mortas por aquecimento nos camundongos. Os camundongos sobreviveram, mostrando que os restos das células não causam morte. Entretanto os camundongos injetados com uma mistura de células virulentas mortas por aquecimento e células não virulentas vivas morreram. Além disso, as células vivas podiam ser recuperadas de camundongos mortos. Estas células deram colônias lisas e foram virulentas em uma injeção subsequente. De algum modo, os restos das células "S" aquecidas haviam convertido células "R" vivas em células "S" vivas. A etapa seguinte era determinar que componente químico das células doadoras mortas havia causado esta conversão. Esta substância tinha mudado o genótipo da linhagem receptora e portanto podia ser uma candidata a material genético. Este problema foi resolvido pelos experimentos feitos em 1944 por Oswald Avery e dois colegas, C M. Macleod e M. McCarty. Seu enfoque ao problema foi destruir quimicamente todas as principais categorias de substâncias no extrato de células mortas, uma de cada vez, e descobrir se o extrato havia perdido a habilidade de conversão. As células virulentas possuíam uma capa lisa de polissacarídeo, enquanto as células não virulentas, não. Assim os polissacarídeos eram um candidato óbvio a ser o agente responsável. Entretanto, quando os polissacarídeos foram destruídos, a mistura ainda era capaz de conversão. As proteínas, gorduras e ácido ribonucleico (ARN) foram todos excluídos. A mistura só perdia a sua capacidade de conversão quando a mistura doadora era tratada com enzima desoxirribonuclease (DNase), que quebra o ADN. Estes resultados indicavam fortemente que o ADN era o material genético. Hoje sabemos que os fragmentos do ADN transformante que conferem virulência entram no cromossomo bacteriano e substituem suas contrapartes que conferem não virulência. Experimento de Hershey-Chase. Os experimentos feitos por Avery e seus colegas foram definitivos, mas muitos cientistas mostraram-se muito relutantes em aceitar o ADN (e não as proteínas) como material genético. Evidências adicionais foram publicadas em 1952 por Alfred Day Hershey e Martha Chase, cujo experimento com o fago T2, um vírus que transfecta na bactéria a informação específica para a reprodução viral. Se eles pudessem descobrir que material o fago transmitia à bactéria hospedeira, determinariam o material genético do fago. O fago tem uma constituição molecular relativamente simples. A maior parte de sua estrutura é de proteína, com o ADN contido dentro da capa de proteína de sua "cabeça". Hershey e Chase decidiram marcar o ADN e a proteína usando radioisótopos, de modo que pudessem rastrear os dois materiais durante a infecção. O fósforo não é encontrado nas proteínas mas é uma parte integrante do ADN. Contrariamente, o enxofre está presente nas proteínas mas nunca no ADN. Hershey e Chase incorporaram o radioisótopo de fósforo (32P) no ADN do fago e o enxofre (35S) nas proteínas de uma cultura separada de fagos. Eles então infectaram duas culturas de "E. coli" com muitas partículas de vírus por células: uma cultura de E. "coli" recebeu fagos marcados com 32P e a outra recebeu fagos marcados com 35S. Decorrido tempo suficiente para que ocorresse a infecção, os cientistas removeram as embalagens de fago (chamadas "ghosts") das células bacterianas por agitação em um liquidificador. Eles separaram as células bacterianas dos envoltórios dos fagos em uma centrífuga e então mediram a radioatividade nas duas frações. Quando o fago marcado com 32P foi usado para infectar E. "coli", a mais alta radioatividade foi encontrada dentro das bactérias, indicando que o ADN do fago havia entrado nas células. Quando era usado o fago marcado com 35S, maior parte do material radioativo estava nos invólucros dos fagos, indicando que a proteína do fago nunca entrava nas bactérias. A conclusão era inevitável: o ADN era o material hereditário. As proteínas do fago eram apenas embalagens estruturais abandonadas após o ADN viral entrar na bactéria. Aplicações. Engenharia genética. A investigação sobre o ADN tem um impacto significativo, especialmente no âmbito da medicina, mas também na agricultura e pecuária, com objectivos de domesticação, selecção e de cruzamentos dirigidos. A moderna biologia e bioquímica fazem uso intensivo da tecnologia do ADN recombinante, introduzindo genes de interesse em organismos, com o objectivo de expressar uma proteína recombinante concreta, que pode ser: Medicina Forense. A Medicina Forense pode utilizar o ADN presente no sangue, no sémen, na pele, na saliva ou em pelos existentes na cena de um crime para identificar o responsável. Esta técnica denomina-se impressão genética ou "perfil de ADN". Ao realizar a impressão genética, compara-se o comprimento de secções altamente variáveis do ADN repetitivo, como os microssatélites, entre pessoas diferentes. Este método é muito fiável para identificar um criminoso. No entanto, a identificação pode complicar-se se a cena do crime estiver contaminada com ADN de pessoas diferentes. A técnica da impressão genética foi desenvolvida em 1984 pelo geneticista britânico Sir Alec Jeffreys, e utilizada pela primeira vez para condenar Colin Pitchfork por causa dos assassinatos de Narborough (Reino Unido) em 1983 e 1986. Pode-se requerer às pessoas acusadas de certos tipos de crimes que cedam uma amostra de ADN para ser introduzida numa base de dados. Isto tem facilitado o trabalho dos investigadores na resolução de casos antigos, onde só se obteve uma amostra de ADN da cena do crime, em alguns casos permitindo exonerar um convicto. A impressão genética também pode ser utilizado para identificar vítimas de acidentes em massa, ou para realizar provas de consanguinidade. Bioinformática. A Bioinformática implica a manipulação, busca e extracção de informação dos dados da sequência do ADN. O desenvolvimento das técnicas para armazenar e procurar sequências de ADN gerou avanços no desenvolvimento de software para computadores, com muitas aplicações, especialmente algoritmos de busca de frases, aprendizagem automática e teorias de bases de dados. A busca de frases ou algoritmos de coincidências, que procuram a ocorrência de uma sequência de letras dentro de uma sequência de letras maior, desenvolveu-se para buscar sequências específicas de nucleótidos. Em outras aplicações como editores de textos, inclusive algoritmos simples podem funcionar, mas as sequências de ADN podem gerar que estes algoritmos apresentem um comportamento de "quase o pior caso", devido ao baixo número de carácteres. O problema relacionado do alinhamento de sequências procura identificar sequências homólogas e localizar mutações específicas que as diferenciam. Estas técnicas, fundamentalmente o alinhamento múltiplo de sequências, utilizam-se ao estudar as relações filogenéticas e a função das proteínas. As colecções de dados que representam sequências do ADN do tamanho de um genoma, tais como as produzidas pelo Projecto Genoma Humano, são difíceis de utilizar sem notações que marcam a localização dos genes e dos elementos reguladores em cada cromossoma. As regiões de ADN que têm padrões associados com genes codificantes de proteínas ou ARN podem identificar-se por algoritmos de localização de genes, o que permite aos investigadores predizer a presença de produtos génicos específicos num organismo mesmo antes que se tenha isolado experimentalmente. Nanotecnologia de ADN. A nanotecnologia de ADN utiliza as propriedades únicas de reconhecimento molecular de ADN e outros ácidos nucleicos para criar complexos ramificados auto-ensamblados com propriedades úteis. Neste caso, o ADN utiliza-se como um material estrutural, mais que como um portador de informação biológica. Isto conduziu à criação de lâminas periódicas de duas dimensões (ambas baseadas em azulejos, assim como usando o método de "ADN origami"), para além de estruturas em três dimensões em forma de poliedros. História e antropologia. O ADN armazena mutações conservadas com o tempo e portanto contém informação histórica. Comparando sequências de ADN, os geneticistas podem inferir a história evolutiva dos organismos, a sua filogenia. O campo da filogenia é uma ferramenta potente na biologia evolutiva. Se se compararem as sequências de ADN dentro de uma espécie, os geneticistas de populações podem conhecer a história de populações particulares. Isto pode-se utilizar numa ampla variedade de estudos, desde ecologia até antropologia; por exemplo, evidência baseada na análise de ADN está a ser utilizada para identificar as Dez Tribos Perdidas de Israel.
725
Domicílio Conjugal
Domicílio Conjugal Domicile conjugal (no Brasil e em Portugal, Domicílio Conjugal) é um filme franco-italiano de 1970, dirigido por François Truffaut. Sinopse. Antoine Doinel casou-se com Christine Darbon, que dá aulas de violino. Antoine tinge flores no pátio do prédio onde vivem. Entre os seus vizinhos contam-se um cantor de ópera e a sua esposa, um recluso voluntário, um criada apaixonada por ele e um homem misterioso apelidado "o estrangulador". Antoine muda de profissão e é contratado por uma empresa norte-americana. Christine espera uma criança que se chamará Alphonse. Antoine conhece Kyoko, uma bela japonesa, com quem tem uma aventura. Sentindo-se apaixonada, a jovem lhe envia umas flores acompanhadas de uma declaração de amor. As tais flores são recebidas por Christine que, assim, descobre estar sendo traída pelo marido. Como conseqüência, Antoine se vê obrigado a sair de casa e passa a viver num quarto de hotel. Com o passar do tempo, a relação com Kyoko vai-se desgastando. Por várias vezes, ele tenta voltar para sua esposa, mas esta não concorda, muito embora no fundo ela continue a amá-lo. As constantes visitas ao seu filho Alphonse, no entanto, vão amolecendo o coração de Christine, de modo que os dois terminam se acertando.
726
Dados digitais
Dados digitais Dados digitais, na teoria da informação e nos sistemas de informação, são informações representadas como uma cadeia de símbolos discretos, cada um dos quais pode assumir um de apenas um número finito de valores de algum alfabeto, como letras ou dígitos. Um exemplo é um arquivo de texto, que consiste em uma sequência de caracteres alfanuméricos. A forma mais comum de dados digitais nos sistemas de informação modernos são os dados binários, que são representados por uma cadeia de dígitos binários ("bits"), cada um dos quais pode ter um de dois valores, 0 ou 1. Dados digitais podem ser contrastados com dados analógicos, que são representados por um valor de uma faixa contínua de números reais. Os dados analógicos são transmitidos por um sinal analógico, que não apenas assume valores contínuos, mas também pode variar continuamente com o tempo, uma função contínua de valor real do tempo. Um exemplo é a variação da pressão atmosférica em uma onda sonora. A palavra "digital" vem da mesma fonte das palavras "digit" e "digitus" (latim para dedo), pois os dedos são frequentemente usados ​​para contar. O matemático George Stibitz, da Bell Telephone Laboratories, usou a palavra digital em referência aos rápidos pulsos elétricos emitidos por um dispositivo projetado para mirar e disparar canhões antiaéreos em 1942. O termo é mais comumente usado em computação e eletrônica, especialmente onde informações do mundo real são convertidas em forma numérica binária como em áudio digital e fotografia digital. Estados. Os dados digitais encontram-se em três estados: em repouso, em trânsito e em uso. A confidencialidade, integridade e disponibilidade devem ser gerenciadas durante todo o ciclo de vida, desde o 'nascimento' até a destruição dos dados.
728
Delfinópolis
Delfinópolis Delfinópolis é um município brasileiro da Região Imediata de Passos, Região Geográfica Intermediária de Varginha, no estado de Minas Gerais. Dista 401 quilômetros de Belo Horizonte, e se estende numa área total de 1.171 km² elevada a 689 metros de altitude na sede municipal. Sua população em julho de 2017 foi estimada em habitantes. História. No século XIX, Violanta Luzia de São José, doou 288 hectares de terra para a construção da capela do Divino Espírito Santo. A partir daí, começou a se formar um núcleo chamado Povoado Espírito Santo da Forquilha. Em 1919, em homenagem ao governador do Estado, Delfim Moreira da Costa Ribeiro, a cidade recebeu o nome de Delfinópolis. Com a implementação do turismo, a chegada do asfalto e as facilidades de deslocamento para cidades como Passos, Franca e Ribeirão Preto, a cidade passou por significativas modificações nos aspectos cultural, social e político, atraindo muitos turistas para o Porto da Praia Vermelha. Geografia. A cidade possui 1.375 km² de área, 6.501 habitantes, altitude variando entre 671m e 1.400m. Economia. Nas atividades agrícolas, destacam-se: milho, café, cana-de-açúcar, banana, arroz, feijão, soja. Na pecuária: leite e seus derivados, gado de corte e suinocultura.E a partir de meados do ano de 2014 a cidade se destacou com a produção de bananas. Merece destaque o desenvolvimento do setor turístico. Turismo. O município faz parte do circuito turístico Nascentes das Gerais e tem como principal atração turística o Complexo do Claro, um conjunto de cachoeiras localizadas próximas ao centro da cidade. Encontra-se também uma grande parte em seu território o Parque Nacional da Serra da Canastra e anexo a esse o Vão da Babilônia, região com muitas pousadas e atrativos turísticos, rota de trilheiros e admiradores da natureza.
729
Descobrimentos portugueses
Descobrimentos portugueses Os descobrimentos portugueses foram o conjunto de conquistas, navegações e comércio realizados pelos portugueses em viagens e explorações marítimas que começaram em 1418 com a descoberta das ilhas da Madeira e Porto Santo. Os descobrimentos resultaram na expansão portuguesa e deram um contributo essencial para delinear o mapa do mundo, impulsionados pela Reconquista e pela procura de alternativas às rotas do comércio no Mediterrâneo. Com estas descobertas os portugueses iniciaram a Era dos Descobrimentos europeus que durou do até ao XVII e foram responsáveis por importantes avanços da tecnologia e ciência náutica, cartografia e astronomia, desenvolvendo os primeiros navios capazes de navegar em segurança em mar aberto no Atlântico. Embora com antecedentes no reinado de D. Dinis (1279) e nas expedições às Ilhas Canárias do tempo de D. Afonso IV, é a partir da conquista de Ceuta em 1415, que Portugal inicia o projecto nacional de navegações oceânicas sistemáticas que ficou conhecido como "descobrimentos portugueses". Terminada a Reconquista, o espírito de conquista e Cristianização dos povos muçulmanos subsistia. Os portugueses dirigiram-se então para o Norte de África, de onde tinham vindo os mouros que se haviam estabelecido na Península Ibérica. Avançando progressivamente pelo Atlântico ao longo das costas do continente africano, passaram o Cabo da Boa Esperança e entraram no Oceano Índico movidos pela procura de rotas alternativas ao comércio Mediterrânico. Chegaram à Índia em 1498, simultaneamente exploraram o Atlântico Sul e aportaram nas costas do Brasil em 1500, navegando no extremo da Ásia chegaram à China em 1513 e ao Japão em 1543. Acompanhando os Descobrimentos, iniciou-se um maciço comércio de escravos, que reduziu à escravatura milhões de seres humanos. As expedições prolongaram-se por vários reinados, desde o tempo das explorações na costa africana e americana impulsionadas pelo regente D. Pedro, duque de Coimbra e o Infante D. Henrique, filhos de D. João I, e mais o seu sobrinho o Infante D. Fernando, duque de Viseu, até ao projeto da descoberta de um caminho marítimo para a Índia no reinado de D. João II, culminando com o de D. Manuel I à altura em que o império ultramarino português fica consolidado. Antecedentes. Com a Reconquista concluída, Dinis I de Portugal interessou-se pelo comércio externo, organizando a exportação para países europeus. Em 1293 instituiu a chamada Bolsa dos Mercadores, um fundo de seguro marítimo para os comerciantes portugueses que viviam no Condado da Flandres, que pagavam determinadas quantias em função da tonelagem, que revertiam em seu benefício se necessário. Vinho e frutos secos do Algarve eram vendidos na Flandres e na Inglaterra, sal das regiões de Lisboa, Setúbal e Aveiro eram exportações rentáveis para o Norte da Europa, além de couro e Kermes, um corante escarlate. Os portugueses importavam armaduras e armas, roupas finas e diversos produtos fabricados da Flandres e da Itália. Em 1317 D. Dinis fez um acordo com o navegador e mercador genovês Manuel Pessanha (Emanuele Pessagno), nomeando-o primeiro almirante da frota real com privilégios comerciais com seu país, em troca de vinte navios e suas tripulações, com o objetivo de defender as costas do país contra ataques de pirataria (muçulmana), lançando as bases da Marinha Portuguesa e para o estabelecimento de uma comunidade mercante genovesa em Portugal. Obrigados a reduzir suas atividades no Mar Negro, os mercadores da República de Génova tinham-se voltado para o comércio norte Africano de trigo, azeite (também fonte de energia) e ouro - navegando até aos portos de Bruges (Flandres) e Inglaterra. Genoveses e florentinos estabeleceram-se então em Portugal, que lucrou com a iniciativa e experiência financeira destes rivais da República de Veneza. Na segunda metade do , surtos de peste bubónica levaram a um grave despovoamento: a economia era extremamente localizada em poucas cidades e a migração do campo levou ao abandono da agricultura e ao aumento do desemprego nas povoações. Só o mar oferecia alternativas, com a maioria da população fixada nas zonas costeiras de pesca e comércio. Entre 1325 e 1357 D. Afonso IV de Portugal concedeu o financiamento público para levantar uma frota comercial e ordenou as primeiras explorações marítimas, com apoio de genoveses, sob o comando de Manuel Pessanha. Em 1341 as ilhas Canárias, já conhecidas dos genoveses, foram oficialmente descobertas sob o patrocínio do rei Português. A sua exploração foi concedida em 1338 a mercadores estrangeiros, mas em 1344 Castela disputou-as, concedendo-as ao castelhano D. Luís de la Cerda. No ano seguinte, Afonso IV enviou uma carta ao Papa Clemente VI referindo-se às viagens dos portugueses às Canárias e protestando contra essa concessão. Nas reivindicações de posse, sucessivamente renovadas pelos dois povos, prevaleceu, no final, a vontade do rei de Castela sobre estas ilhas. Em 1353 foi assinado um tratado comercial com a Inglaterra para que os pescadores portugueses pudessem pescar nas costas inglesas, abrindo assim caminho para o futuro Tratado de Windsor em 1386. Em 1380 foi criada a Companhia das Naus, uma bolsa de seguros marítimos e, em 1387 há notícia do estabelecimento de mercadores do Algarve em Bruges. Em 1395, D. João I emitiu uma lei para regular o comércio dos mercadores estrangeiros. Há unanimidade dos historiadores em considerar a conquista de Ceuta como o início do império português. Foi uma praça conquistada com relativa facilidade, por uma expedição organizada por D. João I, em 1415. A aventura ultramarina seria iniciada pela acção do Infante D. Henrique, reconhecido internacionalmente como o seu grande impulsionador, e continuada pelo seu sobrinho e protegido Infante D. Fernando, duque de Beja e Viseu e mais tarde por D. João II e futuros reis portugueses. Motivações. Até ao , considerava-se que a única motivação do reino português para as conquistas africanas em Marrocos tinha sido de ordem religiosa e espírito de cruzada. O cronista Gomes Eanes de Zurara refere-se nesse sentido que os Infantes tinham as suas razões, os letrados as suas, mas a decisão cabia ao rei D. João I. Diz assim: “"Eu não o teria por vitória, nem o faria em boa verdade, ainda que soubesse cobrar todo o mundo por meu, se não sentisse que em alguma maneira era serviço de Deus"”. O motivo religioso, sobrepondo-se a todos os outros, foi como tal apontado, entre outros, por João de Barros, Luís de Camões, Gil Vicente. Sem falarmos no papel dos reis portugueses na Reconquista da Península Ibérica e independentemente de nos apercebermos todo um pensamento de acordo com uma época que mantinha os valores da Cavalaria medieval, que já vinha detrás, a provar está o consentimento e bênção do papado dado ao pedido D. Dinis para combater os corsários mouros e ao de D. Duarte, em 1436, nas intervenções de ocupação de território sarraceno, infiel e ímpio, junto do Norte de África. Daí as sucessivas bulas da Cruzada que se lhe seguiram e foram dirigidas ao Reino de Portugal e à portuguesa templária Ordem de Cristo. Isto para consentir e agradecer toda a intervenção nesse sentido da conquista de os territórios "nullius diocesis" (sem diocese apostólica) para aumentar o número de cristãos e o seu prestígio. Entre outras, temos a bula Apostolice Sedis emitida em 23 de Maio de 1320 pelo Papa João XXII; a "Etsis suscepti", em 1442; a "Dum diversas", em 18 de Junho de 1452, que autoriza os portugueses a conquistar territórios não cristianizados e reduzir à escravatura perpétua os mouros e pagãos e outros descrentes que capturassem, tomando posse das suas terras e bens; logo depois a "Romanus Pontifex", do Papa Nicolau V, em 8 de Janeiro de 1455, que concede aos portugueses um monopólio perpétuo no comércio com África e permite a escravidão dos nativos; e mais tarde surge a bula "Inter cætera", em 4 de Maio de 1493, pelo Papa Calisto III, que divide o mundo entre Portugal e Espanha. Mas havia também outras razões para a conquista de Ceuta, mais de um século depois resumidas pelo carmelita Frei Amador Arrais, ligando-as à acção de D. Afonso IV na Batalha do Salado - “"El-Rei Dom João o primeiro, começou a conquista de África, tomado Septa, Baluarte da Cristandade, & Chave de toda Hespanha, Porta do comércio do poente para levante". Os muçulmanos dominavam o estreito de Gibraltar e eram poderosos em Granada. Pela sua posição geográfica, Ceuta era uma base naval que podia servir de apoio à navegação entre a península itálica e Portugal, permitindo também reprimir ou tolher a pirataria dos mouros nas costas do Atlântico. No , houve historiadores que julgaram o passado com as preocupações do presente, considerando a primazia do interesse económico: procurar acesso directo a fontes de fornecimento de trigo, de ouro ou de escravos no norte de África. Mas houve também historiadores, como David Lopes, rebatendo essa tese: "Ainda que Ceuta tivesse importância como centro de comércio, a sua conquista por cristãos desviaria dela o tráfico muçulmano"". As conquistas de Marrocos, porém, sob o impulso do Infante D. Henrique, vieram a dar lugar aos descobrimentos. Segundo Gomes Eanes de Zurara, na "Crónica do descobrimento e conquista da Guiné" (Capítulo VII), as expedições organizadas pelo Infante tinham cinco motivações: Se, com o Infante, ao avançar pela costa de África na direcção do sul, parece haver sobretudo a intenção de envolver pela retaguarda o grande poderio islâmico, adversário da Cristandade (uma estratégia militar e diplomática tributária do espírito das Cruzadas), a crescente intervenção dos "cavaleiros-mercadores" (Magalhães Godinho) nos reinados de D. Afonso V e D. João II, acabará por levar a expansão portuguesa até ao Oriente em busca das especiarias. Em 1453, com a tomada de Constantinopla pelos Otomanos, as trocas comerciais no Mediterrâneo de Veneza e de Génova ficaram muito reduzidas. O proveito de uma rota comercial alternativa mostrava-se recompensador. Portugal iria ligar directamente as regiões produtoras das especiarias aos seus mercados na Europa. Quando se firma o projecto da descoberta do caminho marítimo para a Índia, a expansão portuguesa, sem esquecer a vertente religiosa, está também já dominada pelo interesse comercial. Primeiras expedições no Atlântico. A conquista de Ceuta em 1415 é geralmente referida como o início do império português. Nela participaram os infantes D. Duarte, D. Pedro e o Infante D. Henrique que a partir de então dirige as primeiras expedições no Atlântico, através da Ordem de Cristo e do seu próprio património pessoal. As primeiras navegações estão associadas à sua figura a partir da base que estabeleceu em Lagos e em Sagres, onde o acompanhavam um grupo de cartógrafos, astrónomos e pilotos. Além dos interesses materiais, o príncipe ambicionava estabelecer uma aliança com o Preste João, um príncipe cristão que governava as terras da Etiópia. Graças a essa aliança, pensava-se recomeçar as Cruzadas, expulsar os muçulmanos da Terra Santa. Por trás deste movimento, como dirigente governativo, estava o seu irmão Infante D. Pedro, 1.° duque de Coimbra assim como um grupo vasto de religiosos cristão e judeus, mercadores e armadores profissionais, interessados e participantes nas navegações, responsáveis por uma série importante de iniciativas a que o "Infante" aderiu. Entre eles o seu aventureiro sobrinho navegador, Infante D. Fernando, duque de Beja, pai de D. Manuel I, que deu toda a continuidade a esses intentos. As ilhas do Porto Santo e da Madeira. Em 1418, ainda no reinado de D. João I, e sob comando do Infante D. Henrique dá-se o redescobrimento da ilha de Porto Santo por João Gonçalves Zarco e mais tarde da ilha da Madeira por Tristão Vaz Teixeira. Trata-se de um redescobrimento pois já havia conhecimento da existência dessas ilhas no , segundo revela a cartografia da mesma época, principalmente em mapas italianos e catalães. Eram ilhas desabitadas que, pelo seu clima, ofereciam possibilidades de povoamento aos Portugueses e reuniam condições para a exploração agrícola. Os arquipélagos da Madeira e das Canárias despertaram, desde cedo, o interesse tanto dos Portugueses como dos Castelhanos; por serem vizinhos da costa africana, representavam fortes potencialidades económicas e estratégicas. As primeiras incursões portuguesas (em cerca do ano de 1420) em busca de escravos deram-se nas Ilhas Canárias, já habitadas por um povo de origem berbere, os guanches. que oposeram uma feroz resistência. A disputa destes territórios deu origem ao primeiro conflito ibérico motivado por razões expansionistas que só terminou com a assinatura do Tratado das Alcáçovas-Toledo em 1479. Os Açores. Em 1427, dão-se os primeiros contactos com o arquipélago dos Açores por Diogo de Silves. Ainda nesse ano é descoberto o grupo oriental dos Açores, São Miguel e Santa Maria. Segue-se o descobrimento do grupo central -Terceira, Graciosa, São Jorge, Pico e Faial). Em 1452, o grupo ocidental (Flores e Corvo) é descoberto por Diogo de Teive. A costa ocidental de África. Em 1434, Gil Eanes contornou o Cabo Bojador, dissipando o terror que este promontório inspirava. No ano seguinte, navegando com Afonso Gonçalves Baldaia descobriram Angra de Ruivos e este último chegou ao Rio de Ouro, no Saara Ocidental. Entretanto, após a derrota portuguesa de Tânger em 1437, os portugueses adiaram o projecto de conquistar o Norte de África. Já na regência de D. Afonso V, em 1441 Antão Gonçalves foi incumbido de descobrir o Rio de Oro. Fez os primeiros cativos africanos: um homem de cor parda a que os portugueses chamavam de azenegues e uma moura negra. No mesmo ano, Nuno Tristão chegou ao Cabo Branco. Juntamente com Antão Gonçalves fizeram incursões ao referido Rio do Ouro, de onde foi obtido ouro em pó e alguns escravos, a primeira grande captura. Os raides para obtenção de escravos na África Subsaariana começaram nas décadas de 1430 e 1440 mas este período foi de curta duração. Os portugueses transitaram rapidamente para uma rede de comércio com vários líderes africanos e os traficantes árabes, que desde o século VII traficavam escravos em África. Em 1444 foi introduzida a venda de africanos negros em Lagos. O cronista Gomes Eanes de Zurara, descreveu a cena num dos seus livros: famílias separadas, crianças tiradas ás mães, homens separados das suas mulheres. Mas o seu sofrimento foi retratado como nada em comparação com a alegria da sua conversão ao cristianismo, porque as suas almas estavam a caminho da salvação. A partir de então ficou generalizada a convicção de que essa área da costa africana poderia, independentemente de novos avanços, sustentar uma actividade comercial capaz de responder às necessidades de numerário que, em Portugal, como em toda a Europa, se fazia sentir. Em 1456, Diogo Gomes descobre Cabo Verde e segue-se o povoamento das ilhas ainda no . O povoamento de Cabo Verde prolongou-se até ao e foi realizado com escravos negros trazidos da Guiné para a cultura do algodão. Em 1455 é emitida a bula Romanus Pontifex do Papa Nicolau V confirmando as explorações portuguesas e declarando que todas as terras e mares descobertos a sul do Bojador e do cabo são pertença dos reis de Portugal, que poderá cobrar impostos sobre a navegação e comércio. No ano seguinte chegava a Bristol o primeiro carregamento de açúcar provindo da ilha da Madeira. Em 1460, Pêro de Sintra atinge a Serra Leoa. Descobrimentos pós-Henriquinos. Em 1460 faleceu o Infante D. Henrique. Após a sua morte, a missão é atribuída temporariamente ao seu sobrinho, o Infante D. Fernando (filho de D. Duarte), já aqui referido. Em 1469, Afonso V, Rei de Portugal dadas as poucas receitas da exploração, concedeu o monopólio do comércio no Golfo da Guiné ao mercador de Lisboa Fernão Gomes, contra uma renda anual de 200 000 réis. Segundo João de Barros, ficava aquele "«honrado cidadão de Lisboa»" com a obrigação de continuar as explorações, pois o exclusivo era garantido com "«condição que em cada um destes cinco anos fosse obrigado a descobrir pela costa em diante cem léguas, de maneira que ao cabo do seu arrendamento desse quinhentas léguas descobertas»"». Este avanço, do qual não há grandes pormenores, teria começado a partir da Serra Leoa, onde haviam já chegado Pedro de Sintra e Soeiro da Costa. Com a colaboração de navegadores como João de Santarém, Pedro Escobar, Lopo Gonçalves, Fernão do Pó e Pedro de Sintra, Fernão Gomes fê-lo mesmo para além do contratado. Com o seu patrocínio, os portugueses chegaram ao Cabo de Santa Catarina, já no Hemisfério Sul. João de Santarém e Pêro Escobar exploraram a costa setentrional do Golfo da Guiné, atingindo a «minha de ouro» de Sama (actualmente Sama Bay), a costa da Mina, a de Benin, a do Calabar e a do Gabão e as ilhas de São Tomé e Príncipe e de Ano Bom. Quando as expedições chegaram a Elmina na Costa do Ouro, em 1471, encontraram um florescente comércio de ouro. Seguiram-se outros navegadores como Soeiro da Costa (que deu nome ao rio Soeiro), Fernão do Pó (que descobriu a ilha Formosa (em África), que ficou conhecida posteriormente pelo seu nome), João Vaz Corte-Real, que em 1472 descobriu a Terra Nova, e em 1473 Lopo Gonçalves (cujo nome se transmitiu ao "Cabo Lopo Gonçalves", hoje conhecido por Cabo Lopez) ultrapassou o Equador. Em 1474, D. Afonso V entregou ao seu filho, o príncipe D. João, futuro D. João II, com apenas dezanove anos, a organização das explorações por terras africanas. Mais tarde, em 1481, o rei confirmou a missão do príncipe em novo diploma: «"…sabemos certo que ele dá, per si, e per seus oficiais, mui boa ordem à navegação destes trautos e os governa mui bem."». Assim que lhe foi entregue a política de expansão ultramarina, D. João organizou a primeira viagem de Diogo Cão. Este fez o reconhecimento de toda a costa até à região do Padrão de Santo Agostinho. Em 1485, Diogo Cão levou a cabo uma segunda viagem até à Serra Parda. Há notícias de carregamentos de açúcar da Madeira serem entregues em Ruão (1473) e Dieppe (1479). Em 1479, buscando proteger o investimento resultante das descobertas, Portugal negociou com Castela o Tratado das Alcáçovas-Toledo, estabelecendo a paz e concertando a política externa Atlântica dos dois reinos rivais: Portugal obtinha o reconhecimento do seu domínio sobre a ilha da Madeira, o Arquipélago dos Açores, o de Cabo Verde e a costa da Guiné, enquanto que Castela recebia as ilhas Canárias, renunciando a navegar ao Sul do cabo Bojador, ou seja, do Paralelo 27 no qual se encontravam. O tratado dividia as terras descobertas e a descobrir por um paralelo na altura das Canárias, dividindo o mundo em dois hemisférios: a norte, para a Coroa de Castela; e a sul, para a Coroa de Portugal. Preservavam-se, desse modo, os interesses de ambas as Coroas, definindo-se, a partir de então, os dois ciclos da expansão: o chamado ciclo oriental, pelo qual a Coroa portuguesa garantia o seu progresso para o sul e o Oriente, contornando a costa africana (o chamado "périplo africano"); e o que se denominou posteriormente de ciclo ocidental, pelo qual Castela se aventurou no oceano Atlântico, para oeste até ao Novo Mundo. Em 1482 dá-se a construção da Fortaleza de São Jorge da Mina e, no ano seguinte, Diogo Cão chega ao rio Zaire. A Fortaleza de São Jorge da Mina e a cidade foram construídos em 1482 em redor da indústria do ouro. Com os lucros deste comércio, Fernão Gomes auxiliou o monarca na conquista de Arzila, Alcácer Ceguer e Tânger. Além da aquisição do ouro e malagueta, o comércio esclavagista oferecia boas perspectivas de lucro. Nesse período de exploração mercantil da costa ocidental africana, precedido pelo antigo tráfego de escravos capturados nas Canárias (por Castelhanos, Franceses, Italianos e Portugueses), cada vez mais difícil aos Portugueses. Igualmente difícil era adquirir mouros em Marrocos. Trocavam-se escravos por panos e outros artigos. Sem lutas, eram os próprios mercadores mouros ou os próprios negros que ali vendiam escravos aos Portugueses — que, por seu turno, os vendiam a outros europeus. Com as visitas anuais à Guiné e Mina para carregar escravos e ouro, trocados por tecido e trigo, adquiridos na Madeira ou no estrangeiro, subia o valor da moeda portuguesa. Em Lagos passou a funcionar um depósito de escravos e produtos da Guiné e Mina, conhecido como "Casa da Guiné" e, depois da sua transferência para Lisboa, em 1482, por "Casa da Guiné e da Mina". Esta seria a instituição predecessora da "Casa da Índia". Em 1486 é fundada uma feitoria na Nigéria.[] A ligação do Atlântico com o Índico. Em 1487, D. João II envia Afonso de Paiva e Pêro da Covilhã em busca do Preste João e de informações sobre a navegação e comércio no Oceano Índico. Nesse mesmo ano, Bartolomeu Dias, comandando uma expedição com três Caravelas, atinge o Cabo da Boa Esperança. Estabelecia-se assim a ligação náutica entre o Atlântico e o Oceano Índico. O projecto para o caminho marítimo para a Índia foi delineado por D. João II como medida de redução dos custos nas trocas comerciais com a Ásia e tentativa de monopolizar o comércio das especiarias. A juntar à cada vez mais sólida presença marítima portuguesa, D. João almejava o domínio das rotas comerciais e expansão do reino de Portugal que já se transformava em Império Porém, o empreendimento não seria realizado durante o seu reinado. Seria o seu sucessor, D. Manuel I que iria designar Vasco da Gama para esta expedição, embora mantendo o plano original. Porém, este empreendimento não era bem visto pelas altas classes. Nas Cortes de Montemor-o-Novo de 1495 era bem patente a opinião contrária quanto à viagem que D. João II tão esforçadamente havia preparado. Contentavam-se com o comércio da Guiné e do Norte de África e temia-se pela manutenção dos eventuais territórios além-mar, pelo custo implicado na expedição e manutenção das rotas marítimas que daí adviessem. Esta posição é personificada na personagem do Velho do Restelo que aparece, n'Os Lusíadas de Luís Vaz de Camões, a opor-se ao embarque da armada. Em 1492, Abraão Zacuto é expulso da Espanha por ser judeu, vindo viver para Portugal, trazendo consigo as tábuas astronómicas que ajudariam os navegadores portugueses no mar. Tratado de Tordesilhas e o domínio do Atlântico Sul. Face à chegada de Cristóvão Colombo à América no mesmo ano 1492, segue-se a promulgação de três bulas papais - as Bulas Alexandrinas - que concediam a Espanha o domínio dessas terras. Cientes da descoberta de Colombo, os cosmógrafos portugueses argumentaram que a descoberta se encontrava em terras portuguesas. D. João II consegue uma renegociação, mas só entre os dois Estados, sem a intervenção do Papa, propondo estabelecer um paralelo das Ilhas Canárias. Os castelhanos recusaram a proposta inicial, mas prestaram-se a discutir o caso. Reuniram-se então os diplomatas em Tordesillas. Como resultado das negociações, foi assinado em 7 de Junho de 1494 o Tratado de Tordesilhas entre Portugal e Castela. Este tratado estabelecia a divisão do Mundo em duas áreas de exploração: a portuguesa e a castelhana, cabendo a Portugal as terras "descobertas e por descobrir" situadas antes da linha imaginária que demarcava 370 léguas ( km) a oeste das ilhas de Cabo Verde, e à Espanha as terras que ficassem além dessa linha. Em princípio, o tratado resolvia os conflitos que seguiram à descoberta do Novo Mundo por Cristóvão Colombo e garantia a Portugal o domínio das águas do Atlântico Sul, essencial para a manobra náutica então conhecida como "volta do mar", empregada para evitar as correntes marítimas que empurravam para norte as embarcações que navegassem junto à costa sudoeste africana, permitindo a ultrapassagem do cabo da Boa Esperança. A chegada à Índia. Nos anos que se seguiram à assinatura do Tratado de Tordesilhas (1494) Portugal prosseguiu no seu projecto de alcançar a Índia, o que foi finalmente alcançado pela frota de Vasco da Gama, na sua primeira viagem de 1497-1499. Mantendo o plano de D. João II, o rei D. Manuel I mandou aparelhar as naus e escolheu Vasco da Gama, cavaleiro da sua casa, para capitão desta armada. Segundo o plano original, D. João II teria designado seu pai, Estêvão da Gama, para chefiar a armada; mas a esta altura já ambos tinham falecido. A 8 de Junho de 1497 iniciou-se a expedição semi-planetária que terminaria dois anos depois com a entrada da nau Bérrio pelo rio Tejo adentro, trazendo a boa-nova. Neste dia parte do Restelo a armada chefiada por Vasco da Gama. Tratava-se de uma expedição comportando três embarcações. É a partir da viagem de Vasco da Gama que se introduzem as naus. A 20 de Maio de 1498 Vasco da Gama chega a Calecute. Estabelecia-se assim o caminho marítimo para a Índia. Chegada ao Brasil. Em 1499, após o retorno de Vasco da Gama, Pedro Álvares Cabral foi nomeado capitão-mor da armada que se dirigiria à Índia. A sua missão era a de estabelecer relações diplomáticas e comerciais com o Samorim, promovendo a imagem de Portugal e instalando um entreposto comercial ou feitoria, retornando com o máximo de mercadorias. A sua foi a mais bem equipada armada do , integrada por dez naus e três caravelas, transportando de a homens, entre funcionários, soldados e religiosos. Era integrada por navegadores experientes, como Bartolomeu Dias e Nicolau Coelho, tendo partido de Lisboa a 9 de março de 1500, após missa solene na ermida do Restelo, à qual compareceu o Rei e toda a Corte. Mas Pedro Álvares Cabral, por alturas de Cabo Verde, desvia-se da rota. Tendo-se afastado da costa africana, a 22 de abril de 1500, após quarenta e três dias de viagem, avistou o Monte Pascoal no litoral sul da Bahia. No dia seguinte, houve o contato inicial com os indígenas. A 24 de abril, seguiu ao longo do litoral para o norte em busca de abrigo, fundeando na atual baía de Santa Cruz Cabrália, nos arredores de Porto Seguro, onde permaneceu até 2 de maio. Cabral tomou posse, em nome da Coroa portuguesa, da nova terra, a qual denominou de "Ilha de Vera Cruz" (mais tarde "Terra de Santa Cruz" e finalmente Brasil - face à abundante existência de madeira pau-brasil), e enviou uma das embarcações menores com a notícia, inclusive a Carta de Pero Vaz de Caminha, de volta ao reino. Retomou então a rota de Vasco da Gama rumo às Índias. Ao cruzar o cabo da Boa Esperança, perderam-se quatro dos navios, entre os quais o de Bartolomeu Dias, navegador que o descobrira em 1488. Diogo Dias contava entre os navegadores experientes da frota de Pedro Álvares Cabral na segunda armada à Índia. É citado na Carta do Achamento do Brasil de Caminha como «homem gracioso e de prazer». A 10 de agosto de 1500, após ter dobrado o cabo da Boa Esperança, separou-se do resto da expedição devido aos ventos, e descobriu uma ilha a que deu o nome de São Lourenço, mais tarde designada Madagáscar. Sua embarcação se perdeu durante a tormenta, e acabou sendo o primeiro capitão português a viajar pelo mar Vermelho. Incapaz de prosseguir rumo à Índia, retornou a Portugal, onde chegou com apenas sete homens. A armada de Pedro Álvares Cabral chega a Calecute em 1501, onde ocorrem confrontos com o Samorim, com o qual acaba por romper relações. Assim, dirige-se para Sul e estabelece uma feitoria em Cochim. No Brasil, há quem o interprete como ato invasivo, por reconhecer a existência de povos indígenas que já habitavam o território séculos antes da chegada dos portugueses. O "Livro de Marinharia" de João de Lisboa. Acerca da importância deste livro de marinharia diz Francisco Adolfo de Varnhagen: O Livro de Marinharia de João de Lisboa (c.1470-1525) tem 1514 como única data inscrita pelo autor, e apresenta um notável globo terrestre, em representação polar, cuja execução coloca em causa todo o conhecimento marítimo à época da sua morte. Nesse mapa, para além de contornos muito precisos de toda a América, nomeadamente do Estreito de Magalhães, incluem-se menções explícitas ao Japão e à Nova Guiné. Acresce um mapa da América Central e Peru que torna evidente a presença de castelos portugueses na área de influência inca, territórios que depois seriam ocupados pelos espanhóis, de acordo com a divisão de Tordesilhas. Chegada às Molucas, China e ao Japão. Em 1510 Afonso de Albuquerque conquistou Goa, na Índia e pouco depois, em 1511, Malaca, na Malásia. Simultaneamente investiu esforços diplomáticos com os mercadores do sudeste asiático, como os chineses, na esperança de que estes fizessem eco das boas relações com os portugueses. Conhecendo as ambições siamesas sobre Malaca, imediatamente enviou Duarte Fernandes em missão diplomática ao Reino do Sião (actual Tailândia), onde foi o primeiro europeu a chegar viajando num junco chinês que retornava à China, estabelecendo relações amigáveis entre os reinos de Portugal e do Sião. Ainda em Novembro desse ano, ao tomar conhecimento da localização secreta das chamadas "Ilhas das Especiarias", ordenou a partida dos primeiros navios portugueses para o sudeste asiático, comandado pelo seu homens de confiança António de Abreu e por Francisco Serrão, guiados por pilotos malaios. Estes são os primeiros europeus a chegar às Ilhas Banda nas Molucas. A nau de Serrão encalhou próximo a Ceram e o sultão de Ternate, Abu Lais, entrevendo uma oportunidade de aliar-se com uma poderosa nação estrangeira, trouxe os tripulantes para Ternate em 1512. A partir de então os portugueses foram autorizados a erguer uma fortificação-feitoria na ilha, na passagem para o oceano Pacífico: o Forte de São João Baptista de Ternate. Em 1513, partindo de Malaca (actual Malásia) Jorge Álvares atinge o Sul da China. A esta visita seguiu-se o estabelecimento de algumas feitorias portuguesas na província de Cantão, onde mais tarde se viria a estabelecer o entreposto de Macau. De acordo com os registos disponíveis, foi o primeiro europeu a alcançar e visitar o território que actualmente é Hong Kong. Em 1543, Francisco Zeimoto, António da Mota e António Peixoto são os primeiros portugueses a atingir o Japão. Terão aportado ao Japão a 23 de Setembro, tendo sido este primeiro contacto de europeus com o Japão, relatado pelo cronista Fernão Mendes Pinto. Segundo este, a ilha de Tanegashima teria sido o primeiro lugar visitado pelos portugueses, que espantaram os autóctones não só com o relato de terras e costumes que tinham visto como com a novidade das armas de fogo, visto que o conhecimento da pirobalística ainda não tinha chegado ao Japão. A chegada dos portugueses deu origem ao período de comércio Nanban (os portugueses eram designados por Nanban-jin, denominação que significa «bárbaros do sul»), durante o qual uma intensa interação com os poderes europeus ocorreu tanto a nível econômico como religioso. Estados atuais. Os descobrimentos Portugueses marcaram a primeira presença dos europeus, chegando pelos Oceanos, entre os primórdios do e a primeira metade do , em muitos dos actuais países. Os portugueses foram os pioneiros nos seguintes países: As Filipinas, as possessões Marianas Setentrionais (EUA) e a Polinésia Francesa (FRA) foram descobertas por um português a serviço da Espanha, Fernão de Magalhães, durante a sua viagem de circum-navegação. Ciência náutica portuguesa. As sucessivas navegações e a experiência acumulada dos pilotos levaram a uma evolução bastante rápida da ciência náutica portuguesa, tendo a investigação criado uma elite de astrónomos, navegadores, matemáticos e cartógrafos, entre os quais se destacaram Pedro Nunes com os estudos sobre a forma de determinar as latitudes por meio dos astros e D. João de Castro. Até ao os portugueses praticavam a navegação de cabotagem utilizando a barca e o barinel, embarcações pequenas e frágeis de um mastro com vela quadrangular fixa, usadas nas primeiras viagens às ilhas Canárias, Madeira e Açores, e no litoral africano até Arguim, na actual Mauritânia. Mas que não conseguiam dar resposta às dificuldades no avanço para Sul, como os baixios, os ventos fortes e as correntes marítimas desfavoráveis, sendo substituídas pelas caravelas. A caravela foi o navio que marcou os descobrimentos portugueses, resultando do aperfeiçoamento de embarcações já usadas na faina da pesca. Era e ágil e de navegação mais fácil, com uma tonelagem entre 50 a 160 toneladas e 1 a 3 mastros com velas latinas triangulares que permitiam bolinar. A pouca capacidade de carga e tripulação eram os seus principais inconvenientes, mas que não obstaram ao seu sucesso. Entre as caravelas famosas estão a Bérrio e a Caravela Anunciação. Com a passagem das navegações costeiras às oceânicas também as naus se desenvolveram de forma assinalável em Portugal. "Nau" era o sinónimo arcaico de navio de grande porte, destinado essencialmente a transportar mercadorias. Devido à pirataria que assolava a costa, passaram a ser utilizadas na marinha de guerra. Foram introduzidas as bocas-de-fogo, que levaram à classificação das naus segundo o poder de artilharia. À medida que se foi desenvolvendo o comércio marítimo, foram sendo modificadas as suas características. A capacidade aumentou das duzentas toneladas no até às quinhentas. As naus eram imponentes e tinham, em geral, duas cobertas, castelos de proa e de popa, dois a quatro mastros e velas sobrepostas. Na carreira da Índia no foram também usadas as carracas, naus de velas redondas e borda alta com três mastros que atingiam toneladas. No era já conhecida a navegação astronómica através da posição solar. Para a navegação astronómica os portugueses, como outros europeus, recorriam a instrumentos de navegação árabes, como o astrolábio e o quadrante, que aligeiraram e simplificaram. Inventaram outros, como a balestilha, para obter no mar a altura do sol e outros astros, como o Cruzeiro do Sul descoberto após a chegada ao hemisfério Sul por João de Santarém e Pêro Escobar em 1471, que iniciaram a navegação guiada por esta constelação. Mas os resultados variavam conforme longo do ano, o que obrigava a correcções. Para isso os portugueses utilizaram tabelas de inclinação do Sol, as Tábuas astronómicas, preciosos instrumentos de navegação em alto-mar, que conheceram uma notável difusão no . Quando se introduziram na náutica as observações astronómicas que a revolucionaram, em particular a observação de altura meridiana do Sol para com o conhecimento da declinação solar, se poder calcular a latitude do lugar, recorreu-se às tábuas "Almanach Perpetuum", do astrónomo Abraão Zacuto, publicadas em Leiria em 1496, que foram utilizadas, juntamente com o seu astrolábio melhorado, por Vasco da Gama e Pedro Álvares Cabral. Além da exploração do litoral foram feitas também viagens para o mar largo em busca de informações meteorológicas e oceanográficas (foi nestes trajectos que se descobriram os arquipélagos da Madeira e dos Açores, o Mar dos Sargaços). O conhecimento do regime de ventos e correntes do Atlântico e a determinação da latitude por observações astronómicas a bordo, permitiu a descoberta da melhor rota oceânica de regresso de África: cruzando o Atlântico Central até à latitude dos Açores, aproveitando os ventos e correntes permanentes favoráveis, que giram no sentido dos ponteiros do relógio no hemisfério norte devido à circulação atmosférica e ao efeito de Coriolis, facilitando o rumo directo para Lisboa e possibilitando assim que os portugueses se aventurassem cada vez para mais longe da costa, manobra que ficou conhecida como "volta da Mina", ou "Volta do mar". Pensa-se que Jehuda Cresques, filho do cartógrafo catalão Abraão Cresques terá sido um dos notáveis cartógrafos ao serviço do Infante D. Henrique. Contudo a mais antiga carta de marear portuguesa assinada é um portulano de Pedro Reinel de 1485 representando a Europa Ocidental e parte de África, que reflecte as explorações efectuadas pelo navegador Diogo Cão ao longo da costa africana. Reinel foi também autor da primeira carta náutica conhecida com uma indicação de latitudes em 1504 bem como da primeira representação da rosa-dos-ventos. Com o seu filho, Jorge Reinel e o cartógrafo Lopo Homem, participou na elaboração do atlas conhecido por "Atlas de Lopo Homem-Reinés" ou "Atlas de Miller", de 1519. Foram considerados dos melhores cartógrafos do seu tempo, a ponto do imperador Carlos V os desejar a trabalhar para si. Em 1517, o rei D. Manuel I de Portugal passou a Lopo Homem, cartógrafo e cosmógrafo português, um alvará que lhe dava o privilégio de fazer e emendar todas as agulhas (bússolas) dos navios. Na terceira fase da antiga cartografia náutica portuguesa, caracterizada pelo abandono da influência de Ptolemeu na representação do Oriente e por uma melhor precisão na representação das terras e continentes, destaca-se Fernão Vaz Dourado (Goa ~1520 — ~ 1580), cuja obra apresenta extraordinária qualidade e beleza, conferindo-lhe a reputação de um dos melhores cartógrafos de seu tempo. Ligações externas. [[Categoria:Descobrimentos portugueses| ]] [[Categoria:Império Português]] [[Categoria:Século XV em Portugal]] [[Categoria:Século XVI em Portugal]] [[Categoria:1418 em Portugal]] [[Categoria:História de Portugal por período]]
730
D. João I
D. João I
731
Sancho I de Portugal
Sancho I de Portugal Sancho I (Coimbra, — Santarém, ), apelidado de "o Povoador", foi o segundo Rei de Portugal de 1185 até sua morte. Era filho do rei Afonso Henriques e sua esposa Mafalda de Saboia. Promoveu e apadrinhou o povoamento dos territórios do país, destacando-se a fundação da cidade da Guarda, em 1199, e a atribuição de cartas de foral na Beira e em Trás-os-Montes: Gouveia (1186), Covilhã (1186), Viseu (1187), Bragança (1187), São Vicente da Beira (1195) e Belmonte (1199), povoando assim áreas remotas do reino, em particular com imigrantes da Flandres e da Borgonha. Vida. Quinto filho do monarca Afonso Henriques, foi batizado com o nome de Martinho, por haver nascido no dia do santo Martinho de Tours, e não estaria preparado para reinar; no entanto, a morte do seu irmão mais velho, D. Henrique, quando Martinho contava apenas três anos de idade, levou à alteração da sua onomástica para um nome mais hispânico, ficando desde então Sancho Afonso. A regência do reino, em conjunto com a irmã. Em 15 de agosto de 1170 Sancho foi armado cavaleiro pelo seu pai logo após o acidente de D. Afonso Henriques em Badajoz, que teria ficado gravemente afetado em resultado de uma ferida numa perna. É nesta altura instaurado um conselho de regência para governar em nome do rei incapacitado. A regência ficou a cargo dos filhos do rei que ainda se encontravam, àquela data, no reino: Sancho e a sua irmã Teresa (que surge com este papel a partir de 1173). Também surge com bastante frequência na documentação desta altura, com eles, um bastardo, que adquiria aqui um estatuto equivalente ao de infante legítimo:Fernando Afonso. Apesar de ser Sancho a cabeça da regência, várias confirmações deste ainda em vida de Afonso Henriques denunciam a presença forte deste bastardo e o desejo, por parte da nobreza de corte, de inutilizar Fernando e consolidar a regência de Sancho. Em setembro de 1172 Fernando passa a servir o regente, segundo uma doação a Monsanto nessa data, na qual Afonso I sugere pela primeira vez uma sucessão por via feminina na irmã, Teresa, caso Sancho não tivesse descendência. A partir de 1173, Afonso parece concretizar esta possibilidade ao entregar parte das funções da regência de Sancho a Teresa, declarando-os co-herdeiros e com casa própria. Teresa aparece constantemente na documentação desde esta data, chegando a fazer doações sozinha. Nestes primeiros tempos de Portugal enquanto país independente, muitos eram os inimigos da coroa, a começar pelo Reino de Leão que havia controlado Portugal até então. Para além do mais, a Igreja demorava em consagrar a independência de Portugal com a sua bênção. Para compensar estas falhas, Portugal procurou aliados dentro da Península Ibérica, em particular o reino de Aragão, um inimigo tradicional de Castela, que se tornou no primeiro país a reconhecer Portugal. O acordo foi firmado 1174 pelo casamento de Sancho, então príncipe herdeiro, com a infanta Dulce, irmã mais nova do rei . Também a partir de 1174, Afonso afasta-se definitivamente dos assuntos do reino, muito provavelmente por doença, sobressaindo ainda mais a partir desta altura o papel dos corregentes. Teresa e Sancho partilhavam o governoː Teresa desempenhava funções administrativas e Sancho encarregava-se da atividade bélica. E é esta atividade de "rainha" que a infanta filha de Afonso Henriques desempenhava quando chegaram a Portugal os emissários de Filipe, Conde da Flandres, para obter de Sancho o consentimento para o casamento da irmã com um dos mais importantes nobres franceses. O seu casamento com qualquer príncipe peninsular poderia significar a perda da independência de Portugal, mas mesmo para esta proposta vinda de fora do ambiente peninsular fez acordo com Sancho para o deixar como único sucessor. No ano de 1178, Sancho faz uma importante expedição contra mouros, confrontando-os perto de Sevilha e do rio Guadalquivir, e ganha-lhes a batalha. Com essa ação, expulsa assim a possibilidade deles entrarem em território português. Rei de Portugal. Com a morte de Afonso Henriques em 1185, Sancho I torna-se no segundo rei de Portugal. Tendo sido coroado na Sé de Coimbra, manteve essa cidade como o centro do seu reino. D. Sancho deu por finda as guerras fronteiriças pela posse da Galiza e dedicou-se a guerrear os mouros localizados a Sul. Aproveitou a passagem pelo porto de Lisboa dos cruzados da terceira cruzada, na primavera de 1189, para conquistar Silves, um importante centro administrativo e económico do Sul, com população estimada em 20 mil pessoas. Sancho ordenou a fortificação da cidade e construção do castelo que ainda hoje pode ser admirado. A posse de Silves foi efémera já que em 1190 Iacube Almançor cercou a cidade de Silves com um exército e com outro atacou Torres Novas, que apenas conseguiu resistir durante dez dias, devido ao rei de Leão e Castela ameaçar de novo o Norte. Sancho I dedicou muito do seu esforço governativo à organização política, administrativa e económica do seu reino. Acumulou um tesouro real e incentivou a criação de indústrias, bem como a classe média de comerciantes e mercadores. Sancho I concedeu várias cartas de foral principalmente na Beira e em Trás-os-Montes: Gouveia (1186), Covilhã (1186), Viseu (1187), Bragança (1187), São Vicente da Beira (1195), Guarda (1199), etc., criando assim novas cidades, e povoando áreas remotas do reino, em particular com imigrantes da Flandres e Borgonha. O rei é também lembrado pelo seu gosto pelas artes e literatura, tendo deixado ele próprio vários volumes com poemas. Neste reinado sabe-se que alguns portugueses frequentaram universidades estrangeiras e que um grupo de juristas conhecia o Direito que se ministrava na escola de Bolonha. Em 1192 concedeu ao mosteiro de Santa Cruz 400 morabitinos para que se mantivessem em França os monges que lá quisessem estudar. Outorgou o seu primeiro testamento em 1188/89 no qual doou a sua esposa os rendimentos de Alenquer, terras do Vouga, Santa Maria da Feira e do Porto. Seu último testamento foi feito em outubro de 1209 quase dois anos antes de sua morte. O seu túmulo encontra-se no Mosteiro de Santa Cruz, em Coimbra, ao lado do túmulo do pai. Este testamento de 1209 viria a provocar um conflito num Portugal que já à sua morte atravessava um período de turbulência. Sancho deixara às filhas Mafalda, Teresa e Santa Sancha de Portugal, sob o título de rainhas, a posse de alguns castelos no centro do país — Montemor-o-Velho, Seia e Alenquer —, com as respectivas vilas, termos, alcaidarias e rendimentos). O seu filho e sucessor, Afonso II, recusando cumprir o testamento pois ia contra a sua política inovadora de centralização régia, acaba por ver arrastar este problema ao longo do seu reinado, marcado também por disputas nobiliárquicas entre fações que apoiavam ora o rei ora as infantas. É nesta altura que também sairão os seus filhos Fernando e Berengária para irem ao encontro da tia, Teresa, na Flandres. Títulos, estilos, e honrarias. Títulos e estilos. O primeiro estilo oficial de D. Sancho I enquanto Rei de Portugal: Com a Tomada de Silves, em 1189, a titulatura régia evolui para: Quando os Almóadas retomam Silves, em 1191, D. Sancho volta a usar o seu estilo oficial original. Descendência. De sua mulher a infanta Dulce de Aragão, filha da rainha Petronila de Aragão e , conde de Barcelona, com quem casou em 1174: Filhos naturais: O rei teve dois filhos com Maria Aires de Fornelos, primeira mulher de Gil Vasques de Soverosa, filha de Aires Nunes de Fornelos e de Maior Pais de Bravães e neta de Soeiro Mendes da Maia "o Bom". Em abril de 1207, D. Sancho fez doação perpétua da Vila Nova dos Infantes e de Golães para os filhos que tive com Maria com a faculdade de os vender a quem quisessem. Em 1175, Maria com seu esposo Gil Vasques de Soverosa, e seus filhos Martim e Urraca, doou umas casas a seus parentes Marina Pais e Vasco Pires. Havidos de Maria Pais Ribeira, dita "a Ribeirinha", filha de Paio Moniz de Ribeira e de Urraca Nunes de Bragança, filha de Vasco Pires de Bragança. Havido de Maria Moniz de Ribeira, filha de Monio Osórez de Cabrera, conde de Cabrera e Ribera no Reino de Leão, e de Maria Nunes de Grijó, filha de Nuno Soares de Grijó e de Elvira Gomes: Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Sancho I de PortugalCasa de Borgonha11 de novembro de 1154 – 26 de março de 1211
732
Afonso II de Portugal
Afonso II de Portugal Afonso II (Coimbra, – Coimbra, ), apelidado de "o Gordo", foi o terceiro Rei de Portugal de 1211 até sua morte. Era filho do rei Sancho I e sua esposa Dulce de Aragão. Vida. Afonso foi o primeiro filho de Sancho I e de Dulce de Aragão. Teve três irmãs nascidas antes dele, sendo o quarto a nascer. Foi o terceiro rei de Portugal, nasceu no mesmo ano em que o avô Afonso Henriques morreu. Teve uma vida curta, morreu aos 37 anos de doença. No seu reinado preocupou-se mais em centralizar o poder real do que na conquista aos mouros. Casou-se em 1208 com Urraca de Castela, uma prima sua, descendente de Afonso VI de Leão, sendo este o trisavô de Afonso II. Este casamento ia contra a lei canónica, pois eram primos em 5.º grau. O bispo do Porto, Martinho Rodrigues opôs-se à entrada dos noivos por esse motivo, o que desencadeou uma resposta violenta por parte do rei Sancho I, pai de Afonso. Os seus filhos eram menores quando morreu. O sucessor Sancho II ainda não tinha os 14 anos ao herdar o trono. O país acabou por mergulhar num período de desordem que levou o irmão de Sancho II, Afonso III, a lutar pela posse do trono que acabou por conseguir. Diz-se que D. Afonso II possa ter morrido de lepra (isso poderá ter justificado um dos seus cognomes, "o Gafo", bem como uma célebre e depreciativa frase dita por alguns elementos do povo: "Fora Gaffo!"), mas a enorme gordura que o rei possuía teria sido a sua causa de morte. Reinado. Os primeiros anos do seu reinado foram marcados por violentos conflitos internos (1211-1216) entre Afonso II e as suas irmãs Mafalda, Teresa e Santa Sancha de Portugal (a quem seu pai legara em testamento, sob o título de rainhas, a posse de alguns castelos no centro do país — Montemor-o-Velho, Seia e Alenquer —, com as respectivas vilas, termos, alcaidarias e rendimentos), numa tentativa de centralizar o poder régio. Este conflito foi resolvido com intervenção do papa Inocêncio III. O rei indemnizou as infantas com muito dinheiro, a guarnição dos castelos foi confiada a cavaleiros templários, mas era o rei que exercia as funções soberanas sobre as terras e não as infantas como julgavam ter e que levou à guerra. O conflito deu-se na altura em que se deu a batalha de Navas de Tolosa e como tal, poucos soldados o rei tinha ao seu dispor. No seu reinado foram criadas as primeiras leis escritas e pela primeira vez reunidas cortes com representantes do clero e nobreza, em 1211 na cidade de Coimbra, na altura capital. Foram realizadas "inquirições" em 1220, inquéritos feitos por funcionários régios com vista a determinar a situação jurídica das propriedades e em que se baseavam os privilégios e imunidades dos proprietários. As "confirmações" entre 1216 e 1221, validavam as doações e privilégios concedidos nos anteriores reinados, após analisados os documentos comprovativos ou por mercê real. Todo o seu reinado foi um combate constante contra as classes privilegiadas, isto porque seu pai e avô deram grandes privilégios ao clero e nobreza e Afonso II entendia que o poder real devia ser fortalecido. O reinado de Afonso II caracterizou um novo estilo de governação, contrário à tendência belicista dos seus antecessores. Afonso II não contestou as suas fronteiras com Galiza e Leão, nem procurou a expansão para Sul (não obstante no seu reinado ter sido tomada aos mouros as cidades de Alcácer do Sal, Borba, Vila Viçosa, Veiros, em 1217, e, possivelmente também Monforte e Moura, mas por iniciativa de um grupo de nobres liderados pelo bispo de Lisboa), preferindo sim consolidar a estrutura económica e social do país. O primeiro conjunto de leis portuguesas é de sua autoria e visam principalmente temas como a propriedade privada, direito civil e cunhagem de moeda. Foram ainda enviadas embaixadas a diversos países europeus, com o objectivo de estabelecer tratados comerciais. Não teve preocupações militares, mas enviou tropas portuguesas que, ao lado de castelhanas, aragonesas e francesas, combateram bravamente na célebre batalha de Navas de Tolosa na defesa da Península Ibérica contra os muçulmanos. A única conquista feita foi Alcácer do Sal. Outras reformas de Afonso II tocaram na relação da coroa Portuguesa com o Papa. Com vista à obtenção do reconhecimento da independência de Portugal, Afonso Henriques, seu avô, foi obrigado a legislar vários privilégios para a Igreja. Anos depois, estas medidas começaram a ser um peso para Portugal, que via a Igreja desenvolver-se como um estado dentro do estado. Com a existência de Portugal firmemente estabelecida, Afonso II procurou minar o poder clerical dentro do país e aplicar parte das receitas das igrejas em propósitos de utilidade nacional. Esta atitude deu origem a um conflito diplomático entre o Papado e Portugal. Depois de ter sido excomungado pelo Papa Honório III, Afonso II prometeu rectificar os seus erros contra a Igreja, mas morreu em 1223 excomungado, sem fazer nenhum esforço sério para mudar a sua política. Só após a resolução do conflito com a Igreja, logo nos primeiros meses de reinado do seu sucessor Sancho II, pôde finalmente Afonso II descansar em paz no Mosteiro de Alcobaça (foi o primeiro monarca a fazer da abadia cisterciense o panteão real). Títulos, estilos e honrarias. Títulos e estilos. O estilo oficial de D. Afonso II enquanto Rei de Portugal: Genealogia. Descendência. Com a sua mulher, Urraca de Castela (1186-1220): Filhos naturais: Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Afonso II de PortugalCasa de Borgonha23 de abril de 1185 – 25 de março de 1223
733
Sancho II de Portugal
Sancho II de Portugal Sancho II (Coimbra, – Toledo, ), apelidado de "o Capelo" e "o Piedoso", Rei de Portugal de 1223 até à sua morte, em 1248. Era o filho mais velho do rei Afonso II e sua esposa Urraca de Castela. Vida. Sancho II viria a chefiar um reino que atravessava uma profunda crise económica que já se tinha feito sentir nos tempos do seu avô Sancho I, devido a uma série de factores conjunturais e locais, como as más colheitas e consequente subida de preços e fome, ou a escassez dos frutos de pilhagens e saques a potências inimigas nos últimos anos do seu reinado. Daí que em 1210 tenhamos registo de Sancho I, juntamente com Vasco Mendes, terem recorrido à pilhagem da quinta de um dos seus próprios paisanos, Lourenço Fernandes da Cunha, para enriquecer os cofres reais. Esta acção não parece ter sido isolada, e virá a repetir-se, seguindo o exemplo real. Neste ano conturbado crê-se ter nascido Sancho II, provavelmente entre os dois últimos meses. O jovem Sancho esteve, pelo menos durante esses primeiros anos do reinado de Afonso, debaixo da tutelagem dos seus vassalos Martim Fernandes de Riba de Vizela e Estevainha Soares da Silva, casal nobre ligado por parentesco aos Sousa e aos de Lanhoso. Martim tinha sido alferes do rei em 1203, posição que manterá até à morte deste, para subir, com Afonso II, ao mordomado, no mesmo ano em que este assume a Coroa. Parece contudo morrer em 1212, deixando Sancho, que não podia ter mais de 2 anos, a cargo de sua mulher Estevainha. Em 1213, através de uma doação feita por Estevainha a um mosteiro, sabemos que o jovem Sancho se encontrava doente. Embora não se saiba ao certo, é provável que Sancho tenha sido criado em Coimbra e na região do Entre Douro e Minho, e que sua ama tenha sido Teresa Martins, filha de Estevainha. No verão de 1222, Afonso II já não confirma os diplomas por sua mão, uma manifestação inequívoca de incapacidade, e Sancho, o infante herdeiro, estava ainda a um ou dois anos da maioridade. Numa perspectiva destas, o futuro do reino português era, a um ano da coroação de Sancho II, incerto, pelo menos o da linha de Afonso II. Façamos referência ainda a Martim e Pedro Sanches: Martim era filho bastardo de Sancho I e meio-irmão de Pedro e do rei Afonso II. Pedro era irmão mais novo do rei Afonso II. Martim tinha feito uma investida militar contra Braga e Guimarães, desbaratando a hoste real em 1220 e assim dando o exemplo para que, em Junho de 1222, Afonso IX de Leão tomasse o castelo de Santo Estêvão de Chaves, Pedro foi promovido ilimitadamente na corte leonesa aquando da morte do seu irmão Afonso II. Ambos foram revestidos de tenências de terras muito perto das fronteiras portuguesas, e ambos representaram uma ameaça permanente nesta conjuntura para a sobrevivência independente do então ainda jovem reino português. Reinado. D. Sancho II é coroado na Primavera de 1223, seu pai D. Afonso II tendo morrido excomungado pelo Papa Honório III. Começava já com o pé esquerdo, visto que era filho de um casamento que ia contra a lei canónica — Afonso II e Urraca de Castela, pois eram primos, em 5.º grau canónico — e que era menor, não tendo ainda atingido os catorze anos e possivelmente os treze. H. Fernandes argumenta que o facto de nenhum tutor ter sido seleccionado para participar, assinando, dos documentos saídos da chancelaria de Sancho II durante a sua menoridade, e de se observar a ausência de um ritual de passagem como a investidura na cavalaria que marca a entrada de Afonso VIII na posse real do reino de Castela, viriam a ajudar o argumento a favor da sua deposição. Outra linha de argumento, utilizada por exemplo por Honório III em correspondência com o monarca, leva em consideração a idade tenra e primeira adolescência de Sancho II e realça o papel corruptor dos seus conselheiros régios. Tornar-se-á um dispositivo recorrente nos discursos sobre Sancho produzidos, muito para além dos primeiros anos do seu reinado. Tanto um artifício como o outro visam desculpabilizá-lo, ou simplesmente fazê-lo sobressair como fraco e incapaz de reinar. Em 1241, Sancho casa com Mécia Lopes de Haro, sendo ela trineta de Afonso Henriques. O rei Sancho II herdou dos reinados anteriores algumas querelas com a Igreja. Foi um período conturbado de quase anarquia que levou o papa a intervir e a pedir ao irmão de Sancho, Afonso, conde de Bolonha, para reinar em Portugal. Reconquista. Contrariamente ao que durante muito tempo a historiografia tradicional portuguesa se esforçou por indicar, Sancho II não era um capaz chefe militar, e tampouco participou de forma activa das conquistas que se deram ao longo do Guadiana a partir do ano de 1230. O castelo de Elvas aparenta ter sido tomado "pela graça do salvador", portanto sem a intervenção de Sancho, ocupado quase que por sorte, sem confronto militar. Este padrão repetir-se-á, por exemplo, com Beja. De certa forma, a reconquista é impulsionada pelo Papa Gregório IX, que, em 1232, concede a Sancho que não pode ser excomungado sem mandado especial da Santa Sé, desde que persista na guerra contra os sarracenos, e que portanto nenhum dos seus bispos o possa excluir da comunidade cristã. Estas absolvições continuaram, vendo-se em Junho de 1233 uma por violências cometidas por Sancho sobre clérigos "com a sua mão e com um bastão". Embora várias cidades no Algarve e no Alentejo tenham sido conquistadas durante o reinado de Sancho II, este trabalho é protagonizado quase exclusivamente pelas Ordens Militares, como a Ordem de Santiago, que recebeu como pagamento dos serviços prestados diversas povoações, tais como Aljustrel, Sesimbra, Aljafar de Pena, Mértola, Aiamonte e Tavira, facto que porá Sancho cada vez mais dependente delas. Concentra-se em utilizá-las também para povoar as regiões desertas, outra missão pontifícia, doando-lhes terras e castelos à medida que vão conquistando. Foram emitidas, em 1234 e 1241, bulas papais de Cruzada para o reino de Portugal. Conflitos. Infantas, Tias de Sancho II. Filhas e herdeiras de considerável feudo territorial de Sancho I, seu pai, estas tinham em Teresa, antiga rainha de Leão, um líder incontestado, visto que parecia querer assumir, tal como a sua rival Berengária, papel nuclear na política do Ocidente peninsular. As raízes do conflito remontam ao primeiro testamento de Sancho I, redigido em 1188, que disponibilizava os castelos de Alenquer, Montemor, Viseu, Guimarães e Santa Maria para a sua mulher D. Dulce e para as suas filhas e deixava à sua filha maior D. Teresa o castelo de Montemor e Cabanões, e à mais nova, Sancha, Bouças, Vila do Conde e Fão. Há um detalhe que se revela logo de início capaz de semear a discórdia: a concessão hereditária feita a Teresa, de 12 anos, e Sancha, de 8. Parece residir aqui um dos pomos fomentadores da discórdia entre o herdeiro Afonso e suas irmãs, na medida em que colocava nas mãos de Teresa e de Sancha um feudo territorial de consideráveis dimensões, correspondendo aos territórios dos Castelos. No seu segundo e último testamento, Sancho reforça estas dotações prévias, Teresa ficando na posse de Montemor e Esgueira, Sancha de Alenquer, Mafalda dos mosteiros de Bouças e de Arouca e da herdade de Seia que havia sido de sua mãe. Logo nos primeiros meses do seu precoce reinado, em 1223, o jovem Sancho assina acordo com as tias para resolver esta querela, dando-lhes tudo aquilo que Afonso II não lhes quisera reconhecer, sobretudo os castelos, conseguindo também a inclusão de Branca, não contemplada no testamento de Sancho I, com bens imóveis, e agora transformada em herdeira de Teresa na parcela de Montemor e Esgueira. Vão somar ainda à posse dos castelos às infantas Teresa e Sancha a muito elevada quantia de 4 000 morabitinos anuais, a pagar sobre os direitos de Torres Vedras que entre si devem dividir. Ficam assim com a totalidade das rendas de outro dos centros urbanos mais significativos da Estremadura, contribuindo para cimentar a sua influência numa área onde a penetração senhorial era reduzida e que tradicionalmente fazia parte do domínio directo do rei. Crê-se que tanto este acordo como o celebrado pouco tempo depois com o Arcebispo de Braga Estêvão Soares já tivessem sido planeados nos tempos finais de Afonso II, mas que, talvez devido à doença destruidora deste, se tinham posto de parte, aguardando sua morte. Sancho II terá possivelmente planeado uma ofensiva com o objectivo de retomar estes castelos em 1231. Com a Igreja. D. Martinho Rodrigues, Bispo do Porto. O rei Sancho I, avô paterno de Sancho II, teve dissensões com o Bispo do Porto por ter interferido nas graves fracturas que afectavam a relação do bispo com os seus cónegos e com a elite da cidade. Assim é então que na Primavera de 1210 o Papa Inocêncio III troca correspondência com D. Martinho Rodrigues, tratando as graves opressões e enormes injúrias perpetradas sobre ele e os seus homens bem como alguns cónegos que lhe tinham permanecido fiéis. A razão destes desacordos aparenta ter sido o facto de Rodrigues não ter aceitado a proposta de Sancho de promover a entrada solene e processional na cidade em benefício de seu filho Afonso, porque o casamento deste com Urraca era ilícito face à lei canónica, que nesta altura ainda restringia os casamentos até ao sétimo grau de parentesco. A reacção de D. Sancho I fora uma de violência formal ritualizada, nas palavras de Hermenegildo Fernandes, visto que foram destruídas as casas dos cónegos fiéis ao bispo, forçadas as fechaduras das portas da Igreja, invadido o espaço sagrado por indivíduos excomungados, sepultos os corpos mortos em interdito. Como se isso não bastasse, D. Martinho Rodrigues foi ainda enclausurado com o seu deão no paço episcopal durante cinco meses, de onde sairá, numa fuga nocturna com destino a Roma, evitando assim a composição que D. Sancho I o queria compelir a subscrever, mas pondo em risco os seus bens, confiscados pelo porteiro régio para seu uso pessoal e do rei. Aqui encontramos a génese dos problemas que Sancho II virá a ter com Rodrigues, criados no tempo do avô. Afonso II também teve conflitos com a Igreja. Nos anos de 1226, 1227 e 1228 a hostilidade entre rei e bispo agudiza-se, visto que falhara a hipótese de expansão para o interior (Elvas) e o rei voltava-se para os centros urbanos e portuários do litoral. Para além de Braga, o Porto, por concessão de D. Teresa, trisavó de Sancho II, era o único centro urbano com alguma relevância no reino que não tinha o rei por senhor. Enquanto se manteve, esta situação provocou um prolongado conflito entre os cidadãos e o seu bispo. O que estava em causa era a jurisdição do Porto e algumas das rendas e direitos do bispo na sua diocese. Ao ignorar a doação feita pela sua trisavó, Sancho II procurava apropriar-se de um senhorio e aumentar o domínio real, ampliando a massa colectável. Em jogo estava também o controle dos benefícios eclesiásticos e o incumprimento da doação das dízimas por D. Afonso II às Igrejas do Reino. Acusações parecidas podem ser verificadas no caso de Lisboa, quando paróquias vagavam por morte do prior o rei entregava-as a laicos inúteis, estranhos e desconhecidos que não querem receber ordens do presbítero e que nesse sentido ficam aquém das imposições canónicas. Segundo Hermenegildo Fernandes o sistema clientela estava em causa, estando o direito de apresentar os clérigos no centro das práticas de distribuição de benesses em que este se apoiava, neste caso vendo-se a pressão do rei não como incidindo directamente sobre os rendimentos das igrejas mas sobre o direito de dispor deles a favor dos seus homens em detrimento do bispo. Em 1233 há novas queixas. D. Estêvão Soares da Silva, Arcebispo de Braga. Estêvão Soares da Silva era um dos mais poderosos metropolitas da Hispânia Ocidental, o mais importante dos bispos portugueses. Os conflitos da Coroa com este clérigo remontam ao ano de 1219, ainda durante o reinado de Afonso II. Em Agosto de 1220 Afonso II promove no território do arcebispado a primeira de numerosas inquirições que o século XIII verá, atingindo o arcebispo assim no coração da sua área de influência. Este processo visava robustecer os direitos reais, principalmente no Norte arqui-episcopal, segmento do reino que o rei Afonso pior controla e que há quase dois séculos era palco de um processo senhorializador, usufruindo de benefícios como isenções fiscais. Assiste-se então a uma violenta disputa, que envolve a destruição dos bens do arcebispo perpetrada pelos cavaleiros de Coimbra e de Guimarães, vassalos do rei e que forçará Estêvão Soares ao exílio, lançando o rei na excomunhão e o reino em interdito. O Papa Honório III pede ajuda ao rei de Leão, Afonso IX, tendo já enviado uma série de missivas a prelados desse reino e do de Castela, para conseguir apoio em favor de Estêvão Soares. Nota-se, nas palavras de H. Fernandes, que a lisonja utilizada em referência ao monarca Leonês serve evidentes desígnios políticos papais, deixando a pairar a legitimidade ou pelo menos a promessa de um silêncio cúmplice por parte do pontífice, no caso de uma intervenção leonesa em território português. Ameaça ainda Afonso II de invalidar o seu reino, tornando-o assim vulnerável a conquistas por outros reis católicos. De facto, com o acordo assinado em mês incerto de 1223, Sancho fizera a paz com Estêvão Soares, tanto mais que este não defende o Bispo do Porto na sua contenda com o mesmo, e deixa ainda, em testemunho em 1228, 1 000 morabitinos ao rei, que este ainda lhe devia dos 6 000 que se obrigara a pagar no acordo de cinco anos anterior. D. Soeiro Viegas, Bispo de Lisboa. Um dos principais responsáveis pelo cerco de Alcácer do Sal, D. Soeiro já tinha contenda com Afonso II. As razões, segundo os diplomas papais, são a apropriação do direito de padroado, o que lhe permitira colocar nos benefícios eclesiásticos indivíduos da sua clientela; proibição do bispo construir mosteiros, igrejas e capelas, provavelmente para impedir a proliferação de instituições que escapassem a esse mesmo direito padroado régio; desprezo pela autoridade da Igreja para ministrar sacramentos, ignorando as excomunhões já lançadas e intervindo junto dos habitantes de Santarém, a outra grande cidade do bispado, para que não se fizessem absolver; violação das imunidades eclesiásticas, obrigando os clérigos a pagar direitos - vacas, porcos, carneiros - ignorando o foro judicial e eclesiástico, coagindo-os ao serviço militar, de hoste, aos encargos de manutenção das torres, muralhas e guarda delas, assaltando-lhes enfim as casas, sob o pretexto de procurar aí mulheres, barregãs, costume interdito pela ordenação régia; por último acusando o rei de ignorar ostensivamente as determinações do IV Concílio de Latrão que segregava social e fisicamente os judeus, minoria que o monarca, Afonso II e, na sua esteira, Sancho II, continuava a privilegiar, protegendo-os da prática do uso dos sinais distintivos e do interdito de os cristãos comerciarem com eles, perseguindo por isso o bispo a quem negava a dízima e preferindo os judeus aos cristãos nos ofícios régios. Infamante entre todas, a utilização dos serviços de judeus e mouros como autores materiais dos ataques contra a Igreja. Segundo H. Fernandes estas queixas são quase padronizadas: como o próprio papa reconhece, a situação sendo similar à que opusera poucos anos antes o arcebispo de Braga Estêvão Soares a Afonso II. Dois anos antes, em Março de 1222, Honório III entendera por bem escrever aos priores dos dominicanos, franciscanos e da Ordem de Santiago na diocese de Lisboa, dando-lhes plenos poderes para que usassem da sua discrição e entendimento para pôr cobro aos abusos do bispo olisiponense Soeiro Viegas. As acusações às quais o papa dera inteiro crédito eram referentes ao bispo e os prelados das igrejas incorrerem em práticas de extorsão, recusando ministrar os sacramentos a quem não lhes deixasse em testamento a terça ou uma determinada parte dos seus bens. Talvez houvesse portanto um conflito aberto entre a oligarquia urbana e o bispo que tenha permitido ou pelo menos potenciado os ataques que este tinha vindo a sofrer por parte do rei. O prolongamento deste conflito resultará no lançar do Interdito sobre o reino português no ano de 1231 por um grupo de juízes da Sé apostólica. Excomunhão. A 16 de agosto de 1234, D. Sancho II é excomungado pelo mesmo comité de juízes pontifícios que lançara o Interdito em 1231, reunido em Ciudad Rodrigo. Era a consequência natural da Bula "Si quam horribile" do ano anterior. O eterno e cada vez mais omnipotente chanceler de D. Sancho, Mestre Vicente, é enviado em missão à Cúria Pontifícia, conseguindo assim minorar os efeitos da excomunhão sobre a autoridade de D. Sancho II, prolongando assim o seu reinado. Guerra Civil, Deposição e Morte. O isolamento político de Sancho II começa provavelmente em 1232, estando o reino com conturbações internas; Afonso de Castela entra nesse ano pelo Norte do reino em defesa de Sancho II. Resigna também em Roma o bispo de Coimbra, Pedro, aliado de Sancho. D. Afonso, irmão mais novo de Sancho, denuncia em 1245 o casamento de Sancho com Mécia. Nesse mesmo ano a Bula "Inter alia desiderabilia" prepara a deposição "de facto" do monarca. O papado, através de duas Breves, aconselha Afonso, Conde de Bolonha, a partir para a Terra Santa em Cruzada e também que passe a estar na Hispânia, fazendo aí guerra ao Islão. A 24 de julho, a Bula "Grandi non immerito" depõe oficialmente Sancho II do governo do reino, e Afonso torna-se regente. Os fidalgos levantam-se contra Sancho, e Afonso cede a todas as pretensões do clero no Juramento de Paris, uma assembleia de prelados e nobres portugueses, jurando que guardaria todos os privilégios, foros e costumes dos municípios, cavaleiros, peões, religiosos e clérigos seculares do reino. Abdicou imediatamente das suas terras francesas e marchou sobre Portugal, chegando a Lisboa nos últimos dias do ano. Em 1246, Afonso segura Santarém, Alenquer, Torres Novas, Tomar, Alcobaça e Leiria; Sancho II fortifica-se em Coimbra. A Covilhã e a Guarda ficam nas mãos de Afonso. Sancho II procura a intervenção castelhana na guerra civil, depois da conquista de Jaén. Assim, o infante Afonso de Castela entra em Portugal por Riba-Côa a 20 de dezembro, tomando a Covilhã e a Guarda e devastando o termo de Leiria, derrotando a 13 de janeiro de 1247 o exército do Conde de Bolonha. Apesar de não ter perdido nenhuma das batalhas contra o irmão do Rei de Portugal, Afonso de Castela decide abandonar a empresa, levando consigo para Castela El-Rei D. Sancho II, visto que a pressão da Santa Sé aumentava. Embora no Minho continuem partidários de Sancho II e fiquem no terreno as guarnições castelhanas no castelo de Arnoia (seu grande apoiante e anticlerical), o caso encontra-se perdido. D. Sancho II redige o seu segundo e último testamento enquanto exilado em Toledo a 3 de Janeiro de 1248, e morre a 4 desse mesmo mês. Julga-se que os seus restos mortais repousem na catedral de Toledo. Afonso III declara-se Rei de Portugal em 1248, já após a morte do seu irmão mais velho, Sancho. Conclusões. Na medida em que os conflitos com o clero ocorriam a uma escala maior que a do reino português, eles demonstram uma linha de oposição entre um modelo de sociedade teocrática, tal como o papado desde Gregório VII o vinha propondo e um outro, menos definido, mas que tem o poder dos príncipes como centro e que a recuperação do direito romano virá contribuir para unificar em torno de bases ideológicas mais sólidas. Conflitos entre o rei e os bispos, destes com os seus cabidos, intervenções papais: tudo parece convergir num ponto onde os interesses casuísticos dos grupos se encontram com processos de longa duração que afectam a própria organização social urbana. Mencione-se ainda que as sequelas destas conturbações prolongar-se-ão durante o tempo em que outros estão nos cargos de Bispo acima mencionados. Os vestígios escritos da chancelaria de Sancho II oferecem um grande número de lacunas por vezes extensas, por exemplo de 1229 a 1235, o que H. Fernandes julga ser fruto de uma provável destruição desta documentação pelo irmão e futuro rei Afonso III. Até ao ano de 1236, o Mestre Vicente é chanceler do rei, maestro da política régia, detendo assim um cargo importante. De 1236 em diante, Sancho II traz frequentemente os seus físicos na Corte, sinal de que provavelmente já se encontrava doente. As pilhagens a partir de 1236 são protagonizadas por bandos de fidalgos com os seus homens. José Mattoso, no seu artigo sobre a "Crise de 1245", fala numa crescente agitação social, dando para esta a justificação de um crescimento demográfico desequilibrado em relação à expansão territorial. Fala-se também num desequilíbrio conjuntural que impulsiona também o banditismo generalizado, praticado por marginais e não só, havendo também acesas lutas entre nobres e o clero. Longe de aparecer como um rei fraco ou "rex inutilis", em diversas alturas do seu reinado, Sancho II mostrou ter um braço de ferro para tomar posições difíceis, como retaliações sobre os não-cooperantes, a ofensiva sobre os bens e benefícios eclesiásticos, o teste constante da fidelidade que havia ao monarca, entre outros exemplos, seguindo assim um pouco a veia do seu pai "falcão". Títulos, estilos, e honrarias. Títulos e estilos. O estilo oficial de D. Sancho II enquanto Rei de Portugal: "Pela Graça de Deus, Sancho II, Rei de Portugal" Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Sancho II de PortugalCasa de Borgonha8 de setembro de 1209 – 4 de janeiro de 1248
734
Afonso III de Portugal
Afonso III de Portugal Afonso III (Coimbra, – Alcobaça, ), apelidado de o "Bolonhês" por seu casamento com Matilde II, Condessa de Bolonha, foi o Rei de Portugal de 1248 até sua morte, e também o primeiro monarca português a utilizar definitivamente o título de Rei do Algarve. Além disso, ele foi Conde de Bolonha de 1238 até 1253 em direito de sua esposa. Era o segundo filho do rei Afonso II e sua esposa Urraca de Castela, tendo ascendido ao trono depois de depôr seu irmão mais velho Sancho II. Vida. D. Afonso III pelo seu pai, é bisneto de Afonso Henriques e de Mafalda de Sabóia. Pela sua mãe, é bisneto de Henrique II de Inglaterra e de Leonor de Aquitânia. Como segundo filho, D. Afonso não deveria herdar o trono destinado a Sancho e por isso viveu em França, onde se casou com Matilde II, Condessa de Bolonha em 1235, tornando-se assim conde "jure uxoris" de Bolonha, onde servia como um dirigente militar, combatendo em nome do Rei Luís IX de França e seu primo, pois as mães são irmãs. Foi o quinto rei de Portugal, sucedendo ao irmão, em 1248, depois de uma guerra civil que opôs os dois irmãos. Foi um reinado de reorganização administrativa. A sua política foi continuada pelo filho, o rei Dinis. Neste reinado foi conquistado definitivamente o Algarve em 1249 e realizadas cortes com representantes dos concelhos pela primeira vez, em 1254. Enquanto foi rei teve conflitos com o clero e refreou os abusos da nobreza. Casou por duas vezes, não tendo filhos do primeiro, casou com a filha do rei de Castela de quem teve vários filhos. O primeiro varão, D. Dinis, foi rei de Portugal, com 17 anos. Subida ao trono. Em 1246, os conflitos entre Sancho II e a Igreja tornaram-se insustentáveis e o Papa Inocêncio IV nesse mesmo ano despacha a Bula "Inter alia desiderabilia" que prepara a deposição "de facto" do monarca. O papado, através de duas Breves, ainda aconselha Afonso, Conde de Bolonha, a partir para a Terra Santa em Cruzada e também que passe a estar na Hispânia, fazendo aí guerra ao Islão. Mas a 24 de julho, a Bula "Grandi non immerito" depõe oficialmente D. Sancho II do governo do reino, e D. Afonso torna-se regente. Os fidalgos levantam-se contra D. Sancho e D. Afonso cede a todas as pretensões do clero no "Juramento de Paris", uma assembleia de prelados e nobres portugueses, jurando que guardaria todos os privilégios, foros e costumes dos municípios, cavaleiros, peões, religiosos e clérigos seculares do reino. Abdicou imediatamente das suas terras francesas e marchou sobre Portugal, chegando a Lisboa nos últimos dias do ano, onde se fez coroar rei em janeiro de 1248 após o exílio e morte de D. Sancho II em Toledo. Até à morte de D. Sancho e a sua consequente coroação, D. Afonso apenas usou os títulos de "Visitador", "Curador" e "Defensor do Reino". É desta época que a bandeira passa a usar faixa com os castelos, para se distinguir da bandeira real. A bandeira de D. Afonso passou a ser a nova bandeira real. A nova bandeira mostrava o apoio que a tia materna, Branca de Castela, rainha de França deu ao sobrinho. Esta guerra durou de 1245 a 1247 e acabou com o clima de anarquia que existia no reinado anterior. Reinado. Para aceder ao trono, D. Afonso abdicou de Bolonha e repudiou Matilde para casar com Beatriz de Castela. Decidido a não cometer os mesmos erros do irmão, o novo rei prestou especial atenção à classe média de mercadores e pequenos proprietários, ouvindo suas queixas. Por este procedimento, D. Afonso III ficou conhecido também como o pai do "Estado Português", distribuindo alcaides pelos castelos e juízes pelas diferentes vilas e terras. O objectivo era a implantação de um poder legal com o qual todos os habitantes do Reino português mantivessem uma relação de igualdade. O avanço para sul à custa dos mouros terminou em 1249 com a conquista definitiva do Algarve. Em 1254, na cidade de Leiria convocou a primeira reunião das Cortes, a assembleia geral do reino, com representantes de todos os espectros da sociedade. D. Afonso preparou legislação que restringia a possibilidade das classes altas cometerem abusos sobre a população menos favorecida e concedeu inúmeros privilégios à Igreja. Recordado como excelente administrador, D. Afonso III organizou a administração pública, fundou várias vilas e concedeu o privilégio de cidade através do édito de várias cartas de foral. Em 1255, transferiu a capital do Reino de Portugal de Coimbra para Lisboa. Coimbra tinha sido a capital desde D. Afonso Henriques. O rei gostou da cidade e adquiriu casas, melhorando as condições de residência. Foram por sua ordem feitas as Inquirições Gerais, iniciadas em 1258, como forma do rei controlar, não só o grande poder da Nobreza, mas também para saber se lhe estavam a ser usurpados bens que, por direito, pertenciam à Coroa. Foi com este rei que Portugal atinge a sua plena independência. A partir de 1270, o rei negociou com Afonso X de Castela a abolição perpétua de ajuda militar que Portugal ainda devia ao reino de Leão, estando este agora unido ao reino de Castela, desde 1230. O reinado foi uma época de progresso social e aumento das áreas cultivadas. Aumenta a influência dos juristas, defensores do direito romano. Reconquista. Com o trono seguro e a situação interna pacificada, D. Afonso voltou sua atenção para os propósitos da Reconquista do Sul da Península Ibérica às comunidades muçulmanas. Durante o seu reinado, Faro foi tomada com sucesso em 1249 e o Algarve incorporado no reino de Portugal. Passa a usar o título de "Rei de Portugal e do Algarve". Apesar desta conquista, a guerra contra os mouros continuou no mar. Após esta campanha de sucesso, D. Afonso teve de enfrentar um conflito diplomático com Castela, que considerava que o Algarve lhe pertencia. Seguiu-se um período de guerra entre os dois países, até que, em 1267, foi assinado um tratado em Badajoz que determina a fronteira no Guadiana desde a confluência do rio Caia até à foz, a fronteira luso-castelhana. Segundas núpcias. Em 1253, o rei desposou D. Beatriz, popularmente conhecida por D. Brites, filha de D. Afonso X de Castela, "O Sábio". Desde logo isto constituiu polémica pois D. Afonso era já casado com Matilde II de Bolonha. A nova rainha era neta de Fernando III de Castela. Este rei era primo coirmão de D. Afonso, através da mãe, D. Urraca. O Papa Alexandre IV respondeu a uma queixa de D. Matilde, ordenando ao rei D. Afonso que abandone D. Beatriz em respeito ao seu matrimónio com D. Matilde. O rei não obedeceu, mas procurou ganhar tempo neste assunto delicado, e o problema ficou resolvido com a morte de D. Matilde em 1258. O infante, D. Dinis, nascido durante a situação irregular dos pais, foi então legitimado em 1263. O casamento funcionou como uma aliança que pôs termo à luta entre Portugal e Castela pelo Reino do Algarve. Também resultou em mais riqueza para Portugal quando D. Beatriz, já após a morte do rei, recebe do seu pai, Afonso X, uma bela região a Este do Rio Guadiana, onde se incluíam as vilas de Moura, Serpa, Noudar, Mourão e Niebla. Tamanha dádiva deveu-se ao apoio que D. Beatriz lhe prestou durante o seu exílio na cidade de Sevilha. Excomunhão do rei e do reino. No final da sua vida, viu-se envolvido em conflitos com a Igreja, tendo sido excomungado em 1268 pelo arcebispo de Braga e pelos bispos de Coimbra e Porto, para além do próprio Papa Clemente IV, à semelhança dos reis que o precederam. O clero havia aprovado um libelo contendo quarenta e três queixas contra o monarca, entre as quais se achavam o impedimento aos bispos de cobrarem os dízimos, utilização dos fundos destinados à construção dos templos, obrigação dos clérigos a trabalhar nas obras das muralhas das vilas, prisão e execução de clérigos sem autorização dos bispos, ameaças de morte ao arcebispo e aos bispos e ainda, a nomeação de judeus para cargos de grande importância. A agravar ainda mais as coisas, este rei favoreceu monetariamente ordens religiosas mendicantes, como franciscanos e dominicanos, sendo acusado pelo clero de apoiar espiritualidades estrangeiradas. O grande conflito com o clero também se deve ao facto do rei ter legislado no sentido de equilibrar o poder municipal em prejuízo do poder do clero e da nobreza. O rei, que era muito querido pelos portugueses por decisões como a da abolição da "anúduva" (imposto do trabalho braçal gratuito, que obrigava as gentes a trabalhar na construção e reparação de castelos e palácios, muros, fossos e outras obras militares), recebeu apoio das cortes de Santarém em Janeiro de 1274, onde foi nomeada uma comissão para fazer um inquérito às acusações que os bispos faziam ao rei. A comissão, composta maioritariamente por adeptos do rei, absolveu-o. O Papa Gregório X, porém, não aceitou a resolução tomada nas cortes de Santarém e mandou que se excomungasse o rei e fosse lançado interdito sobre o reino em 1277. À sua morte, em 1279, D. Afonso III jurou obediência à Igreja e a restituição de tudo o que lhe tinha tirado. Face a esta atitude do rei, o abade de Alcobaça levantou-lhe a excomunhão e o rei foi sepultado no Mosteiro de Alcobaça. Títulos, estilos, e honrarias. Títulos e estilos. O estilo oficial de D. Afonso III enquanto Rei de Portugal: "Pela Graça de Deus, D. Afonso III, Rei de Portugal e Conde de Bolonha". Em 1253, por suspeitar da sua esterilidade, D. Afonso repudia a esposa, D. Matilde, e abandona o título de Conde de Bolonha, passando a usar apenas o título de "Rei de Portugal". Após a conquista definitiva do Algarve e a disputa quanto ao domínio algarvio com Castela, o Tratado de Badajoz reconhece a D. Afonso III o senhorio do Algarve, evoluindo a sua titulatura régia para: "Pela Graça de Deus, D. Afonso III, Rei de Portugal e do Algarve". Genealogia. Descendência. Primeira esposa, Matilde II de Bolonha, sem descendência. Segunda mulher, infanta Beatriz de Castela (1242-1303)ː Em algumas crónicas antigas, menciona-se outra filha, Constança, no entanto, não há provas da sua existência segundo Figanière. Esta suposta filha, segundo outros historiadores, morreu muito nova em Sevilha e foi sepultada no Mosteiro de Alcobaça. No entanto, "esta referência deve (...) aplicar-se à infanta D. Sancha (que deve), embora com diferentes nomes, ter sido uma única infanta". Filhos naturais Havidos de Madragana Ben Aloandro, depois chamada "Mor Afonso", filha do último alcaide do período mouro de Faro, o moçárabe Aloandro Ben Bakr: Havido de Maria Peres de Enxara: Havida em Elvira Esteves: De outras senhoras: Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Afonso III de PortugalCasa de Borgonha5 de maio de 1210 – 16 de fevereiro de 1279
735
Dinis I de Portugal
Dinis I de Portugal D. Dinis de Portugal, "O Lavrador" e "O Rei-Trovador" (Lisboa, – Santarém, ), foi Rei de Portugal e do Algarve de 1279 até sua morte. Era o filho mais velho do rei e sua segunda esposa Beatriz de Castela. Foi grande amante das artes e letras. Tendo sido um famoso trovador, cultivou as cantigas de amigo e a sátira, contribuindo para o desenvolvimento da poesia trovadoresca na Península Ibérica. Pensa-se ter sido o primeiro monarca português verdadeiramente alfabetizado, tendo assinado sempre com o nome completo. Entre 1320 e 1324 houve uma guerra civil que opôs o rei ao futuro . Este julgava que o pai pretendia dar o trono a Afonso Sanches. Nesta guerra, o rei contou com pouco apoio popular, pois nos últimos anos de reinado deu grandes privilégios aos nobres. O infante contou com o apoio dos concelhos. Apesar dos motivos da revolta, esta guerra foi no fundo um conflito entre grandes e pequenos. Após a sua morte, em 1325 foi sucedido pelo seu filho legítimo, Afonso IV, apesar da oposição do seu favorito, filho natural Afonso Sanches. Vida. Dinis nasceu a 9 de outubro de 1261, em Lisboa, filho do rei e de sua esposa Beatriz de Castela. Pertenceu, pelo lado paterno, à Casa Real Portuguesa, descendente direta da Casa Ducal da Borgonha. Pelo lado materno, descendia de importantes personalidades como (seu avô), de e de Filipe da Suábia. Pelo lado paterno também descendia do mesmo rei inglês. Afonso III era primo coirmão pelo lado materno de , sendo este também descendente de Henrique II. Foi o sexto rei de Portugal, subindo ao trono ainda com 17 anos. Ao longo de 46 anos de reinado, foi um dos principais responsáveis pela criação da identidade nacional e o alvor da consciência de Portugal enquanto estado-nação: em 1297, após a conclusão da Reconquista pelo seu pai, definiu as fronteiras de Portugal no Tratado de Alcanizes. Com este tratado, Portugal ficou com as fronteiras mais antigas da Europa.Pouco se sabe da sua infância, mas conhecem-se os aios encarregues da sua educação, sendo os mais conhecido Lourenço Gonçalves Magro (que seria descendente de Egas Moniz, o Aio). O infante foi mais tarde confiado aos cuidados do meirinho-mor do rei, Nuno Martins de Chacim, que Dinis depois nomearia para mordomo-mor. Em 1282 desposou Isabel de Aragão, que ficaria conhecida como Rainha Santa. Prosseguiu relevantes reformas judiciais, instituiu a língua portuguesa como língua oficial da corte, criou a primeira Universidade portuguesa, libertou as Ordens Militares no território nacional de influências estrangeiras e prosseguiu um sistemático acréscimo do centralismo régio. A sua política centralizadora foi articulada com importantes ações de fomento económico — como a criação de inúmeros concelhos e feiras. D. Dinis ordenou a exploração de minas de cobre, prata, estanho e ferro e organizou a exportação da produção excedente para outros países europeus. Em 1308 assinou o primeiro acordo comercial português com a Inglaterra. Em 1312 fundou a marinha Portuguesa, nomeando 1º Almirante de Portugal, o genovês Manuel Pessanha, e ordenando a construção de várias docas. Teve uma importante política de fomento da agricultura, daí ter sido chamado "o Lavrador". Em 1265, acompanhou a sua mãe e um contingente militar, de visita ao seu avô Afonso X de Castela, em Sevilha, viagem relacionada com a questão do Algarve, com o rei de Portugal, e cuja resolução implicou o envio de reforços portugueses para a guerra na Andaluzia. Em 1278 recebe casa própria, um ano antes de ascender ao trono. Reinado. Como herdeiro da coroa, Dinis desde cedo foi envolvido nos aspectos de governação pelo seu pai, Afonso III, que a 16 de fevereiro de 1279, deixa um reino com uma acentuada estabilidade interna, resultante de uma autoridade régia incontestada, em contraste com o estado geral em que se encontrava o reino de Castela, onde imperava um acentuado clima de ingovernabilidade e de permanentes conflitos sociais. Foi confiado, embora já fosse maior de idade (contava com 17 anos na altura da sua ascensão ao trono), a um conselho de regência presidido por sua mãe, Beatriz, que provavelmente tentaria liderar o reino chefiando um conselho esse no qual tomava parte o mordomo-mor do seu pai, João Peres de Aboim. Porém, o jovem rei desiludiu-a rapidamente de qualquer participação na governação. O conflito com a mãe leva mesmo à intervenção do avô, Afonso X, que terá tentado encontrar-se com o neto em Badajoz, encontro que Dinis rejeitou. Beatriz acabou por voltar a Castela. À data da sua subida ao trono, o país encontrava-se em conflito com a Igreja Católica e sob interdição. D. Dinis procurou normalizar a situação assinando um tratado, conhecido como concordata com o , onde jurava proteger os interesses de Roma em Portugal, terminando com os conflitos como tinha acontecido com seu pai e avô paterno: . Política externa. Aragão: Aliança matrimonial. O casamento deste rei foi talvez um dos primeiros grandes sucessos da política externa portuguesa. Dinis inicia negociações com Pedro III de Aragão, para casar com a filha deste, Isabel, que na mesma altura estaria a ser reclamada por embaixadores dos reis de França e Inglaterra. Isabel era um partido extremamente valioso, uma vez que a sua figura se prestigiava pelas melhores qualidades, e ainda a importância estratégica de Aragão, tanto do ponto de vista político como económico, uma vez que o próprio Pedro III enceta uma política mediterrânica, começada pela conquista da ilha italiana da Sicília (que constituiu o reino de Trinácria), em consequência da defesa dos direitos da esposa, última descendente da casa imperial alemã de Hohenstaufen no sul italiano. Os sucessores de Pedro continuariam esta política de expansão e dominação mediterrânica. Graças às diligências dos seus procuradores e vassalos João Velho, João Martins e Vasco Pires, negociou as clausulas matrimoniais e ficaram encarregados de receber a noiva por palavras de presente, direito que lhes fora outorgado a 12 de novembro de 1280. Pedro III decidiu-se pelo rei português, segundo carta de 11 de fevereiro de 1282, na qual se concretizava o casamento do rei português, de 20 anos e da princesa aragonesa com 11 anos. Dinis doava à sua esposa de doze castelos e três vilas. Dinis por essa altura encontrar-se-ia em Trancoso, vila que doaria também a Isabel a 26 de junho de 1282. Foi também nessa vila que se efetuou a boda "de facto", aí permanecendo até aos primeiros dias de agosto. Leão e Castela e a definição de fronteiras. Os primeiros anos do reinado de Dinis viram a guerra civil em Castela, que opõe Afonso X, o Sábio contra o príncipe Sancho. Em abril de 1282 Dinis envia a Castela uma embaixada de condolências pela morte do rei-trovador. Contudo a situação entre Portugal e Leão-Castela não era de todo pacífica: desde a conquista do Algarve que ambos os reis do ocidente da Península reclamam o título de "Rei do Algarve", facto que incomodava bastante o rei português.Apesar disso as relações entre os dois reinos ainda eram estáveis, tendo-se inclusivamente aliado, em dezembro de 1288, contra Aragão, que combateram entre a primavera e o verão de 1289. A verdadeira quebra viria em 1293, quando Dinis protege o magnate castelhano João Nunes de Lara. A situação parece piorar quando Sancho concerta para o seu filho Fernando a mão da princesa Isabel, filha de . No seu testamento, Sancho IV de Castela determinara que se devolvessem ao reino português as vilas de Moura e Serpa, e os castelos de Mourão e Noudar, e ainda os castelos e as vilas de Arronches e Aracena, injustamente arrebatadas a Portugal e se encontravam indevidamente retidas pelos castelhanos. O rei castelhano falece a 25 de abril de 1295 e a 20 de outubro os referidos bens são oficialmente entregues a Portugal, mais concretamente ao porteiro da coroa, João Rodrigues, em nome de Dinis. Seria no entanto o cavaleiro Nuno Fernandes Cogominho que viria a assumir a sua posse em nome do rei. Durante a menoridade de Fernando IV de Castela, com nove anos apenas, acentua-se a turbulência política em Castela. A regência coube à mãe do novo monarca, Maria de Molina, sendo contestada pelos infantes João, senhor de Valência de Campos, irmão de Sancho IV e Henrique de Castela "O Senador", irmão de Afonso X. Coube a João tentar obter a ajuda de Dinis. Desta forma deslocou-se a Guarda para acordar um pacto, no qual Dinis apoiaria a pretensão de João para o trono de Leão, extinto desde 1230 por Fernando III de Castela. Este acordo foi ratificado a 4 de outubro de 1295. Portugal acaba por declarar guerra a Castela, fazendo-a anunciar nas cortes de Valladolid. A notícia preocupou os castelhanos, uma vez que havia plena consciência das dificuldades que consistiria uma guerra com Portugal. Desta forma, os nobres castelhanos escreveram a Dinis, a 12 de maio de 1297, para obter o seu apoio no combate ao infante João, claramente ignorando que o rei de Portugal já o apoiava. Este segue para Toro, onde propõe a Maria de Molina o reconhecimento do infante rebelde como rei da Galiza, proposta que esta recusou. Com os seus intentos frustrados, Dinis regressa a Portugal permanecendo no Sabugal todo o mês de agosto e a primeira quinzena de Setembro. A 12 de setembro de 1297, celebrou-se o Tratado de Alcanizes, na localidade castelhana do mesmo nome. As cláusulas estabeleciam os direitos de Portugal à posse de vários castelos em Ribacôa e o castelo de Monforte. Outros castelos localizados no atual Alentejo tornaram-se nesta altura parte definitiva de Portugal (com exceção de Olivença): Campo Maior, Ouguela e S. Félix dos Galegos. Acrescentavam-se ainda os castelos de Moura e Serpa, que apesar de cedidos ainda não haviam sido devolvidos. Vários destes bens, como Serpa ou Moura, haviam sido conquistados por Afonso X de Castela aos portugueses durante a guerra de 1245-47, que opunha Afonso III de Portugal ao seu irmão Sancho II. Por seu turno, Portugal renunciava aos castelos de Aroche e Aracena, e ainda Valencia de Alcántara, Ferreira e Esparregal, na posse da Ordem de Alcântara. O tratado estabeleceria a paz com Castela, uma paz prevista de 40 anos, de amizade e defesa mútuas, definindo-se as fronteiras actuais entre os dois países ibéricos. A paz e a aliança foi oficialmente selada pela combinação dos casamentos dos infantes Constança e Afonso, filhos de Dinis, com o rei Fernando IV de Castela e a infanta Beatriz, filhos da rainha regente, respetivamente. A proteção da Ordem do Templo. Os cavaleiros do Templo, após a queda de Acre, último bastião cristão no Levante, regressaram ao Ocidente. As casas desta ordem haviam acumulado várias riquezas; sendo administradores dos fundos destinados às Cruzadas, tornaram-se os primeiros "banqueiros" dos reis e talvez uma das maiores potências financeiras da Idade Média.Filipe IV de França acabava de vencer um duelo travado entre poder civil e eclesiático, e encontrava-se endividado, com os inúmeros gastos que fazia e que eram possíveis graças aos empréstimos que a Ordem Templária lhe cedia. Não podendo pagar a excessiva dívida, pôs em prática um plano para extinguir a Ordem e assim arrecadar para si todos os tesouros e bens que aquela rica Ordem religiosa havia acumulado desde cedo. Assim, o seu chanceler, Guilherme de Nogaret, redigiu todas as acusações e atribuiu-lhes diversos crimes. A 13 de outubro de 1307, Filipe prendia uma grande parte dos cavaleiros templários. Para obter o apoio da Igreja, arranjou forma de elevar ao cargo pontifício alguém da sua confiança: Bertrand de Got, que, com o nome de Clemente V, se torna no primeiro Papa com assento em Avignon, para estar mais manobrável e disponível para ajudar Filipe, e que criaria uma disputa sobre quem era o verdadeiro Papa. Clemente ordena assim a todos os reinos onde residem Templários a proceder à confiscação dos seus bens e à condenação à morte de cada um dos seus membros. Dinis recebe esta ordem, e como os demais reinos, teve de obedecer: os seus agentes ocuparam as fortalezas templárias, mas deram-lhes tempo para poderem fugir. Em 1309, Dinis confiscava-lhe oficialmente os seus bens, regressando todas essas povoações e castelos à Coroa. Os monarcas peninsulares haviam conseguido uma exceção à bula que obrigava a todos os bens templários a serem dados à Ordem Hospitalária. Tal foi confirmada por uma convenção que Dinis assinou com Fernando IV de Castela, que obrigava a cada um dos países a assegurar para si os bens dos Templários, e ainda assegurava uma aliança de auxílio recíproco. Em 1319, Dinis conseguia do Papa João XXII a bula "Ad ea ex quibus", na qual se criava a Ordem de Cristo e para a qual foram transferido todo o património e também vários dos membros da extinta Ordem Templária. Foi designado para sede o Castelo de Castro Marim, criando-se desta forma a primeira ordem militar portuguesa, que chegou inclusivamente a apoiar os cavaleiros portugueses da Ordem de Santiago na sua disputa para se separarem do seu mestre castelhano. A Ordem de Santiago acabaria por formar na realidade um ramo português. Diplomacia peninsular. Dinis enviou, em novembro de 1300, uma embaixada a Jaime II de Aragão, sendo embaixador o conde João Afonso de Albuquerque, com a finalidade de se conseguir uma aliança entre os monarcas de Castela e Aragão. Em resposta Jaime II enviou como embaixador a Ramón de Monros, portador de diversas cartas de Dinis, comunicando que requeria a sua presença como mediador na negociação Aragão-Castela e a de sua esposa Isabel. De facto, em 1304, Dinis e Isabel empreendem essa viagem a Aragão, podendo a rainha rever a sua família e Dinis realizar o seu propósito. Este pedido por parte de Aragão é um sinal do prestígio a nível peninsular de que se revestia este rei. Política interna. Problemas com o irmão. Dinis teve de enfrentar, nos primórdios do seu reinado, a oposição do seu irmão mais novo, o infante Afonso. O principal motivo da sua oposição ao irmão basear-se-ia num argumento com pouco crédito: Afonso reclamava o seu direito ao trono pois considerava Dinis um bastardo, uma vez que este nascera antes da legalização do casamento dos pais, estando Afonso III de Portugal ainda oficialmente e legalmente casado com Matilde II, Condessa de Bolonha. De facto, o segundo casamento de Afonso III foi legitimado somente em 1263, já Dinis contava dois anos, e Afonso ainda nasceria mais tarde nesse ano. A pretensão não foi considerada válida precisamente porque o casamento dos pais acabou por ser legitimado, mas acabou por estalar um conflito entre ambos, em 1281. Afonso estava em Vide, e amuralhou esta vila, sinal que não pareceu correto a Dinis, que o viu como um sinal bélico, pelo que se deslocou com um exército para lá, e Afonso acabou por fugir para Sevilha. A administração e a justiça. Dinis foi essencialmente um rei administrador e não guerreiro: envolvendo-se em guerra com o Reino de Castela em 1295, desistiu dela em troca das vilas de Serpa e Moura.Águeda Dinis seguiria o seu pai nas políticas de legislação e centralização do poder, e promulgou um dos primeiros códigos legislativos, protegendo as classes mais baixas de abuso e extorsão. Estas leis sobreviveram integradas no "Livro das Leis e Posturas" e nas "Ordenações Afonsinas", redigidas no reinado de Afonso V de Portugal. Estes "códigos de lei" eram na verdade compilações de leis e do direito consuetudinário municipal, alteradas e reformuladas pela Coroa. Com efeito, a incidência de questões de carácter processual com igual peso ao carácter de direito positivo das suas leis, denuncia a crescente preocupação do rei em enquadrar o direito consuetudinário (ou costumeiro) no âmbito da Coroa, e em efectivar o seu poder no terreno. As determinações sobre a actuação de alvazis (oficiais concelhios), juízes, "procuratores" e "advocati" demonstram isto, já que um poder meramente nominal sobre todos os habitantes do Reino, como era típico na Idade Média, não se compatibiliza com este esforço em esmiuçar os trâmites jurídicos, ou em moralizar o exercício da justiça. A criação de corregedores denuncia claramente o início do processo de territorialização da jurisdição da Coroa, extravasando os domínio régios, a par da crescente importância da capitalidade de Lisboa. O reinado de D. Dinis acentuou a predilecção por Lisboa como local de permanência da corte régia. Não era uma capital oficial, mas a localização de Lisboa, o seu desenvolvimento a nível urbano, económico e mercantil vão tornando-a na mais capaz para exercer a função de centro administrativo. A articulação entre o norte e o sul do país — este sul que se torna alvo da maior atenção e permanência dos reis — fazem de Lisboa centro giratório para tornar Portugal viável. Entre o norte, onde a malha senhorial é mais densa e apertada, e o sul, onde o espaço vasto conquistado aos muçulmanos implanta sobretudo os domínios régios e as ordens militares, assim como vastos espaços de "res nullius" e torna Portugal um reino onde duas realidades diferentes se complementam. O confronto com a aristocracia. Dinis, por carta de 6 de dezembro de 1283, escreve o seguinte: Esta carta revoga todas os privilégios e doações, realizadas desde a sua ascensão em 1279, como consequência da sua "pequena ydade" e consequente imaturidade que então dizia manifestar. Anulava assim doações a cenóbios importantes, como o Mosteiro de Grijó, Mosteiro de Alcobaça, Sé de Tui, e a indivíduos que lhe eram chegados, como a sua barregã, Maria Rodrigues de Chacim ou mesmo a sua esposa, a Rainha Isabel, com quem casara no ano anterior. Esta "auto-correção" poderia ter uma outra mensagem, revelada de forma subentendida: ao fazer voltar para si os bens doados até então, fazia simultaneamente uma demonstração do seu poder, força e autoridade enquanto Rei, face às influências da nobreza e do clero, que tantos problemas tinham dado ao seu tio Sancho II de Portugal, e que, graças a seu pai, Afonso III de Portugal, se mantinham (pelo menos uma boa parte e a mais importante) junto a si, na corte, exercendo, como o rei, os seus já limitados poderes a partir daí. Sancho II fora uma das principais vítimas do fenómeno do feudalismo, que se vivia de igual forma no resto da Europa entre rei e nobreza com níveis oscilantes de autoridade, tanto da parte do rei, como da restante nobreza e clero. A ação de Dinis teria uma outra vantagem: no princípio do seu reinado, muitas das famílias e personalidades da corte mais poderosas e prestigiantes desapareciam, como foi o caso do mordomo-mor João Peres de Aboim, e dos magnates Afonso Lopes de Baião, Pedro Ponces de Baião ou Gonçalo Garcia de Sousa, e várias outras que viram o seu fim nesta década de 80 que para Dinis resultou uma oportunidade de reformular os poderes da nobreza que restava e de se apoderar dos patrimónios das famílias que se extinguiam. As inquirições de 1284. Seguindo-se às revogações de 1283, Dinis, no ano seguinte, ordena as primeiras Inquirições Gerais do seu reinado, à semelhança do que fizera seu pai em 1258, através das quais o rei pretende verificar o quanto a situação mudara desde aquela data: teria a nobreza aumentado o seu poder? Teria de ter receio do excessivo poder daquela classe? A inquirição revelou um aumento quantitativo e qualitativo dos abusos que a nobreza fazia nos seus domínios. A herança de Gonçalo Garcia de Sousa e as inquirições de 1288. Em 1285, falecia talvez o mais agraciado aristocrata de Portugal, o Conde Gonçalo Garcia de Sousa, com uma património invejável e disputado por familiares de várias linhagens, a começar pela sobrinha, Constança Mendes de Sousa (nora do ex-mordomo-mor João de Aboim) e uma sobrinha desta, Inês Lourenço de Valadares (filha da irmã de Constança, Maria Mendes II de Sousa), que era apoiada por seu pai, Lourenço Soares de Valadares, nesta pretensão. Outras linhagens reclamavam a herança, como os Riba de Vizela, e os Briteiros, reclamando o património pela ascendente comum, Guiomar Mendes de Sousa (irmã de Gonçalo Mendes II de Sousa e esposa de João Pires da Maia). Ora, como a contenda não se resolvia facilmente, os pretendentes à fortuna do conde terão pedido a Dinis para mediar a disputa entre eles, e desta forma ordenou uma inquirição ao património do conde no final de 1286, que se estendeu até ao ano seguinte. A esta pequena inquirição seguiram-se as Cortes de Guimarães de 1288, da qual saiu a resolução de proceder a novas Inquirições Gerais, nesse mesmo ano, e que resultaram no mais exaustivo levantamento de dados relativos às propriedades da nobreza e do clero então existentes, seguindo-se as sentenças proferidas entre 1290 e 1291. Desta forma o rei consegue recuperar uma boa parte do património que, graças a estes levantamentos, descobriu estar nas mãos dos nobres de forma ilegal, uma vez mais pondo a nu os abusos por parte desta classe para com alguns proprietários. Bens em Alvito, Portel, Arronches ou Portalegre, entre muitos outros, regressaram nesta altura à Coroa. è neste seguimento que favorece a já mencionada tentativa, lograda, de criar ramos independentes portugueses para as Ordens Militares de Avis e Santiago. Mas a situação exigia um chefe político hábil, por forma a extorquir as classes privilegiadas sem a privar por completo de bens: se atende queixas de eclesiásticos relativas à usurpação continuada dos bens da Igreja por parte da nobreza, também acede aos pedidos desta quando esta reclama pelo aumento excessivo do património eclesiástico. E, desta forma, o que naturalmente traria bastante contestação por parte destas classes não parece ter acontecido nos primeiros anos de Dinis. Porém a Igreja saiu bastante mais prejudicada: Dinis promulgou leis de amortização, que proibiam a Igreja e as Ordens religiosas de comprar terras. Teriam também de devolver tudo o que haviam adquirido desde o início do seu reinado. Mais tarde proibi-los-ia de adquirir bens de particulares. Consequências. Ainda foram feitas novas inquirições em 1301, 1303-1304 e 1307-1311, todas com motivações semelhantes. A nobreza, escrutinada desta forma, começa a influenciar o herdeiro e a virá-lo contra o seu pai, e se este já parecia bastante incomodado com a atenção aos bastardos, começa também a acreditar que o seu pai queria dar o trono ao seu bastardo favorito, Afonso Sanches. Afonso aceitou o apoio de toda a nobreza que se lhe quis juntar, esperançosa de um tempo de mudança sob o reinado do filho de Dinis. Afonso consegue ascender ao trono, mas para a nobreza nada se alterou, uma vez que Afonso acaba por seguir a política do pai e realiza as últimas inquirições medievais portuguesas que se conhecem, as Inquirições Gerais de 1343. A renovação da arquitetura militar. No final do , a arquitetura militar europeia havia sofrido uma série de alterações que modificaram o perfil das construções e ditaram inovações radicais nas táticas militares de ataque e defesa de um castelo, tornando-os aptos, não só para defender (como faziam os castelos românicos), mas também para atacar, segundo as novas tipologias da Arquitetura gótica. Filipe II de França foi o grande pioneiro deste grande movimento, empreendendo diversas alterações em vários dos seus castelos, dotando-os destes novos meios que os tornaram mais resistentes aos frequentes ataques sofridos numa França ainda claramente feudal. Em Portugal, Sancho I melhorou o sistema defensivo em Coimbra, com a construção das torres de Quinária (1198) e Belcouce (1211), a Ordem do Hospital ergueu o Castelo de Belver já com novos meios, face à invasão que sofreram em 1190 de Abu Iúçufe Iacube Almançor e a Ordem dos Templários introduziu alterações que revelam conhecimento da arquitetura praticada então na Terra Santa e no Próximo Oriente, inovações trazidas por Gualdim Pais, mestre da Ordem que presenciou a Segunda Cruzada., tendo tomado parte num cerco em Antioquia e na tomada de Ascalão (1153). Porém, a pressão das invasões muçulmanas e uma prolongada série de maus anos agrícolas causaram um maior gasto na economia nacional, o que travou a renovação contínua de vários castelos. Foi precisamente com Afonso III e Dinis que a situação mudou, uma vez que os cofres do Estado voltavam a ficar cheios. Se Afonso III introduziu a primeira alteração na muralha de Melgaço em 1263, que se tornara no primeiro exemplar da adaptação da nova arquitetura trazida de França pelo conde de Bolonha, seria no entanto Dinis que se empenharia a fundo num projeto de reforma da arquitetura militar em grande escala, provavelmente dos mais ambiciosos em toda a História do reino e que seria continuado pelos seus descendentes longínquos, João II de Portugal e Manuel I de Portugal. Cultura: literatura, idioma e ensino. A cultura foi um dos seus interesses pessoais e que ganhou um grande impulso através do seu dedicado patrocínio. A língua galego-portuguesa, derivada do latim vulgar, desenvolvera-se pelo menos desde o , e era já utilizada para os versos dos cantares trovadorescos de autores provenientes tanto da Galiza como da própria corte do Reino de Castela, e sabe-se que o próprio Afonso X de Castela, avô de Dinis, era também trovador e tem entre as suas composições algumas escritas nesta língua.O seu pai trouxera de França as novas correntes literárias, pelo que Dinis pôde testemunhar o florescimento desta arte, que acompanhava as restantes cortes peninsulares e talvez também europeias. Dinis presenciava e também contribuía para este florescimento: foi um dos maiores e mais fecundos trovadores do seu tempo. Aos nossos dias chegaram 137 cantigas da sua autoria, distribuídas por todos os géneros (73 "cantigas de amor", 51 "cantigas de Amigo" e 10 "cantigas de escárnio e maldizer"), bem como a música original de 7 dessas cantigas (descobertas casualmente em 1990 pelo Prof. Harvey L. Sharrer, no Arquivo da Torre do Tombo, num pergaminho que servia de capa a um livro de registos notariais do , e que ficou conhecido como "Pergaminho Sharrer"). Os seus filhos naturais Afonso Sanches e Pedro Afonso, seguiram os passos do pai, e compuseram, como ele, uma extensa obra. Em 1290, Dinis declara o galego-português como língua oficial do Reino de Portugal, sendo consequentemente o seu uso estendido às fórmulas da prosa notarial. A esta floração literária corresponde um outro aspeto do desenvolvimento cultural: a atividade escolar. Domingos Anes Jardo, chanceler de Dinis e depois Bispo de Évora, terá fundado em 1286 o Colégio dos Santos Elói, Paulo e Clemente, embora mais conhecido como Hospital de S. Paulo, que servia, além de hospício para os pobres, como residência de estudantes. O rei apoia o projeto e protege a instituição. Seriam ali sustentados religiosos que se dedicassem ao estudo da Jurisprudência ou da Teologia, ou fossem ouvintes de Gramática, Lógica e Medicina, por forma a poderem ensinar. O rei imitaria o bispo e quatro anos, mais tarde, em 1290, criava em Lisboa o "Estudo Geral", fundado pelo seu documento "Scientiae thesaurus mirabilis", situando-se no atual Largo do Carmo, em Lisboa e aí continuando aí a obra de Jardo. Nessa instituição ensinavam-se as Artes, o Direito Civil, o Direito Canónico e a Medicina. Em 1308 foi oficialmente transferida para Coimbra, e mais tarde foi designada de Universidade. Esta foi transferida entre Lisboa e Coimbra várias vezes, estando instalada definitivamente em Coimbra desde 1537, por decreto de um seu descendente, João III de Portugal. Culto e curioso das letras e das ciências, terá impulsionado a tradução de muitas e importantes obras para português, entre as quais se contam os tratados de seu avô Afonso X, o Sábio. Desta forma, a sua Corte foi um dos maiores centros literários da Península Ibérica. Agricultura. D. Dinis redistribuiu terras, promoveu a agricultura e fundou várias comunidades rurais, procurando que não só os camponeses e as comunidades religiosas, mas também todo o País se interessasse por esta atividade. Facilita a distribuição de propriedade e divide terras incultas em grupos de vinte ou trinta casais, distribuindo cada um deles a uma família. Cada casal pagava um foro ou pensão ao rei, ao município ou ao doador da terra. Manda enxugar o paúl de ulmar para ser aplicado no cultivo, e aproveita as madeiras do Pinhal de Leiria para a construção de casas, armazéns e frotas. Simultaneamente protegia este pinhal, uma vez que protegia as terras agrícolas do avanço das areias costeiras. Comércio. Comércio externo. A produção de cereais excede em breve o consumo interno e Portugal torna-se um reino exportador, estabelecendo relações comerciais com portos da Catalunha, Bretanha, Flandres e Inglaterra, assinando em 1308 o primeiro tratado comercial com Eduardo II de Inglaterra. Para estes portos exporta-se também vinho, azeite, sal, peixe salgado e fruta seca. Dinis ordena ainda a exploração de minas de cobre, prata, estanho e ferro. Mesmo fora de Portugal, os mercadores portugueses começaram a ganhar privilégios: Filipe IV de França doa privilégios aos mercadores portugueses em duas ocasiões, em 1290 e em 1310, nesta data especificamente aos mercadores de Harfleur. Comércio interno. Este aumento comercial teve por consequência um aumento do número de feiras. Dinis continua, neste ramo, o impulso do seu pai: as regiões de Entre Douro e Minho, Beira e Alentejo cobriram-se de feiras, nomeadamente "feiras francas" de impostos, isto é, feiras com privilégios e isenções. Uma vez que as condições de circulação, os perigos dos caminhos, assim como as prisões por dívidas poderiam comprometer o sucesso das feira, tornou-se quase obrigatória nas cartas de feira a introdução da fórmula "que todos aqueles que veerem a essa feyra per razom de vender ou de comprar sejam seguros d'ida e de vynda que nom sejam penhorados en meu reyno por nenhuua divyda que devam en aqueles dias en que durar essa feyra nem en dous dias que veerem primeyros des que sayr essa feyra senom por aquelas dividas que forem feytas em essa feyra." Para evitar a dependência de estados vizinhos no que diz respeito ao transporte de mercadoria, ordenou a construção de navios nos estaleiros do reino. Vieram inclusive marinheiros estrangeiros para instruir nesse âmbito e para dirigir as construções, e é desta forma que é atribuído como privilégio ao genovês Manuel Pessanha, o cargo de almirante, fundando uma verdadeira marinha portuguesa ao serviço da Coroa e do Reino. Últimos anos, morte e posteridade. Conflito com o infante herdeiro. Os últimos anos do seu reinado foram marcados por conflitos internos, porque, a nível externo, Portugal equiparava-se aos restantes reinos peninsulares. O herdeiro, futuro Afonso IV, receoso que o favorecimento de D. Dinis ao seu filho bastardo, D. Afonso Sanches o espoliasse do trono, exigiu o poder e combateu o pai. Esta guerra, que se prolongou de 1319 a 1324 e a crise interna que provocou fez com que Portugal perdesse influência a nível internacional. Em 1319, Afonso teria chegado a pedir inclusivamente a Maria de Molina, para que convencesse o seu pai a abdicar. Em resposta o monarca português rejeita a proposta e envia à rainha os pêsames pelas mortes dos seus filhos, D. Pedro e D. João. O infante Afonso revolta-se, com tropas no Norte do País, exercendo violências sobre quem era fiel a seu pai. Afonso dirige-se a Coimbra, e depois toma Leiria. Dinis para aí se dirige, mas o filho, tentando evitar o encontro, desloca-se a Santarém. Reúne-se depois em Coimbra com os seus apoiantes, e daí volta a partir para Norte, com ânimo de conquista. Toma Montemor-o-Velho, Santa Maria da Feira, Vila Nova de Gaia, Porto, e é em Guimarães, no final de 1321 onde encontra a primeira resistência. A mãe, Isabel, dirige-se também a Norte, para se encontrar com o filho e tenta convencê-lo da sua rebeldia inútil, mas sem sucesso. Dinis dirige-se a Coimbra com um exército, e o mesmo faz o seu filho, encontrando-se pela primeira vez, frente-a-frente, ambos os exércitos. Isabel, juntamente com um enteado, o Conde Pedro de Barcelos, tentam convencer pai e filho a desistirem da ideia de se enfrentarem um ao outro, dirigindo-se a cada um dos acampamentos. Tudo o que Isabel e Pedro conseguiram obter foi um armistício, mas não conseguiram evitar um combate sangrento numa ponte sobre o rio Mondego. Com a paz estabelecida em maio de 1322, a situação pareceu acalmar, mas alguma da aristocracia e maus conselheiros voltam uma vez mais o filho contra o pai, situação que se favoreceu com o regresso de Afonso Sanches, que durante este conflito se encontrava em Castela. Afonso tenta surpreender o meio-irmão em Lisboa, mas Dinis protege o seu bastardo, proibindo Afonso de avançar sobre a cidade. A desobediência deste levou a que pai e filho se defrontassem uma vez mais, na Batalha de Alvalade, que não teve um pior desfecho porque a rainha Isabel resolveu intervir diretamente na batalha, interpondo-se entre as hostes inimigas já postas em ordem de combate. Dinis e o seu filho acabariam por fazer as pazes definitivas em 1324. Morte e posteridade. Complicações cardíacas seriam a origem dos seus problemas de saúde. Em 1322 teve um pequeno ataque cardíaco ou vascular-cerebral. Ainda viveu mais três anos debilitado, sendo levado "em andas e em colos de homens". Foi a angina de peito ou uma miocardite a causa da sua morte, em 1325. Se o final do seu reinado foi penoso e lhe trouxe grandes amarguras, a sua decisão de transigir com os desejos do filho assegurou-lhe, pelo menos, o derradeiro consolo de morrer em paz e reconciliado com a família mais chegada. D. Dinis morreu em Santarém a 7 de janeiro de 1325. Foi sepultado no Mosteiro de São Dinis, em Odivelas. Após a sua morte vieram a Portugal algumas embaixadas a apresentar os seus pêsames: desde Castela manifestaram as suas condolências à rainha-mãe e viúva Isabel e ao novo rei, Afonso IV, que foi simultaneamente felicitado pela subida ao trono. O próprio irmão de Isabel, Jaime II de Aragão, apresentou as suas condolências e fez esforços no sentido da reconciliação entre o novo rei e seu irmão, o infante D. Afonso Sanches. Afonso IV, porém, continuaria a fazer guerra ao irmão exilado, e este também não desistiu de lhe tentar usurpar o trono. Afonso acaba por retirar ao irmão bastardo todas as posses que lhe haviam sido dadas pelo pai, e após várias tentativas falhadas de Afonso Sanches para governar Portugal, os dois irmãos acabam por fazer as pazes, com a intervenção de Isabel de Aragão. Na memória popular. Diz a lenda de uma aldeia do concelho de Seia, Lapa dos Dinheiros, que D. Dinis terá por lá passado e depois de ter jantado e pernoitado no lugar, deu-lhe o seu nome actual. Personalidade. Nunca esquecendo o hiato de largos séculos que nos separa de D. Dinis, é possível traçar um esboço de linhas mestras da personalidade deste rei português. Era determinado, ou mesmo obstinado, nos seus intentos, do que são exemplo a "cadência de inquirições verdadeiramente demolidora" e demais políticas de centralização régia que instituiu de forma sistemática. Revelou-se desde cedo um grande estratega, sendo precursor de uma política governativa e legislativa não apenas reactiva, mas antes de cunho pro-activo. Beneficiando de uma análise "a posteriori", percebe-se que as decisões não iam sendo tomadas ao acaso, antes se articulando na senda de um ideal de país e nação que o Rei almejava. À laia de exemplo, indique-se a concomitante criação de concelhos e feiras, as políticas de fortificação das fronteiras ou a crescente dependência das ordens militares do poder régio. Por tudo isto, D. Dinis foi reconhecido como um homem sagaz e de elevada capacidade governativa, tanto por contemporâneos como por historiadores posteriores. Não carecia D. Dinis do que hoje apelidamos de habilidade política. Sendo hábil no trato e entendedor dos Homens, D. Dinis soube ir ""atacando e apaziguando, alternadamente, os interesses senhoriais laicos e eclesiásticos: desamortizou os bens do clero, mas aceitou a concordata e restringiu os direitos de "comedoria" nos mosteiros; inquiriu os bens senhoriais, mas as leis de desamortização travam a erosão dos patrimónios senhoriais"." A administração das propriedades régias tornou-se mais eficiente e D. Dinis ficou conhecido como um rei rico; disso encontramos eco na "Divina Comédia" de Dante Alighieri. Não obstante, D. Dinis é mormente celebrado em todos os registos cronísticos contemporâneos e posteriores como um Rei justo. Sabendo-se que a maior parte do trabalho legislativo do seu reinado se focou em questões de justiça processual, não será de menor relevo o facto de grande parte dessa nova legislação ir no sentido de evitar excessivas delongas e custas judiciais e impedir abusos de advogados e procuradores. Dele pode-se ainda dizer que a determinação que tantas conquistas políticas lhe granjeou podia, por vezes, degenerar em teimosia e prepotência. Descrito por vezes como cruel, principalmente nas relações familiares: na forma como tratava o filho herdeiro D. Afonso (nunca o seu favorito) e a esposa, D. Isabel, entregando-lhe os frutos dos seus adultérios para que os criasse. Figura incontornável da Península Ibérica de fim de duzentos e início de trezentos, D. Dinis foi cognominado "Pai-da-Pátria" por Duarte Nunes de Leão. Compleição física. Pouco ou nada se sabia do físico do Rei D. Dinis. As fontes da época assim como autores posteriores falham em oferecer qualquer tipo de descrição física do monarca. As informações hoje existentes advêm de uma abertura acidental do túmulo de D. Dinis aquando de um processo de restauro em 1938. Sabe-se que a figura histórica de D. Dinis tinha de altura cerca de 1,65 m. O monarca faleceu com a provecta idade de 63 anos, feito notável para a época. Aparentemente, gozou de excelente saúde durante toda a sua vida: apenas fez o primeiro testamento completo aos 61 anos, sempre viajou, participou em guerras estando já adiantado de idade e aos 60 ainda caçava. Essa suposição é confirmada pela análise dos seus restos mortais que revela que morreu com a dentadura completa. Um traço distinto da fisionomia de D. Dinis terão sido os seus cabelos e barba ruivos. Facto curioso na família real portuguesa de então, do qual não se conhecem outros exemplos até à época de D. Dinis. Pode-se especular que a origem genética deste traço poderia vir do lado materno, pois seu tio Fernando de Castela era ruivo (recebendo ademais o epiteto de La Cerda). As hipóteses mais plausíveis serão que estes dois príncipes peninsulares tenham herdado o traço de Henrique II de Inglaterra, pai de Leonor Plantageneta, bisavó de Afonso X; ou então da mãe de Afonso X, Beatriz da Suábia, neta do famoso Imperador Frederico, o "Barba Ruiva". Genealogia. Descendência. Filhos naturaisː Títulos, estilos, e honrarias. Títulos e estilos. O estilo oficial de D. Dinis enquanto era: "Pela Graça de Deus, Dinis I, Rei de Portugal e do Algarve" Bibliografia. ! colspan="3" style="background: #FBEC5D;" | Dinis I de PortugalCasa de Borgonha9 de outubro de 1261 – 7 de janeiro de 1325
736
Afonso IV de Portugal
Afonso IV de Portugal Afonso IV, "O Bravo (Lisboa, – Lisboa, ), foi o Rei do Reino de Portugal e Algarves de 1325 até sua morte em 1357 com 66 anos. Era um dos filhos do rei Dinis I e da sua esposa Isabel de Aragão" (canonizada como Santa Isabel). Foi o sétimo rei de Portugal e este reinado ficou marcado por conflitos com Castela, reformas administrativas, a peste negra e a execução de Inês de Castro. O seu cognome foi-lhe atribuído pela bravura na batalha do Salado. Vida. Afonso foi o segundo filho da rainha Isabel. Teve uma irmã, nascida um ano antes, Constança que casou com o rei de Castela, Fernando IV. Em 1309, D. Afonso IV casou com a infanta Beatriz, filha do rei Sancho IV de Castela, este filho de Afonso X, "o Sábio" que é o avô materno do rei Dinis, pai de Afonso IV; como tal, os noivos são primos. Deste casamente destacam-se Maria de Portugal e Pedro I. Este casamento e o da sua irmã estavam previstos com o tratado de Alcanizes. Apesar de ser filho legítimo de seu pai D. Dinis, D. Afonso não seria, de acordo com algumas fontes, o favorito do rei D. Dinis, que preferia a companhia de D. Afonso Sanches, um dos seus bastardos (legitimado). Esta preferência deu lugar a uma rivalidade entre os dois irmãos, levando o futuro rei a rebelar-se contra o pai, havendo guerra civil, em 1320. Além daquele meio-irmão havia ainda João Afonso e Fernão Sanches, outros filhos de Dinis. Do lado do futuro rei, estava a sua mãe, alguns grandes nobres, muitos filhos segundos e os bispos de Porto e Lisboa. O rei Dinis tinha os três filhos bastardos, alguns nobres e as ordens militares. A paz foi feita com a intervenção da rainha Isabel, depois da batalha de Alvalade e quatro anos de guerra. Assinada a paz em 26 de fevereiro de 1324, Afonso Sanches foi demitido e afastado da corte e o futuro rei via assegurado o trono. Em 1325, Afonso IV tornou-se rei e como primeira decisão, após cortes em Évora, declarou Afonso Sanches como traidor, este estava já em Castela, retirando-lhe todas as terras, títulos e feudos concedidos pelo pai de ambos. Fez o mesmo a João Afonso que foi executado. O exilado não se conformou e do outro lado da fronteira orquestrou uma série de manobras políticas e militares com o fim de se tornar ele próprio rei. Depois de várias tentativas de invasão falhadas, os irmãos assinaram um tratado de paz, sob o patrocínio da rainha Isabel. Jaz na Sé de Lisboa, junto a D. Beatriz, sua rainha e consorte. Reinado. Afonso tornou-se rei em 1325, com 33 anos, dando algum seguimento à política do pai, mas agora com certa austeridade na corte. Entre 1326 e 1329 houve guerra contra o irmão Afonso Sanches. Ataques foram feitos na fronteira entre Portugal e Castela. Após a paz, os bens de Afonso Sanches foram devolvidos. Durante este reinado houve guerra contra Castela, por razões familiares. A nível interno, a política do rei visava fortalecer o poder real com as reformas que foram feitas, como na justiça. O seu cognome vem do papel que teve na batalha do Salado. Política externa. A primogénita do casamento, a infanta D.Maria casou com D. Afonso XI de Castela em 1328, mas o casamento revelou-se infeliz, dado que o Rei de Castela maltratava abertamente a mulher. D. Afonso IV não ficou contente por ver sua filha menosprezada e negociou o casamento do filho Pedro com Constança Manuel, filha dum influente nobre: João Manuel; ora o rei Afonso XI raptou Constança e isto levou à guerra, durando de 1336 a 1339. A paz veio em julho de 1339 com intervenção do papa e do rei de França, o tratado foi assinado em Sevilha. No ano seguinte, em Outubro de 1340, tropas portuguesas participaram na grande vitória da Batalha do Salado contra os mouros merínidas. Outras medidas na política externa foram a confirmação da aliança com Aragão e Castela em 1328 e 1329. Um acordo comercial com a Inglaterra em 1353. Em 1343 houve no reino grande carestia de cereais e em 1346, a fim de fazer sua aliança com o rei de Aragão, D. Afonso IV enviou a Barcelona um embaixador para a assinatura do acordo entre o rei e D. Pedro IV de Aragão com vista à realização do casamento da infanta D. Leonor. Política interna. A sua política visava a centralização do poder como a criação dos chamados "juízes de fora", criada em 1327 e 1332-1340. Os magistrados passam a ser nomeados pelo rei, em vez dos juízes eleitos pelos membros dos concelhos. Foi proibida a intromissão dos nobres na justiça e a vingança privada (costume dos nobres) foi proibida com pena de morte. Tratou-se portanto de uma medida de centralização do poder judicial. Outras medidas internas: reforma parlamentar dos deputados do povo (1331); reformas dos concelhos; repressão dos abusos senhorias. Em 1347 ocorreu um sismo que abalou Coimbra, tendo causado enormes prejuízos. Em 1348 a peste negra, vinda da Europa, assola o país, entre setembro e dezembro. De todos os problemas foi a peste o mais grave, vitimando grande parte da população e causando grande desordem no reino. O rei reagiu prontamente, tendo promulgado legislação a reprimir a mendicidade e a ociosidade. Também neste reinado foram tomadas medidas quanto ao vestuário permitido, conforme a classe social. A última parte do reinado de D. Afonso IV foi marcada por intrigas políticas e conflitos internos em grande parte devidos à presença em solo português de refugiados da guerra civil entre D. Pedro I de Castela e o seu meio-irmão D. Henrique da Trastâmara. Entre os exilados contavam-se vários nobres, habituados ao poder, que cedo criaram a sua própria fação dentro da Corte portuguesa. Quando o príncipe herdeiro D. Pedro assume Inês de Castro como sua preferida, os nobres castelhanos passam a gozar cada vez mais dos privilégios do poder real português. Inês é bisneta de Sancho IV de Castela, pai da mãe de Pedro, sendo como tal sobrinha-neta da rainha. Afonso IV não ficou agradado com o favoritismo concedidos aos castelhanos e procurou várias formas de afastar D. Inês do filho. Sem sucesso, pois D. Pedro assume a relação com D. Inês de Castro, sua preferida, bem como assumiu os filhos que dela teve, legitimando-os na famosa Declaração de Cantanhede. Em 1349, Pedro recusa tornar a casar com outra mulher que não ela. Com o passar dos anos D. Afonso IV perdeu o controlo da situação e os fidalgos pró Castela e Inês de Castro aumentavam a sua influência junto de Pedro, enquanto o único herdeiro direto de D. Pedro e D. Constança Manuel de Vilhena, o futuro rei D. Fernando, crescia como uma criança doente. Preocupado com a vida do único neto que reconhecia como herdeiro e com o acréscimo de poder castelhano dentro de suas fronteiras, D. Afonso IV planeia e executa a morte de Inês de Castro em 1355 juntamente com Pêro Coelho, Álvaro Gonçalves e Diogo Lopes Pacheco. Tomado por violenta indignação, D. Pedro entrou em guerra aberta contra o pai, tendo como aliados a família Castro; cercaram durante duas semanas a cidade do Porto. A reconciliação chegou apenas em 1357, quando o rei delega em vida grande parte do poder ao príncipe herdeiro, D. Pedro. Afonso IV morreu pouco tempo depois. A maior contribuição a nível económico e administrativo foi a importância dada ao desenvolvimento da marinha portuguesa. D. Afonso IV subsidiou a construção de uma marinha mercante e financiou as primeiras viagens de exploração Atlântica. As Ilhas Canárias foram descobertas no seu reinado. Isto deu-se em 1336. Títulos, estilos, e honrarias. Os títulos usados pelo rei foram: O estilo oficial de D. Afonso IV enquanto Rei era: "Pela Graça de Deus, Afonso IV, Rei de Portugal e do Algarve". Descendência. Do seu casamento com D. Beatriz de Castela (1293 - Lisboa, 25 de Outubro de 1359), infanta do Reino de Castela, filha do rei D. Sancho IV de Castela com D. Maria de Molina, nasceram: Teve ainda uma filha ilegítima: Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Afonso IV de PortugalCasa de Borgonha8 de fevereiro de 1291 – 28 de maio de 1357
737
Pedro I de Portugal
Pedro I de Portugal D. Pedro I (Coimbra, – Estremoz, ), apelidado de "o Justiceiro" ou "o Cruel", foi o Rei de Portugal e Algarves de 1357 até sua morte. Era filho do rei Afonso IV e sua esposa Beatriz de Castela. Ficou conhecido pela atenção dada à justiça e pelo desvario por Inês de Castro. Vida. O Infante D. Pedro nasceu na cidade de Coimbra, a 8 de Abril de 1320, filho do então infante D. Afonso e Beatriz de Castela. Pedro foi o quarto filho de um total de sete, três mulheres e quatro varões: D. Maria, D. Afonso, D. Dinis, ele próprio, D. Isabel, D. João, e D. Leonor. Destes, mais de metade cedo morre (D. Afonso nado-morto à nascença; D. Dinis, D. Isabel, e D. João na sua infância). Por este motivo, D. Pedro, não sendo primogénito, torna-se herdeiro do pai e vem a suceder-lhe no trono. Pedro I sucedeu a seu pai em 1357. Dos seus primeiros anos de vida, pouco se sabe. Conhecem-se, todavia, através de fontes escritas, a sua ama, D. Leonor; o aio e mordomo-mor Lopo Fernandes Pacheco; o guarda, Domingos Anes; o reposteiro-mor, Gonçalo Lobato; e os reposteiros, Afonso Domingues e Afonso Esteves. É também sabido que, por volta dos seus quinze anos, em 1335, já tinha casa. Os cronistas fazem menção a um defeito de gaguez e ainda, no foro psíquico, "paixões exaltadas e violentas, cóleras explosivas, perversões várias"; é igualmente caracterizado como um amante da festa e da música, cantando e dançando por Lisboa ao som de "longas" com os populares. D. Pedro é conhecido pela sua relação com Inês de Castro, a aia galega da sua mulher Constança Manuel. O rei Afonso IV temia a influência da família Castro à qual pertencia a amante de Pedro. Inês acabou assassinada por ordens do rei a 7 de Janeiro de 1355, mas isto não trouxe Pedro de volta à influência paterna. Contrariamente, durante alguns meses, Pedro revoltou-se contra o pai; apoiado pela nobreza de Entre Douro e Minho e pelos irmãos de Inês. A paz veio por vontade declarada do povo e perdoaram-se mútuas ofensas. Acerca do temperamento deste soberano, o cronista Fernão Lopes dedicou um capítulo que intitulou ""Como El-Rei mandou capar um seu escudeiro porque dormia com uma mulher casada", permitindo entrever que o gesto teria sido motivado por ciúmes do monarca por seu escudeiro, de nome Afonso Madeira. Madeira é descrito como um grande cavalgador, caçador, lutador e ágil acrobata, e regista: "Pelas suas qualidades, El-Rei amava-o muito e fazia-lhe generosas mercês." O escudeiro, entretanto, apaixonou-se por Catarina Tosse, esposa do Corregedor, descrita como "briosa, louçã e muito elegante, de graciosas prendas e boa sociedade". Para se aproximar dela, Madeira fez-se amigo do Corregedor, seduzindo-a e consumando a traição. O soberano, entretanto, tudo descobriu e não perdoou Madeira, castigando-o brutalmente. O cronista insiste no afeto do soberano, referindo enigmaticamente: "Como quer que o Rei muito amasse o escudeiro, mais do que se deve aqui dizer (...)", mas regista que D. Pedro mandou "cortar-lhe aqueles membros que os homens em maior apreço têm". O escudeiro recebeu assistência e sobreviveu, mas "engrossou nas pernas e no corpo e viveu alguns anos com o rosto engelhado e sem barba"". Casamento. Esteve para casar com Branca de Castela, mas dada a sua debilidade e sua incapacidade, o casamento não se chegou a realizar. Mais tarde, em 1336, casou-se por procuração com Constança Manuel, filha de nobre família castelhana, tendo as bodas entre ambos sido realizadas em Lisboa em agosto de 1340. A recusa do rei de Castela, primo de Pedro, em deixar a noiva sair do seu reino, desencadeou um conflito (1336-1339) entre Afonso IV e o sobrinho e genro: Afonso XI de Castela. Após uma ameaça de invasão moura, os reis fazem as pazes e reúnem-se para lutar contra o invasor na batalha do Salado. Reinado. Aclamado rei em 1357, Pedro anunciou em Cantanhede, em junho de 1360, o casamento com Inês, realizado em segredo antes da sua morte, sendo sua intenção a ver lembrada como Rainha de Portugal. A promessa de perdão aos responsáveis pela morte de Inês foi esquecida; este facto baseia-se apenas na palavra do rei, uma vez que não existem registos de tal união. Dois assassinos de Inês foram capturados e executados (Pêro Coelho e Álvaro Gonçalves) com uma brutalidade tal (a um foi arrancado o coração pelo peito, e a outro pelas costas), que lhe valeram os epítetos supra mencionados.Conta também a tradição que Pedro teria feito desenterrar o corpo da amada, coroando-a como Rainha de Portugal, e obrigando os nobres a procederem à cerimónia do beija-mão real ao cadáver, sob pena de morte. Em seguida ordenou a execução de dois túmulos (verdadeiras obras-primas da escultura gótica em Portugal), os quais foram colocados no transepto da igreja do Mosteiro de Alcobaça, para que, no dia do Juízo Final, os eternos amantes, então ressuscitados, de imediato se vejam. O corpo de Inês foi transladado, num cortejo digno de rainha. Foi este facto que contribuiu para a lenda de que depois de morta foi rainha, de origem erudita, passando para a camada popular. Como rei, Pedro revelou-se bom administrador, corajoso na defesa do país contra a influência papal (foi ele que promulgou o famoso Beneplácito Régio, que impedia a livre circulação de documentos eclesiásticos no país sem a sua autorização expressa) e foi justo na defesa das camadas menos favorecidas da população. Aplicava a justiça com brutalidade, de forma «democrática», punindo exemplarmente sem olhar a quem. Para não atrasar a aplicação das sentenças, puniu com pena de morte a prática da advocacia, isto levou a protestos nas cortes de 1361. Pouco fez para refrear o poder da nobreza, mas esta temia o rei. Na política externa, Pedro ajudou seu sobrinho, Pedro, o rei de Castela, na guerra contra o meio-irmão. A sua relação com o clero foi algo conflituosa, em relação à nobreza foi magnânimo. Deu o título de conde de Barcelos a João Afonso Telo com direito hereditário e deu terras aos filhos de Inês. A Ordem de Avis entregou-a a seu filho, João, futuro rei. Dava início à nacionalização das Ordens Militares.A forma como exerceu a justiça, parece-nos hoje cruel, mas era costume naqueles tempos difíceis. Diz-se que mandou servir um banquete enquanto assistia à execução de Pêro Coelho e Álvaro Gonçalves. Gostava mais de ser algoz de que juiz, como atestam algumas sentenças que proferiu. Perto do fim de vida, perdoou Diogo Lopes Pacheco, um dos três responsáveis pela morte de Inês que conseguiu escapar. D. Pedro reinou durante dez anos, sendo tão popular ao ponto de Fernão Lopes escrever "que taes dez annos nunca houve em Portugal como estes que reinara el Rei Dom Pedro". O seu reinado foi o único no século XIV sem guerra e marcado com prosperidade financeira, daí ficar na memória como um bom reinado. Para Fernão Lopes foi o avô da dinastia de Avis. Jaz no Mosteiro de Santa Maria de Alcobaça. Títulos, estilos, e honrarias. Títulos e estilos. O estilo oficial de D. Pedro I enquanto rei era: "Pela Graça de Deus, Pedro I, Rei de Portugal e do Algarve" Descendência. De seu primeiro casamento com Constança Manuel, filha de D. João Manuel de Castela, foi pai dos seguintes filhos: De seu segundo casamento com Inês de Castro, filha de D. Pedro Fernandes de Castro, nasceram: De Teresa Lourenço: Ligações externas. ! colspan="3" style="background: #FBEC5D;" | Pedro I de PortugalCasa de Borgonha8 de abril de 1320 – 18 de janeiro de 1367
739
Design de embalagens
Design de embalagens
740
Unidade de disco rígido
Unidade de disco rígido Uma unidade de disco rígido (HDD), disco rígido, hard drive, disco fixo ou disco duro popularmente chamado também de "HD" (derivação de "HDD" do inglês "hard disk drive") é um dispositivo de armazenamento de dados eletromecânico que armazena e recupera dados digitais usando armazenamento magnético e um ou mais pratos rígidos de rotação rápida revestidos com material magnético. Os pratos são emparelhados com cabeças magnéticas, geralmente dispostas em um braço atuador móvel, que lê e grava dados nas superfícies dos pratos. Os dados são acessados de maneira aleatória, o que significa que blocos individuais de dados podem ser armazenados e recuperados em qualquer ordem. Os HDDs são um tipo de armazenamento não volátil, retendo os dados armazenados mesmo quando desligados. Os HDDs modernos geralmente têm a forma de uma pequena caixa retangular. Introduzido pela IBM em 1956, os HDDs eram o dispositivo de armazenamento secundário dominante para computadores de uso geral a partir do início dos anos 1960. Os HDDs mantiveram essa posição na era moderna de servidores e computadores pessoais, embora os dispositivos de computação pessoal produzidos em grande volume, como telefones celulares e tablets, dependam de dispositivos de armazenamento de memória flash. Mais de 224 empresas produziram HDDs historicamente, embora após extensa consolidação do setor a maioria das unidades sejam fabricadas pela Seagate, Toshiba e Western Digital. Os HDDs dominam o volume de armazenamento produzido (exabytes por ano) para servidores. Embora a produção esteja crescendo lentamente (por exabytes enviados), as receitas de vendas e as remessas de unidades estão diminuindo porque as unidades de estado sólido (SSDs) possuem taxas de transferência de dados mais altas, maior densidade de armazenamento de área, confiabilidade um pouco melhor, e latência e tempos de acesso muito menores. As receitas de SSDs, a maioria dos quais usam memória flash NAND, superam ligeiramente as de HDDs. Os produtos de armazenamento flash tiveram mais que o dobro da receita dos discos rígidos em 2017. Embora os SSDs tenham um custo por bit de quatro a nove vezes maior, eles estão substituindo os HDDs em aplicações onde velocidade, consumo de energia, tamanho pequeno, alta capacidade e durabilidade são importantes. O custo por bit para SSDs está caindo, e o preço premium em relação aos HDDs diminuiu. As principais características de um HDD são sua capacidade e desempenho. A capacidade é especificada em prefixos correspondentes a potências de 1000: uma unidade de 1 terabyte (TB) tem uma capacidade de 1.000 gigabyte (GB; onde 1 gigabyte = 1 bilhão (109) bytes). Normalmente, parte da capacidade de um disco rígido não está disponível para o usuário porque é usada pelo sistema de arquivos e pelo sistema operacional do computador, e possivelmente redundância embutida para correção e recuperação de erros. Também há confusão em relação à capacidade de armazenamento, já que as capacidades são declaradas em gigabytes decimais (potências de 1000) pelos fabricantes de HDD, enquanto os sistemas operacionais mais usados relatam capacidade em potências de 1024, o que resulta em um número menor do que o anunciado. O desempenho é especificado pelo tempo necessário para mover os cabeçotes para uma pista ou cilindro (tempo médio de acesso) adicionando o tempo que leva para o setor desejado se mover sob o cabeçote (latência média, que é uma função da velocidade de rotação física em revoluções por minuto) e, finalmente, a velocidade com que os dados são transmitidos (taxa de dados). Os dois formatos mais comuns para HDDS modernos são 3,5 polegadas, para computadores desktop, e 2,5 polegadas, principalmente para laptops. Os HDDs são conectados ao sistema por cabos de interface padrão, como os cabos PATA (Parallel ATA), SATA (Serial ATA), USB ou SAS (Serial Attached SCSI). História. Reynold B. Johnson foi a pessoa de destaque. um inventor americano e pioneiro da computação, que por muito tempo foi funcionário da IBM. Ele é considerado hoje o "pai" da unidade de disco rígido (popularmente conhecida como HD), e além dessa invenção, ele também fez outras invenções que incluem equipamentos de teste automático de pontuação e a fita de videocassete. A primeira unidade de disco rígido de produção da IBM, o IBM 350, foi lançado em 1957 como um componente do sistema IBM 305 RAMAC. Era aproximadamente do tamanho de duas geladeiras de tamanho médio e armazenava cinco milhões de caracteres de seis bits (3,75 megabytes) em uma pilha de 52 discos (100 superfícies usadas). O 350 tinha um único braço com duas cabeças de leitura/gravação, uma voltada para cima e outra para baixo, que se moviam horizontalmente entre um par de pratos adjacentes e verticalmente de um par de pratos para um segundo conjunto. Variantes do IBM 350 foram o IBM 355, IBM 7300 e IBM 1405. Em 1961, a IBM anunciou, e em 1962 lançou, a unidade de armazenamento de disco IBM 1301, que substituiu o IBM 350 e unidades semelhantes. O 1301 consistia em um (para o modelo 1) ou dois (para o modelo 2) módulos, cada um contendo 25 pratos, cada prato com cerca de 1⁄8 polegadas (3,2 mm) de espessura e 24 polegadas (610 mm) de diâmetro. Enquanto as unidades de disco IBM anteriores usavam apenas duas cabeças de leitura/gravação por braço, o 1301 usava uma matriz de 48 cabeças (comb), cada matriz movendo-se horizontalmente como uma única unidade, uma cabeça por superfície usada. Modo Cilindro as operações de leitura/gravação foram suportadas e as cabeças voaram cerca de 250 micropolegadas (cerca de 6 µm) acima da superfície do prato. O movimento da matriz de cabeça dependia de um sistema adicionador binário de atuadores hidráulicos que assegurava o posicionamento repetível. O gabinete 1301 tinha aproximadamente o tamanho de três refrigeradores domésticos colocados lado a lado, armazenando o equivalente a cerca de 21 milhões de bytes de oito bits por módulo. O tempo de acesso foi de certa de um quarto de segundo. Também em 1962, a IBM introduziu a unidade de disco modelo 1311, que era do tamanho de uma máquina de lavar e armazenava dois milhões de caracteres em um pacote de disco removível. Os usuários podem comprar pacotes adicionais e trocá-los conforme necessário, como bobinas de fita magnética. Modelos posteriores de unidades removíveis, da IBM e de outros, tornaram-se a norma na maioria das instalações de computadores e atingiram capacidades de 300 megabytes no início dos anos 80. Os HDDs não removíveis eram chamados de drives de "disco fixo". Em 1963 a IBM introduziu o 1302, com o dobro da capacidade de esteira e duas vezes mais esteiras por cilindro que o 1301. O 1302 tinha um (para o Modelo 1) ou dois (para o Modelo 2) módulos, cada um contendo um pente separado para as primeiras 250 faixas e as últimas 250 faixas. Alguns HDDs de alto desempenho foram fabricados com um cabeçote por trilha, "por exemplo", Burroughs B-475 em 1964, IBM 2305 em 1970, para que não se perdesse tempo movendo fisicamente os cabeçotes para uma trilha e a única latência era o tempo para o desejado bloco de dados para girar para a posição sob a cabeça. Conhecidos como drives de disco de cabeça fixa ou cabeça por trilha, eles eram muito caros e não estão mais em produção. Em 1973, a IBM introduziu um novo tipo de HDD com o codinome "Winchester". Sua principal característica distintiva era que as cabeças de disco não eram completamente retiradas da pilha de pratos de disco quando a unidade era desligada. Em vez disso, as cabeças podiam "pousar" em uma área especial da superfície do disco ao girar para baixo, "decolando" novamente quando o disco for ligado mais tarde. Isso reduziu muito o custo do mecanismo do atuador do cabeçote, mas impedia a remoção apenas dos discos da unidade, como era feito com os pacores de discos da época. Em vez disso, os primeiros modelos das unidades de "tecnologia Winchester" apresentavam um módulo de disco removível, que incluía o pacote de disco e o conjunto do cabeço, deixando o motor do atuador na unidade após a remoção. Mais tarde, as unidades "Winchester" abandonaram o conceito de mídia removível e retornaram aos pratos não removíveis. Em 1974, a IBM introduziu o atuador de braço oscilante, viabilizado porque as cabeças de gravação Winchester funcionam bem quando inclinadas para as faixas gravadas. O design simples do drive IBM GV (Gulliver), inventado no Hursley Labs da IBM no Reino Unido, tornou-se a invenção eletromecânica mais licenciada da IBM de todos os tempos, o atuador e o sistema de filtragem foram adotados na década de 1980, eventualmente, para todos os HDDs, e ainda universal quase 40 anos e 10 bilhões de braços depois. Como a primeira unidade de pacote removível, as primeiras unidades "Winchester" usavam pratos de 14 polegadas (360 mm) de diâmetro. Em 1978, a IBM introduziu uma unidade de braço oscilante, o IBM 0680 (Piccolo), com pratos de oito polegadas, explorando a possibilidade de que pratos menores pudessem oferecer vantagens. Seguiram-se outras unidades de oito polegadas, depois unidades de 5 1⁄4 pol (130 mm), dimensionadas para substituir as unidades de disquete contemporâneas. Estes últimos destinavam-se principalmente ao então incipiente mercado de computadores pessoais (PC). Com o tempo, à medida que as densidades de gravação aumentaram muito, outras reduções de diâmetro do disco para 3,5" e 2,5" foram consideradas ótimas. Os poderosos materiais magnéticos de terras raras tornaram-se acessíveis durante esse período e foram complementares ao projeto do atuador do braço oscilante para possibilitar os fatores de forma compactos dos HDDs modernos. No início da década de 1980, os HDDs eram um recurso adicional raro e muito caro em PCs, mas no final da década de 1980 seu custo havia sido reduzido ao ponto de serem padrão em todos os computadores, exceto nos mais baratos. A maioria dos HDDs no início da década de 1980 foi vendida para usuários finais de PC como subsistema externo adicional. O subsistema não foi vendido sob o nome do fabricante da unidade, mas sob o nome do fabricante do subsistema, como Corvus Systems e Tallgrass Technologies, ou sob o nome do fabricante do sistema de PC, como Apple ProFile. O IBM PC/XT em 1983 incluiu um HDD interno de 10 MB, e logo depois os HDDs internos proliferaram em computadores pessoais. Os HDDs externos permaneceram populares por muito mais tempo no Apple Macintosh. Muitos computadores Macintosh fabricados entre 1986 e 1998 apresentavam uma porta SCSI na parte traseira, simplificando a expansão externa. Os computadores Macintosh compactos mais antigos não tinham baias de disco rígido acessíveis ao usuário (na verdade, o Macintosh 128K, Macintosh 512K e Macintosh Plus não possuíam nenhuma baia de disco rígido), portanto, nesses modelos, os discos SCSI externos eram a única opção razoável para expandir qualquer armazenamento interno. As melhorias no HDD foram impulsionadas pelo aumento da densidade de área, listaod na tabela acima. Os aplicativos se expandiram ao longo dos anos 2000, dos computadores mainframe do final dos anos 50 à maioria dos aplicativos de armazenamento em massa, incluindo computadores e aplicativos de consumo, como armazenamento de conteúdo de entretenimento. Nos anos 2000 e 2010, o NAND começou a suplantar os HDDs em aplicativos que exigiam portabilidade ou alto desempenho. O desempenho da NAND está melhorando mais rápido do que os HDDs, e os aplicativos para HDDs estão se deteriorando. Em 2018, o maior disco rígido tinha capacidade de 15 TB, enquanto o SSD de maior capacidade tinha 100 TB. A partir de 2018, os HDDs estavam previstos para atingir capacidades de 100 TB por volta de 2025, mas a partir de 2019 o ritmo esperado de melhoria foi reduzido para 50 TB até 2026. Formatos menores, 1,8 polegadas e abaixo, foram descontinuados por volta de 2010. O custo do armazenamento em estado sólido (NAND), representado pela lei de Moore, está melhorando mais rapidamente do que os HDDs. NAND tem uma maior elasticidade-preço da demanda do que HDDs, e isso impulsiona o crescimento do mercado. Durante o final dos anos 2000 e 2010, o ciclo de vida do produto dos HDDs entrou em uma fase madura, e a desaceleração das vendas pode indicar o início de declínio. As inundações de 2011 na Tailândia danificaram as fábricas e impactaram negativamente o custo da unidade de disco rígido entre 2011 e 2013. Em 2019, a Western Digital fechou sua última fábrica de HDD na Malásia devido à demanda decrescente, para se concentrar na produção de SSD. Todos os três fabricantes de HDD restantes tiveram uma demanda decrescente por seus HDDs desde 2014. Tecnologia. Gravação magnética. Um HDD moderno grava dados magnetizando um filme fino de material ferromagnético. em ambos os lados de um disco. Mudanças sequenciais na diretação da magnetização representavam bits de dados binátios. Os dados são lidos do disco detectando as transições na magnetização. Os dados do usuário são codificados usando um esquema de codificação, como codificação limitada por comprimento de execução, que determina como os dados são representados pelas transições magnéticas. Um projeto de HDD típico consistem em um "fuso" que contém discos circulares planos, chamados de pratos, que armazenam os dados gravados. Os pratos são feitos de um material não magnético, geralmente liga de alumínio, vidro ou cerâmica. Eles são revestidos com uma camada rasa de material magnético tipicamente de 10 a 20 nm de profundidade, com uma camada externa de carbono para proteção. Para referência, um pedaço de papel de cópia padrão tem 0,07-0,18 mm (70.000-180.000 nm) de espessura. Os pratos de HDDs contemporâneos são girados em velocidades que variam de 4.200 RPM em dispositivos portáteis com baixo consumo de energia, a 15.000 rpm para servidores de alto desempenho. Os primeiros HDDs giravam a 1.200 rpm e, por muitos anos, 3.600 rpm era a norma. Em novembro de 2019, os pratos na maioria dos HDDs para consumidores giram a 5.400 ou 7.200 RPM. As informações são gravadas e lidas em um prato à medida que ele gira em torno de dispositivos chamados cabeças de leitura e gravação que são posicionadas para operar muito perto da superfície magnética, com sua altura de vôo geralmente na vaixa de dezenas de nanômetros. A cabeça de leitura e gravação é usada para detectar e modificar a magnetização do material que passa imediatamente sob ela. Nos acionamentos modernos, há uma cabeça para cada superfície do prato magnético do fuso, montada em um braço comum. Um braço atuador (ou braço de acesso) move as cabeças em um arco (aproximadamente radialmente) através dos pratos enquanto giram, permitindo que cada cabeça acesse quase toda a superfície do prato enquanto gira. O braço é movido usando um atuador de bobinha de voz ou, em alguns projetos mais antigos, um motor de passo. As primeiras unidades de disco rígido gravavam dados em alguns bits constatnes por segundo, resultando em todas as faixas com a mesma quantidade de daos por faixa, mas as unidades modernas (desde a década de 1990) usam gravação de bits de zona - aumentando a velocidade de gravação da zona interna para a externa e, assim, armazenando mais dados por faixa nas zonas externas. Nos drivers modernos, o pequeno tamanho das regiões magnéticas cria o perigo de que seu estado magnético possa ser perdido devido a efeitos térmicos - instabilidade magnética induzida termicamente que é comumente conhecida como "limite superparamagnético". Para contrariar isso, os pratos são revestidos com duas camadas magnéticas paralelas separadas por uma camada de três átomos do elemento não magnético rutênio, e as duas camadas são magnetizadas em orientações opostas, reforçando-se mutuamente. Outra tecnologia usada para superar os efeitos térmicos para permitir maiores densidades de gravação é a gravação perpendicular, lançada pela primeira vez em 2005, e a partir de 2007 usada em certos HDDs. Em 2004, uma mídia de gravação de alta densidade foi introduzida, consistindo em camadas magnéticas macias e duras acopladas. A chamada tecnologia de armazenamento magnético de "mídia de mola de troca", também conhecida como "mídia composta de troca acoplada", permite uma boa capacidade de escrita devido à natureza de assistência à gravação da camada macia. No entanto, a estabilidade térmica é determinada apenas pela camada mais dura e não influenciada pela camada macia. Componentes. Um HDD típico tem dois motores elétricos: um motor de eixo que gira os discos e um atuador (motor) que posiciona o conjunto do cabeçote de leitura/gravação nos discos giratórios. O motor de disco possui um rotor externo acoplado aos discos; os enrolamentos do estator são fixados no lugar. Em frente ao atuador, na extremidade do braço de suporte da cabeça, está a cabeça de leitura e gravação; cabos finos de circuido impresso conectam as cabeças de leitura e gravação aos componentes eletrônicos do amplificador montados no pivô do atuador. O braço de apoio da cabeça é muito leve, mas também rídigo; em unidades modernas, a aceleração na cabeça atinge 550 "g". O "atuador" é um ímã permanente e bobina móvel que balança as cabeças para a posição desejada. Uma placa de metal suporta um ímã de alto fluxo de neodímio-ferro-boro. Abaixo desta placa está a bobina móvel, muitas vezes referida como "bobina de voz" por analogia com a bobina em falantes, que é anexada ao cubo do atuador e, abaixo disso, há um segundo ímã NIB, montado na placa inferior do motor (algumas unidades têm apenas um ímã). A bobina de voz em si tem a forma de uma ponta de flechas e é feita de fio magnético de cobre duplamente revestido. A camada interna é isolante e a externa é termoplástica, que une a bobina depois de enrolada em uma forma, tornando-a autoportante. As proções da bobina ao longo dos dois lados da ponta da seta (que apontam para o centro do rolamento do atuador) interagem com o campo magnético do ímã fixo. A corrente fluindo radialmente para fora ao longo de um lado da ponta da seta e radialmente para dentro de outro produz a força tangencial. Se o campo magnético fosse uniforma, cada lado geraria forças opostas que se cancelariam. Portanto, a superfície do ímã é metade pólo norte e mete pólo sul, com a linha divisória radial no meio, fazendo com que os dois lados da bobina vejam campos magnéticos opostos e produzam forças que se somam em vez de se cancelarem. As correntes ao logo da parte superior e inferiro da bobina produzem forças radiais que não giram a cabeça. A eletrônica do HDD controla o movimento do atuador e a rotação do disco e raliza leituras e gravações sob demanda do controlador de disco. A realimentação eletrônica do drive é realizada por meio de segmentos especiais do disco dedicados à realimentação do servo. Estes são círculos concêntricos completos (no caso da tecnologia servo dedicada) ou segmentos intercalados com dados reais (no caso da tecnologia servo incorporada). O feedback do servco otimiza a relação sinal-ruído dos sensores GMR ajustando a bobina de voz do braço acionado. A rotação do disco também usa um servo motor. O firmware de disco moderno é capaz de agendar leituras e gravações com eficiência nas superfícies do prato e remapear os setores da mídia que falharam. Taxas de erro e tratamento. As unidades modernas fazem uso extensivo de códigos de correção de erros (ECCs), particularmente a correção de erros Reed-Solomon. Essas técnicas armazenam bits extras, determinados por fórmulas matemáticas, para cada bloco de dados; os bits extras permitem que muitos erros sejam corrigidos de forma invisível. Os próprios bits extras ocupam espaço no disco rígido, mas permitem que densidades de gravação mais altaas sejam empregadas sem causar erros incorrigíveis, resultando em uma capacidade de armazenamento muito maior. Por exemplo, um disco rígido típico de 1 TB com setores de 512 bytes fornece capacidade adicional de cerca de 93 GB para os dados ECC. Nas unidades mais recentes, a partir de 2009, os códigos de verificação de paridade de baixa densidade (LDPC) estavam suplantando Reed-Solomon; Os códigos LDPC permitem um desempenho próximo ao limite de Shannon e, portanto, fornecem a maior densidade de armazenamento disponível. Unidades de disco rígido típicas tentam "remapear" os dados em um setor físico que está falhando em um setor físico sobressalente fornecido pelo "pool de setor sobressalente" da unidade (também chamado de "pool de reserva"), enquanto confia no ECC para recuperar dados armazenados enquanto o número de erros em um setor defeituoso ainda é baixo o suficiente. O resurso S.M.A.R.T (Tecnologia de automonitoramento, análise e relatório) conta o número total de erros em todo o HDD corrigido pelo ECC (embora não em todos os discos rígidos, pois os atributos SMART relacionados "Hardware ECC Recovered" e "Soft ECC Correction" não são suportado consistemente) e o número total de remapeamentos de setor executados, pois a ocorrência de muitos desses erros pode prever uma falha no HDD. O "No-ID Format", desenvolvido pela IBM em meados da década de 1990, contém informações sobre quais setores estão defeituosos e onde os setores remapeados foram localizados. Apenas uma pequena fração dos erros detectados acaba não sendo corrigível. Exemplos de taxas de erro de leitura de bit não corrigidas especificadas incluem: Dentro de um determinado modelo de fabricante, a taxa de erro de bit não corridiga é normalmente a mesma, independentemente da capacidade da unidade. O pior tipo de erro são as corrupções silenciosas de dados, que são erros não detectados pelo firmware do disco ou pelo sistema operacional do host; alguns desses erros podem ser causados por mau funcionamento da unidade de disco rígido, enquanto outros se originam em outro lugar na conexão entre a unidade e o host. Desenvolvimento. A taxa de avanço da densidade de área foi semelhante à lei de Moore (duplicando a cada dois anos) até 2010: 60% ao ano durante 1988-1996, 100% durante 1996-2003 e 30% durante 2003-2010. Falando em 1997, Gordon Moore chamou o aumento de "surpreendente", enquanto observava mais tarde que o crescimento não pode continuar para sempre. A melhoria de preços desacelerou para -12% ao ano durante 2010-2017, à medida que o crescimento da densidade de área diminuiu. A taxa de avanço da densidade de área diminuiu para 10% ao ano durante 2010-2016, e houve dificuldade em migrar da gravação perpendicular para tecnologias mais recentes. À medida que o tamanho da célula de bits diminui, mais dados podem ser colocados em um único prato de unidade. Em 2013, um HDD de 3 TB de desktop de protução (com quatro pratos) teria densidade de área de cerca de 500 Gbit/in2, o que equivaleria a uma célula de bits compreendendo cerca de 18 grãos magnéticos (11 por 1,6 grãos). Desde meados dos anos 2000, o progresso da densidade areal tem sido desafiado por um trilema superparamagnético envolvendo o tamanho do grão, a força magnética do grão e a capacidade da cabeça de escrever. A fim de manter a relação sinal-ruído aceitável, são necessários grãos menores; grãos menores podem se autorreverter (instabilidade eletrotérmica), a menos que sua força magnética seja aumentada, mas os materiais de cabeça de gravação conhecidos são incapazes de gerar um campo magnético forte o suficiente para gravar o meio no espaço cada vez menor ocupado pelos grãos. Tecnologias de armazenamento magnético estão sendo desenvolvidas para resolver esse trilema e competis com unidades de estado sólido (SSDs) baseados em memória flash. Em 2013, a Seagate introduziu a Shingled magnetic recording (SMR), concebida como uma espécie de tecnologia "intermediária" entre o PMR e o sucessor pretendido da Heat-assisted magnetic recording (HAMR), o SMR utiliza faixas sobrepostas para aumentar a densidade de dados, no custo da complexidade do projeto e velocidades mais baixas de acesso a dados (especialmente velocidades de gravação e velocidades de acesso aleatório 4k). Por outro lado, a HGST (agora parte da Western Digital) concentrou-se no desenvolvimento de maneiras de selar unidades cheias de hélio em vez do ar filtrado usual. Como a turbulência e o atrito são reduzidos, densidades de área mais altas podem ser alcançadas devido ao uso de uma largura de esteira menor, e a energia dissipada devido ao atrito também é menor, resultando em um consumo de energia menor. Além disso, mais pratos podem ser encaixados no mesmo espaço do gabinete, embora o gás hélio seja notoriamente difícil de evitar a fuga. Assim, as unidades de hélio são completamente seladas e não possuem uma porta de respiro ao contrário de suas contrapartes cheias de ar. Outras tecnologias de gravação estão em pesquisa ou foram implementadas comercialmente para aumentar a densidade de área, incluindo a gravação magnética assistida por calor (HAMR) da Seagate. O HAMR requer uma arquitetura diferente com mídia redesenhada e cabçotes de leitura/gravação, novos lasers e novos transdutores ópticos de campo próximo. Espera-se que o HAMR seja lançado comercialmente no final de 2020 ou 2021. Problemas técnicos atrasaram a introdução do HAMR em uma década em relação às projeções anteriores de 2009, 2015, 2016, e o primeiro semestre de 2019. Algumas unidades adotaram dois braços de atuadores independentes para aumentar as velocidades de leitura/gravação e competir com SSDs. O sucessor planejado do HAMR, a bit-patterned recording (BPR), foi removido dos roteiros da Western Digital e da Seagate. A gravação magnética assistida por microondas (MAMR) da Western Digital, também conhecida com gravação magnética assistida por energia (EAMR), foi amostrada em 2020, com o primeiro drive EAMR, o Ultrastar HC550, enviado no final de 2020. Gravação magnética bidimensional (TDMR) e cabeças de magnetorresistência gigante "corrente perpendicular ao plano" (CPP/GMR) apareceram em trabalhos de pesquisa. Foi proposto um conceito de acionamento a vácuo acionado por 3D (3DHD). A taxa de crescimento da densidade de área caiu abaixo da taxa histórica da lei de Moore de 40% ao ano. Dependendo das suposições sobre a viabilidade e o momento dessas tecnologias, a Seagate prevê que a densidade de área crescerá 20% ao ano durante 2020-2034. Capacidade. Os HDDs de maior capacidade enviados comercialmente em 2020 são 20 TB. A capacidade de uma unidade de disco rígido, conforme relatado por um sistema operacional ao usuário final, é menor do que a quantidade declarada pelo fabricante por vários motivos: o sistema operacional está usando algum espaço, uso de algum espaço para redundância de dados e uso de espaço para estruturas de sistema de arquivos. Além disso, a diferença na capacidade relatada em unidades prefixadas decimansi SI VS. prefixos binários pode levar a uma falsa impressão de capacidade ausente. Cálculo. Unidades de disco rígido modernas aparecem para seu controlador host como um conjunto contíguo de blocos lógicos, e a capacidade bruta da unidade é calculada multiplicando o número de blocos pelo tamanho do bloco. Essas informações estão disponíveis na especificação do produto do fabricante e na própria unidade por meio de uso de funções do sistema operacional que invocam comandos de unidade de baixo nível. Algumas unidades mais antigas, por exemplo, IBM 1301, CKD, possuem registros de comprimento variável e o cálculo da capacidade deve levar em consideração as características dos registros. Alguns DASD mais recentes simulam CKD e as mesmas fórumulas de capacidade se aplicam. A capacidade bruta de HDDs orientados a setores mais antigos é calculada como o produto do número de cilindros por zona de gravação, o número de bytes por setor (mais comumente 512) e a contagem de zonas da unidade. Algumas unidades SATA modernas também relatam capcidades do setor da cabeça do cilindro (CHS), mas esses não são parâmetros físicos porque os valores relatados são limitados por interfaces históricas do sistema operacional. O esquema C/H/S foi substituído pelo endereçamento de blocos lógicos (LBA), um esquema de endereçamento linear simples que localiza blocos por um índice inteiro, que começa em LBA 0 para o primeiro bloco e incrementa depois. Ao usar o método C/H/S para descrever unidades grandes modernas, o número de cabeças é geralmente definido como 64, embora uma unidade de disco rígido moderna típica tenha entre um e quatro pratos. Em HDDs modernos, a capacidade sobressalente para gerenciamento de defeitos não está incluída na capacidade publicada; no entanto, em muitos HDDs antigos, um certo número de setores era reservado como sobressalente, reduzindo assim a capacidade disponível para o sistema operacional. Além disso, muitos HDDs armazenam seu firmware em uma zona de serviço reservada, que normalmente não é acessível ao usuário e não é incluída no cálculo da capacidade. Para subsistemas RAID, os requisitos de integridade de dados e tolerãncia a falhas também reduzem a capacidade realizada. Por exemplo, um array RAID 1 tem certa de metade da capacidadde total como resultado do espelhamento de dados, enquanto um array RAID 5 com drives perde de capacidade (o que equivale à capacidade de um único drive) devido ao armazenamento de informações de paridade. Os dados subsistemas RAID são várias unidades que parecem ser uma unidade ou mais unidades para o usuário, mas fornecem tolerância a falhas. A maioria dos fornecedores de RAID usa somas de verificação para melhorar a integridade dos dados no nível do bloco. Alguns fornecedores projetam sistemas usando HDDs com setores de 520 bytes para conter 512 bytes de dados do usuário e oito bytes de checksum, ou usando setores separados de 512 bytes para os dados de checksum. Alguns sistemas podem usar partições ocultas para recuperação do sistema, reduzindo a capacidade disponível para o usuário final sem conhecimento de utilitários especiais de particionamento de disco, como diskpart no Windows. Formatação. Os dados são armazenados em um disco rígido em uma série blocos lógicos. Cada bloco é delimitado por marcadores que identificam seu início e fim, informações de detecção e correção de erros e espaço entre os blocos para permitir pequenas variações de tempo. Esses blocos geralmente continham 512 bytes de dados utilizáveis, mas outros tamanhos foram usados. À medida que a densidade da unidade aumentou, uma iniciativa conhecida como Formato Avançado estendeu o tamanho do bloco para 4.096 byes de dados utilizáveis, resultando em uma redução significativa na quantidade de espaço em disco usado para cabeçalhos de bloco, dados de verificação de erros e espaçamento. O processo de inicialização desses blocos lógicos nos pratos do disco físico é chamado de "formatação de baixo nível", que geralmente é executado na fábrica e normalmente não é alterado em campo. A "formatação de alto nível" grava estruturas de dados no disco. Isso inclui gravar estruturas de partição e sistema de arquivos em blocos lógicos selecionados. Por exemplo, parte do espaço em disco será usado para armazenar um diretório de nomes de arquivos em disco e uma lista de blocos lógicos associados a um arquivo específico. Exemplos de esquema de mapeamento de particção incluem Master Boot Record (MBR) e Tabela de partição GUID (GPT). Exemplos de estruturas de dados armazenadas em disco para recuperar arquivos incluem a File Allocation Table (FAT) no sistema de arquivos DOS e inodes em muitos sistemas arquivos Unix, bem como outras estruturas de dados do sistema operacional (também conhecidas como metadados). Como consequência, nem todo o espaço em um disco rígido está disponível para os arquivos do usuário, mas essa sobrecarga do sistema geralmente é pequena em comparação com os dados do usuário. Unidades. Nos primódios da computação, a capacidade total dos HDDs era especificada em 7 a 9 dígitos decimais frequentemente truncados com o idioma "milhões". Na década de 1970, a capacidade total de HDDs foi dada pelos fabricantes usando prefixos decimais SI, como megabytes (1 MB = 1.000.000 bytes), gigabytes (1 GB = 1.000.000.000 bytes) e terabytes (1 TB = 1.000.000.000.000 bytes). No entanto, as capacidades de memória são geralmente citadas usando uma interpretação binária dos prefixos, ou seja, usando potências de 1024 em vez de 1000. O software informa a capacidade do disco rígido ou da memória em diferentes formas usando prefixos decimais ou binários. A família de sistemas operacionais Microsoft Windows usa a convenção binária ao relatar a capacidade de armazenamento, portanto, um HDD oferecido por seu fabricante como uma unidade de 1 TB é relatado por esses sistemas operacionais como um HDD de 931 GB. O Mac OS X 10.6 ("Snow Leopard") usa a convenção decimal ao relatar a capacidade do HDD. O comportamento padrão do utilitário de linha de comando é relatar a capacidade do HDD como um número de unidades de 1024 bytes. A diferença entre a interpretação do prefixo decimal e binário causou alguma confusão no consumidor e levou a ações coletivas contra os fabricantes de HDD. Os demandantes argumentaram que o uso de prefixos decimais efetivamente enganou os consumidores, enquanto os réus negaram qualquer irregularidade ou responsabilidade, afirmando que seu marketing e publicidade cumpriram em todos os aspectos com a lei e que nenhum membro da classe sofreu danos ou lesões. Evolução do preço. O preço do HDD por byte diminuiu a uma taxa de 40% ao ano durante 1988-1996, 51% ao ano durante 1996-2003 e 34% ao ano durante 2003-2010. A queda de preços desacelerou para 13% ao no durante 2011-2014, à medida que o aumento da densidade de área desacelerou e as inundações na Tailândia em 2011 danificaram as instalações de fabricação e se mantiveram em 11% ao ano durante 2010-2017. A Federal Reserve Board publicou um índice de preços ajustado à qualidade para sistemas de armazenamento corporativo de grande escala, incluindo três ou mais HDDs corporativos e controladores, racks e cabos assosciados. Os preços desses sistemas de armazenamento em grande escala diminuíram a uma taxa de 40% ao ano durante 2004-2009 e 22% ao ano durante 2009-2014. Fatores de forma. O primeiro disco rígido da IBM, o IBM 350, usava uma pilha de cinquenta pratos de 24 polegadas, armazenava 3,75 MB de dados (aproximadamente o tamanho de uma imagem digital moderna0 e tinha um tamanho comparável a dois grandes refrigeradores. Em 1962, a IBM lançou seu disco modelo 1311, que usava seis pratos de 14 polegadas (tamanho nominal) em um pacote removível e era aproximadamente do tamanho de uma máquina de lavar. Isso se tornou um tamanho de prato padrão por muitos anos, usado também por outros fabricantes. O IBM 2314 usou travessas do mesmo tamanho em um pacote de onze alturas e introduziu o layout "unidade em gaveta", às vezes chamado de "forno de pizza", embora a "gaveta" não fosse a unidade completa. Na década de 1970, os HDDs eram oferecidos em gabinetes independentes de dimensões variadas contendo de um a quatro HDDs. A partir do final da década de 1960, foram oferecidos unidades que se encaixavam inteiramente em um chassi que seria montado em um rack de 19 poletagas. O RK05 e o RL01 da Digital foram os primeiros exemplos usando pratos únicos de 14 polegadas em pacotes removíveis, a unidade inteira cabendo em um espaço de rack de 10,5 polegadas de altura (seis unidades de rack). Em meados da década de 1980, o Fujitsu Eagle de tamanho semelhante, que usava (coincidentemente) pratos de 10,5 polegadas, era um produto popular. Com o aumento das vendas de microcomputadores com unidades de disquete (FDDs) integradas, HDDs que se encaixassem nas montagens de FDD tornaram-se desejáveis. Começando com o Shugart Associates SA1000, os "fatores de forma" do HDD seguiram inicialmente os das unidades de disquete de 8 polegads, 5¼ polegadas e 3½ polegadas. Embora referido por esses tamanhos nominais, os tamanhos reais para essas três unidades, respectivamente, são 9,5", 5,75" e 4" de largura. Como não havia unidades de disquete menores, formatos de HDD menores, como unidades de 2½ polegadas (na verdade, 2,75" de largura) desenvolvidos a partir de ofertas de produtos ou padrões do setor. A partir de 2019, os discos rígidos de 2½ e 3½ polegadas são os tamanhos mais populares. Em 2009, todos os fabricantes descontinuaram o desenvolvimento de novos produtos para os formatos de 1,3 polegadas, 1 polegada e 0,85 polegadas devido à queda dos preços da memória flash, que não possui partes móveis. Enquanto os tamanhos nominais estão em polegadas, as dimensões reais são especificadas em milímetros. Características de desempenho. Os fatores que limitam o tempo para acessar os dados em um HDD estão relacionados principalmente à natureza mecânica dos discos rotativos e das cabeças móveis, incluindo: O atraso também pode ocorrer se os discos da unidade forem interrompidos para economizar energia. A desfragmentação é um procedimento usado para minimizar o atraso na recuperação de dados movendo itens relacionados para áreas fisicamente próximas no disco. Alguns sistemas operacionais de computador realizam a desfragmentação automaticamente. Embora a desfragmentação automática tenha como objetivo reduzir os atrasos de acesso, o desempenho será reduzido temporariamente enquanto o procedimento estiver em andamento. O tempo para acessar os dados pode ser melhorado aumentando a velocidade de rotação (reduzindo assim a latência) ou reduzindo o tempo gasto na busca. Aumentar a densidade de área aumenta a taxa de transferência aumentando a taxa de dados e aumentando a quantidade de dados sob um conjunto de cabeças, reduzindo potencialmente a atividade de busca para a determinada quantidade de dados. O tempo para acessar os dados não acompanhou o aumento da taxa de transferência, que por si só não acompanhou o crescimento da densidade de bits e da capacidade de armazenamento. Taxa de transferência de dados. A partir de 2010, um HDD de desktop típico de 7.200 rpm tem uma taxa de transferência de dados "disco para buffer" sustentada de até 1.030 Mbit/s. Esta taxa depende da localização da pista; a taxa é maior para dados nas trilhas externas (onde há mais setores de dados por rotação) e menor para as trilhas internas (onde há menos setores de dados por rotação); e geralmente é um pouco maior para unidades de 10.000 rpm. Um padrão atual amplamente usado para a interface "buffer-to-computer" é 3.0 Gbit/s SATA, que pode enviar cerca de 300 megabytes/s (codificação de 10 bits) do buffer para o computador e, portanto, ainda está confortavelmente à frente das taxas de trasnferência de disco para buffer atuais. A taxa de transferência de dados (leitura/gravação) pode ser medida gravando um arquivo grande no disco usando ferramentas especiais de geração de arquivos e, em seguida, lendo o arquivo. A taxa de transferência pode ser influenciada pela fragmentação do sistema de arquivos e pelo leyout dos arquivos. A taxa de transferência de dados do HDD depende da velocidade de rotação dos pratos e da densidade de gravação dos dados. Como o calor e a vibração limitam a velocidade de rotação, o avanço da densidade se torna o principal método para melhorar as taxas de transferência sequencial. Veloccidades mais altas exigem um motor de eixo mais potente, que cria mais calor. Enquanto a densidade de área avança aumentando tanto o número de trilhas no disco quanto o número de setores por trilha, apenas o último aumenta a taxa de transferência de dados para uma determinada rpm. Como o desempenho da taxa de transferência de dados rastreia apenas um dos dois componentes da densidade de área, seu desempenho melhora a uma taxa menor. Outras considerações. Outras considerações de desemenho incluem preço ajustado à qualidade, consumo de energia, ruído audível e resistência a choques operacionais e não operacionais. Acesso e interfaces. Os discos rígidos atuais se conectam a um computador por meio de um dos vários tipos de barramento, incluindo ATA paralelo, Serial ATA, SCSI, Serial Attached SCSI (SAS) e Fibre channel. Algumas unidades, especialmente unidades portáteis externas, usam IEEE 1394 ou USB. Todas essas interfaces são digitais; a eletrônica no drive processa os sinais analógicos das cabeças de leitura/gravação. As unidades atuais apresentam uma interface consistente com o resto do computador, independente do tamnho do esquema de codificação de dados usado internamente e indepente do número físico de discos e cabeças dentro da unidade. Normalmente, um DSP na eletrônica dentro do drive pega as tensões analógicas brutas do cabeçote de leitura e usa a correção de erros PRML e Reed–Solomon para decodificar os dados e, em seguida, envia esses dados paela interface padrão. Esse DSP também observa a taxa de erros detectada pela detecção e correção de erros e realiza remapeamento de setores defeituosos, coleta de dados para Automonitoramento, Análise e Tecnologia de Relatórios e outras tarefas internas. As interfaces modernas conectam o inversor à interface do host com um único cabo de dados/controle. Cada drive também possui cabo de alimentação adicional, geralmente direto da fonte de alimentação. As interfaces mais antigas tinham cabos separados para sinais de dados e para sinais de controle do inversor. Integridade e fracasso. Devido ao espaçamento extremamente próximo entre os cabeçotes e a superfície do disco, os HDDs são vulneráveis a serem danificados por uma colisão do cabeçote - uma falha do disco em que o cabeçote raspa na superfície do prato, muitas vezes triturando o filme magnético fino e causando perda de dados. As colisões de cabeçote podem ser causadas por falha eletrônica, uma falha repentina de energia, choque físico, contaminação do gabinete interno da unidade, desgaste, corrosão ou pratos e cabeçotes mal fabricados. O sistema de eixo do HDD depende da densidade do ar dentro do compartimento do disco para apoiar as cabeças em sua altura de vôo adequada enquanto o disco gira. Os HDDs requerem uma certa gama de densidades de ar para funcionar corretamente. A conexão com o ambiente externo e densidade ocorre através de um pequeno orifício no invólucro (cerca de 0,5 mm de largura), geralmente com um filtro na parte interna (o "filtro de respiro"). Se a densidade do ar for muito baixa, não há sustentação suficiente para o cabeçote voador, então o cabeçote fica muito perto do disco e existe o risco de quedas do cabeçote e perda de dados. Discos selados e pressurizados especialmente fabricados são necessários para operação confiável em alta altitude, acima de cerca de 3.000 m (9.800 pés). Os discos modernos incluem sensores de temperatura e ajustam sua operação ao ambiente operacional. Orifícios de respiro podem ser vistos em todas as unidades de disco - eles geralmente têm um adesivo próximo a eles, alertando ao usuário para não cobrir os orifícios. O ar dentro do acionamento de operação também está em constante movimento, sendo varrido pelo atrito com os pratos giratórios. Este ar passa por um filtro de recirculação interna (ou "recirc") para remover quaisquer contaminantes remanescentes da fabricação, quaisquer partículas ou produtos químicos que possam ter entrado de alguma forma no gabinete e quaisquer partículas ou gases gerados internamente em operação normal. A umidade muito alta presente por longos períodos de tempo pode corroer as cabeças e os pratos. Uma exceção a isso são hermeticamente selados, HDDs preenchiso com hélio que eliminam amplamente os problemas ambientais que podem surgir devido à umidade ou mudanças na pressão atmosférica. Esses HDDs foram introduzidos pela HGST em sua primeira implementação bem-sucedida de alto volume em 2013. Para cabeças magnetoresistivas gigantes (GMR), em particular, uma pequena colisão da cabeça por contaminação (que não remove a superfície magnética do disco) ainda resulta no superaquecimento temporário da cabeça, devido ao atrito com a superfície do disco, e pode tornar os dados ilegíveis por um curto período até que a temperatura da cabeça se estabilize (a chamada "aspereza térmica", um problema que pode ser parcialmente resolvido pela filtragem eletrônica adequada do sinal lido). Quando a placa lógica de um disco rígido falha, a unidade geralmente pode ser restaurada à ordem de funcionamento e os dados recuperados substituindo a placa de circuito por uma de outro disco rígido idêntico. No caso de falhas no cabeçote de leitura e gravação, eles podem ser substituídos usando ferramentas especializadas em um ambiente livre de poeira. Se os pratos de disco não estiverem danificados, eles podem ser transferidos para um gabinete idêntico e os dados podem ser copiados ou clonados em uma nova unidade. No caso de falhas no disco, a desmontagem e a geração de imagens dos discos podem ser necessárias. Para danos lógicos em sistemas de arquivos, uma variedade de ferramentas, incluindo fsck em sistemas semelhantes ao Unix e Chkdsk no Windows, podem ser usadas para recuperação de dados. A recuperação de danos lógicos pode exigir a gravação de arquivos. Uma expectativa comum é que as unidades de disco rígido projetadas e comercializadas para uso em servidor falhem com menos frequência do que as unidades de nível de consumidor normalmente usadas em computadores desktop. No entanto, dois estudos independentes da Carnegie Mellon University e do Google descobriram que o "grau" de uma unidade não se relaciona com a taxa de falha na unidade. Um resumo de pesquisa de 2011 sobre padrões de falha de SSD e disco magnético do Tom's Hardware resumiu os resultados da pesqusa da seguinte forma: A partir de 2019, a Backblaze, um provedor de armazenamento, relatou uma taxa de falha anual de 2% ao ano para um farm de armazenamento com 110.000 HDDs prontos para uso com a confiabilidade variando amplamente entre os modelos e fabricantes. Backblaze posteriormente relatou que a taxa de falha para HDDs e SSDs de idade equivalente foi semelhante. Para minimizar custos e superar falhas de HDDs individuais, os provedores de sistemas de armazenamento contam com matrizes de HDD redundantes. Os HDDs que falham são substituídos continuamente. Fabricantes e vendas. Mais de 200 empresas fabricaram HDDs ao longo do tempo, mas as consolidações concentraram a produção em apenas três fabricantes hoje: Western Digital, Seagate e Toshiba. A produção é prinicpalmente na orla do Pacífico. A receita mundial de armazenamento em disco caiu 8% ao ano, de um pico de US$ 38 bilhões em 2012 para US$ 22 bilhões (estimado) em 2019. A produção de armazenamento HDD cresceu 15% ao ano durante 2011-2017, de 335 para 780 exabytes por ano. As remessas de HDD caíram sete por cento ao ano durante esse período, de 620 para 406 milhões de unidades. As remessas de HDD foram projetadas para cair 18% durante 2018-2019, de 375 milhões para 309 milhões de unidades. Em 2018, a Seagate tem 40% das remessas de unidades, a Western Digital tem 37% das remessas de unidades, enquanto a Toshiba tem 23% das remessas de unidades. O preço médio de venda para os dois maiores fabricantes foi de US$ 60 por unidade em 2015. Concorrência de SSDs. Os HDDs estão sendo substituídos por unidades de estado sólido (SSDs) em mercados onde sua velocidades mais alta (até 4.950 megabytes) (4,95 gigabytes) por segundo para SSDs NVMe M.2 (NGFF) ou 2.500 megabytes (2,5 gigabytes) por segundo para unidades de placa de expansão PCIe, robustez e menor consumo de energia são mais importantes do que o preço, já que o custo de bits dos SSDs é quatro a nove vezes maior do que o dos HDDs. A partir de 2016, os HDDs têm uma taxa de falhas de 2 a 9% ao ano, enquanto os SSDs têm menos falhas: 1 a 3% ao ano. No entanto, os SSDs têm mais erros de dados incorrigíveis do que os HDDs. Os SSDs oferecem capacidades maiores (até 100 TB) do que o maior HDD e/ou densidades de armazenamento mais altas (os SSDs de 100 TB e 30 TB são alojados em caixas de HDD de 2,5 polegadas, mas com a mesma altura que um HDD de 3,5 polegadas), embora seu custo permaneça probitivo. Uma demonstração de laboratório de um chip NAND 3D de 1,33 Tb com 96 camadas (NAND comumente usado em unidade de estado sólido (SSDs)), tinha 5,5 Tbit/in2 a partir de 2019, enquanto a densidade de área máxima para HDDs é de 1,5 Tbit/in2. A densidade de área da memória flash está dobrando a cada dois anos, semelhante à lei de Moore (40% ao ano) e mais rápido do que os 10-20% ao ano para HDDs. A partir de 2018, a capacidade máxima era de 16 terabytes para um HDD, e 100 terabytes para um SSD. HDDs foram usados em 70% dos desktops e noteboks produzidos em 2016, e SSDs foram usados em 30%. A participação de uso de HDDs está diminuindo e pode cair abaixo de 50% em 2018-2019, de acordo com uma previsão, porque os SSDs estão substituindo HDDs de menor capacidade (menos de um terabyte) em computadores desktop e notebooks e MP3 players. O mercaod de chips de memória flash baseados em silício (NAND), usados em SSDs e outros aplicativos, está crescendo mais rápido do que para HDDs. A receita mundial de NAND cresceu 16% ao ano de US$ 22 bilhões para US$ 57 bilhões durante 2011-2017, enquanto a produção cresceu 45$ ao ano de 19 exabytes para 175 exabytes.
742
Economia
Economia Economia (do grego: οικονομία "oikosnomos", "regras da casa") (também chamada de ) é a ciência que consiste na análise da produção, distribuição e consumo de bens e serviços. Portanto, a economia é o estudo das escolhas dos indivíduos e do que possibilita a compatibilidade nas escolhas de todos. Esta ciência social estuda a atividade económica, através da aplicação da teoria económica, tendo na gestão a sua aplicabilidade prática. Os modelos e técnicas atualmente usados em economia evoluíram da economia política do final do , derivado da vontade de usar métodos mais empíricos à semelhança das ciências naturais. Pode representar, em sentido lato, a situação económica de um país ou região; isto é, a sua situação conjuntural (relativamente aos ciclos da economia) ou estrutural. A economia é, geralmente, dividida em dois grandes ramos: a microeconomia, que estuda os comportamentos individuais, e a macroeconomia, que estuda o resultado agregado dos vários comportamentos individuais. Atualmente, a economia aplica o seu corpo de conhecimento para análise e gestão dos mais variados tipos de organizações humanas (entidades públicas, empresas privadas, cooperativas, etc.) e domínios (internacional, finanças, desenvolvimento dos países, ambiente, mercado de trabalho, cultura, agricultura, etc.). Outras formas de divisão da disciplina são: a distinção entre economia positiva ("o que é", que tenta explicar o comportamento ou fenômeno econômico observado) e economia normativa ("o que deveria ser", frequentemente relacionado com políticas públicas); a distinção entre economia ortodoxa, aquela que lida com o nexo "racionalidade-individualismo-equilíbrio", e a economia heterodoxa, que pode ser definida por um nexo "instituições-história-estrutura social". Nos últimos anos, uma vertente que cresceu com mais força é a Economia da Complexidade, cujas raízes remontam a economia evolucionária de Thorstein Veblen (1898). Uma das principais referências atualmente é o livro "The Microeconomics of Complex Economies", dos autores Wolfram Elsner, Torsten Heinrich e Henning Schwardt. Do ponto de vista macroeconômico, uma fonte importante é o Atlas da Complexidade Econômica, da Universidade de Harvard. O trabalho é resultado de um novo modelo empírico concebido por Ricardo Hausmann com contribuições dos colegas: Cézar A.Hidalgo, Sebastián Bustos, Michele Coscia, Alexander Simoes, Muhammed A. Yildirim que juntos, tentam desenvolver uma nova teoria de desenvolvimento econômico O termo e suas várias definições. Várias definições modernas da 'ciência econômica' foram propostas, algumas refletem visões em evolução do assunto ou visões diferentes entre economistas, incluindo a definição de 'economia' como "o que os economistas fazem". O termo anterior para a 'ciência econômica' era 'economia' política. Ele é adaptado do uso mercantilista francês de "économie politique", que estendeu a "economia" do termo grego antigo para gerenciamento de domicílio ao domínio nacional como administração pública dos assuntos de estado. Sir James Steuart (1767) escreveu o primeiro livro em inglês com 'economia política' no título, explicando-a como tal: A economia em geral [é] a arte de suprir todas as necessidades de uma família, [portanto, a ciência da economia política] procura garantir um certo fundo de subsistência para todos os habitantes, evitar todas as circunstâncias que possam torná-lo precário; fornecer tudo o que é necessário para suprir as necessidades da sociedade e empregar os habitantes ... de maneira a criar naturalmente relações e dependências recíprocas entre eles, de modo a suprir uns aos outros as necessidades recíprocas.A página de rosto dava como tema "população, agricultura, comércio, indústria, dinheiro, moedas, juros, circulação, bancos, câmbio, crédito público e impostos". O filósofo Adam Smith (1776) define o assunto como "uma investigação sobre a natureza e as causas da riqueza das nações", em particular como:um ramo da ciência de um estadista ou legislador [com o duplo objetivo de fornecer] uma receita ou subsistência abundante para o povo ... [e] fornecer ao estado ou à comunidade uma receita para os serviços públicos.Jean-Baptiste Say (1803), distinguindo o assunto de seus usos em políticas públicas, define-o como a ciência "da" produção, distribuição e consumo de riqueza. No lado satírico, Thomas Carlyle (1849) cunhou "a triste ciência" ou ciência sombria ("the dismal science") como um epíteto da economia clássica, nesse contexto, comumente ligado à análise pessimista de Malthus (1798). John Stuart Mill (1844) define o assunto em um contexto social como: A mudança do nível social para o individual aparece nas principais obras da Revolução Marginal. A definição de Carl Menger reflete o foco no homem economizante: William Stanley Jevons, outro autor muito influente da Revolução Marginal, define a economia destacando os aspectos hedônicos e quantitativos da ciência: A disciplina foi renomeada no final do século XIX, principalmente devido a Alfred Marshall, na língua inglesa de "economia política" para "econômica" ("economics") como um termo mais curto para "ciência econômica". Naquela época, tornou-se mais aberta ao pensamento rigoroso e fez uso crescente da matemática, o que ajudou a apoiar os esforços para que ela fosse aceita como ciência e como uma disciplina separada fora da ciência política e de outras ciências sociais. Alfred Marshall fornece uma definição ainda amplamente citada em seu livro "Princípios de Economia" (1890), que estende a análise além da riqueza e do nível social ao microeconômico, criando uma certa síntese das opiniões daqueles ainda mais solidários à economia política clássica (com foco na riqueza social) e aos primeiros a adotar as opiniões expressas na Revolução Marginal (com foco nas necessidades individuais). A inclusão de Marshall da expressão bem-estar também foi muito significativa para a discussão sobre a natureza da economia: Lionel Robbins (1932) desenvolveu implicações do que foi denominado "talvez a definição atual mais comumente aceita do assunto": A economia é uma ciência que estuda o comportamento humano como uma relação entre fins e meios escassos que têm usos alternativos.Robbins descreve a definição como não "classificatória" em "escolher certos "tipos" de comportamento", mas sim "analítica" em "focar a atenção em um "aspecto" particular do comportamento, a forma imposta pela influência da escassez". Alguns comentários subsequentes criticaram a definição como excessivamente ampla ao não limitar seu assunto à análise de mercados. A partir da década de 1960, no entanto, esses comentários foram reduzidos à medida que a teoria econômica de maximizar o comportamento e a modelagem da escolha racional expandiram o domínio do assunto para áreas previamente tratadas em outros campos. Também existem outras críticas, como a escassez não levando em conta a macroeconomia do alto desemprego. Gary Becker, colaborador da expansão da economia em novas áreas, descreve a abordagem que ele favorece como "combinando as suposições de se maximizar o comportamento, as preferências estáveis e o equilíbrio do mercado, usadas de forma implacável e inflexível". Um comentário caracteriza a observação como fazendo da economia uma abordagem, e não um assunto, mas com grande especificidade quanto ao "processo de escolha e ao tipo de interação social que [tal] análise envolve". John Neville Keynes considerava a discussão que antecedeu a definição de economia mais importante do que a própria definição. Seria uma maneira de revelar o escopo, a direção e os problemas que a ciência enfrenta. Uma revisão recente das definições de economia inclui uma variedade daquelas em livros didáticos de princípios, tal como descrições do assunto como o estudo de: Conclui que a falta de concordância não precisa afetar o assunto tratado pelos textos. Entre os economistas de maneira mais geral, argumenta que uma definição específica apresentada pode refletir a direção em que o autor acredita que a economia está evoluindo ou deveria evoluir. Microeconomia. Para Paul Krugman e Robin Wells, Efetivamente, o foco de interesse da microeconomia é, antes de tudo, o estudo das escolhas dos agentes económicos, isto é, da forma como estes procedem dado um conjunto de diferentes opções, comparando os benefícios e inconvenientes para a prossecução dos seus objetivos ou para a satisfação dos seus interesses — o postulado utilitarista. A microeconomia estuda as interações que ocorrem nos mercados em função da informação existente e da regulação estatal. Distinguem-se os mercado de bens e serviços dos mercados de fatores de produção, capital e trabalho, por terem diferentes agentes e formas de funcionamento. A teoria compara os agregados da quantidade global demandada pelos compradores e da quantidade fornecida pelos vendedores, o que determina o preço. Constrói modelos que descrevem como o mercado pode conseguir o equilíbrio entre o preço e a quantidade, ou como pode reagir a alterações do mercado ao longo do tempo, que é o que se denomina de mecanismo da oferta e da procura. As estruturas de mercado, como a concorrência perfeita e o monopólio, são analisadas para tirar conclusões sobre o seu comportamento e a sua eficiência económica. A análise de um mercado é feita a partir de hipóteses simplificadoras, como por exemplo a racionalidade dos agentes e equilíbrio parcial (parte-se do pressuposto de o mercado não é afetado pelo que se passa em outros mercados). Uma análise em equilíbrio geral é um estudo mais abrangente, que permite avaliar as consequências sobre os outros mercados, para compreender as interações e os mecanismos que podem levar a uma situação de equilíbrio. Teoria microeconómica tradicional. A teoria microeconómica padrão assume que os agentes económicos, as famílias ou as empresas, são "racionais", isto é, supõe-se terem habilidades cognitivas e informações suficientes para, por um lado, construir critérios de escolha entre diferentes opções possíveis, por outro, para maximizar a sua satisfação dadas as restrições a que estão sujeitos. Presume-se que são capazes de identificar as restrições sobre estas escolhas, tanto restrições "internas" (as suas capacidades tecnológicas, no caso das empresas, por exemplo), como as "externas" (por exemplo, as resultantes da conjuntura económica). É o paradigma do "homo economicus", que não implica "a priori" que os critérios de escolha dos indivíduos sejam puramente egoístas. Podem perfeitamente ser "racionalmente" altruístas. Esta teoria deve sua existência à síntese feita pela economia matemática neoclássica das décadas de 1940 e 1950, entre os contributos da corrente marginalista do e da teoria do equilíbrio geral de Walras e Pareto. John Hicks e Paul Samuelson são considerados os pais da microeconomia tradicional atual, que podemos dividir em quatro áreas: Produção, custo e eficiência. Em microeconomia, produção é um processo que usa insumos para criar produtos, destinados ao comércio ou ao consumo. A produção é um fluxo, logo é mensurável através de um rácio por unidade de tempo. É comum distinguir entre a produção de bens de consumo (alimentos, cortes de cabelo, etc.) vs. bens de investimento (novos tratores, edifícios, estradas, etc.), bens públicos (defesa nacional, segurança pública, proteção civil, etc.) ou bens privados (computadores novos, bananas, etc.). As entradas para o processo de produção incluem fatores de produção básicos como o trabalho, capital (bens duradouros usados na produção, como uma fábrica) e terra (incluindo recursos naturais). Outros fatores incluem bens intermédios usados na produção dos bens finais, como por exemplo o aço no fabrico de um carro novo. O custo de oportunidade, relacionado com o custo económico, é o valor da melhor alternativa disponível quando se tem que fazer uma escolha entre duas opções mutuamente exclusivas. É descrita como sendo a expressão da "relação básica entre escassez e escolha". O custo de oportunidade é um fator que garante a utilização eficiente dos recursos escassos, pois o custo é ponderado face ao valor gerado, no momento de decidir aumentar ou reduzir uma atividade. Os custos de oportunidade não se restringem a custos monetários. Podem também ser medidos em tempo (de lazer, por exemplo) ou qualquer outra coisa que corresponda a um benefício alternativo (utilidade, no vocabulário microeconómico) A eficiência económica descreve o quanto um sistema utiliza bem os recursos disponíveis, dada a tecnologia disponível. A eficiência aumenta se conseguirmos obter um maior resultado sem aumentar os recursos usados, ou seja, se conseguirmos reduzir o "desperdício". Dizemos que temos uma eficiência de Pareto quando estamos num ponto onde nenhuma alteração na forma como usamos os recursos disponíveis consegue melhorar o resultado para alguém sem piorar a situação de outro. A fronteira de possibilidades de produção (FPP) é uma ferramenta analítica que representa a escassez, custo e eficiência. No caso mais simples, estudamos uma economia que produz apenas dois bens. A FPP é uma tabela ou gráfico (ver ilustração) que mostra as várias combinações de quantidades dos dois produtos que é possível ter, dado a tecnologia e os fatores de produção disponíveis. Cada ponto na curva mostra uma produção potencial total máxima para a economia, que é a produção máxima possível para um bem, dada uma quantidade de produção para o outro bem. É um ponto de eficiência produtiva por maximizar a produção para um total dado de insumos. Um ponto "dentro" da curva é possível mas representa ineficiência produtiva (uso de insumos com desperdício), no sentido de que é possível aumentar a produção de um ou ambos os bens no sentido nordeste em direção a um ponto na curva. O gráfico na ilustração exemplifica uma curva com todos os pontos economicamente eficientes. O ponto A no gráfico, por exemplo, indica-nos que a produção de FA de comida e CA de computadores é eficiente. O mesmo se passa com FB de comida e CB de computadores (ponto B). Os pontos abaixo dessa linha são ineficientes, pois é possível aumentar a produção de um dos bens sem ser forçado a reduzir a produção do outro. A escassez é representada na figura pela impossibilidade de se poder produzir para além da FPP. São os pontos acima da linha, impossíveis de atingir com os recursos e tecnologia disponíveis. É também representada pelo declive da curva, que representa o quanto da produção de um bem diminui quando a produção do outro aumenta, numa relação inversa. Isso ocorre porque uma maior produção de um bem requer a transferência de insumos da produção do outro bem, forçando a sua diminuição. É um exemplo de custo de oportunidade e significa que escolher mais de um bem implica ter menos do outro. Estar na curva pode ainda não satisfazer completamente a Eficiência Alocativa (assim como a "eficiência de Pareto") se a curva não consistir numa combinação de produtos que os consumidores tenham preferência face a outros pontos ou combinações. Numa economia de mercado, o ponto da curva onde a economia se posiciona pode ser explicado pela escolha que os agentes pensam mais preferível. Muito da economia aplicada em políticas públicas está preocupada em determinar como a eficiência de uma economia pode ser aumentada. Encarar a realidade da escassez para então perceber como podemos organizar a sociedade para ter o uso mais eficiente dos recursos tem sido descrito como sendo a "essência da economia", onde a disciplina "faz a sua contribuição ímpar". Especialização. A especialização é considerada um aspecto chave para a eficiência económica, devido a diferentes agentes (indivíduos ou países) terem diferentes vantagens comparativas. Mesmo que um país detenha vantagem absoluta em todos os setores, tem vantagem em se especializar nas áreas onde tenha as maiores vantagens comparativas, efetuando depois trocas comerciais com outros países. Consegue desta forma obter uma maior quantidade dos produtos onde não se especializou comparado com a opção de produzir tudo por si. Um exemplo disso é a especialização dos países desenvolvidos em produtos de alta tecnologia, preferindo adquirir os bens de manufatura aos países em desenvolvimento, onde a mão de obra é barata e abundante. A teoria defende que desta forma se consegue obter um maior total de produtos e utilidade, comparando com a situação em que cada país decide pela produção própria de todos os produtos. A teoria da vantagem comparativa é responsável pela crença generalizada dos economistas nos benefícios do comércio livre. O conceito aplica-se a indivíduos, fazendas, fábricas, fornecedores de serviços e a economias. Em qualquer um destes sistemas produtivos podemos ter: A Riqueza das Nações (1776), de Adam Smith faz uma discussão notável dos benefícios da divisão do trabalho. A forma como os indivíduos podem aplicar da melhor forma o seu trabalho, ou qualquer outro recurso, é um tema central do primeiro livro da obra. Smith afirmava que um indivíduo deveria investir recursos, por exemplo, terra e trabalho, de forma a obter o maior retorno possível. Desta forma, as várias aplicações de um mesmo recurso devem ter uma taxa de retorno igual (ajustada pelo risco relativo associado a cada atividade). Caso contrário, acabaria por ocorrer uma realocação de recursos melhorando o retorno. O economista francês Turgot fez o mesmo raciocínio dez anos antes, em 1766. Estas ideias, escreveu George Stigler, são a proposição central da teoria econômica. De forma mais geral, a teoria diz que fatores do mercado, como os custos de produção e os preços dos insumos, determinam a alocação dos fatores de produção tendo em conta a "vantagem comparativa". São escolhidos os insumos mais baratos, de forma a ter o mais baixo "custo de oportunidade" para cada tipo de produto. Com este processo, a produção agregada aumenta como efeito colateral. Esta especialização da produção cria oportunidades para "ganhos com o comércio" em que os detentores dos recursos beneficiam do comércio vendendo um tipo de produto contra outros bens de maior valor. Uma medida dos ganhos de comércio é o aumento na produção (formalmente, a soma do acréscimo do excedente do consumidor e dos lucros do produtor) resultante da especialização na produção e do consequente comércio. Oferta e demanda. A teoria de oferta e demanda explica os preços e as quantidades dos bens transacionados numa economia de mercado e as respetivas variações. Na teoria microeconômica em particular, refere-se à determinação do preço e quantidade num mercado de concorrência perfeita, que tem um papel fundamental na construção de modelos para outras estruturas de mercado, como monopólio, oligopólio e competição monopolística) e para outras abordagens teóricas. Para o mercado de um bem, a "demanda" mostra a quantidade que os possíveis compradores estariam dispostos a comprar para cada preço unitário do bem. A demanda é frequentemente representada usando uma tabela ou um gráfico relacionando o preço com a quantidade demandada (ver figura). A teoria da demanda descreve os consumidores individuais como entidades "racionais" que escolhem a quantidade "melhor possível" de cada bem, em função dos rendimentos, preços, preferências, etc. Uma expressão para isso é 'maximização da utilidade restringida' (sendo a renda a "restrição" da demanda). Para esse contexto, "utilidade" refere-se às hipotéticas preferências relativas dos consumidores individuais. A utilidade e a renda são então usadas para modelar os efeitos de mudanças de preço nas quantidades demandadas. Mercado e imperfeições de mercado. Agir pelo interesse individual conduz muitas vezes ao interesse geral, mas nem sempre é assim. Paul Krugman e Robin Wells notam que "a mão invisível não é sempre nossa aliada". Uma falha de mercado é um situação na qual o mercado não consegue a alocação óptima dos recursos económicos e dos bens e serviços. Isso pode acontecer, por exemplo, no caso de um monopólio (ou de um cartel), ou de uma situação em que coexistam desemprego e falta de mão de obra, ou ainda a existência de poluição. A falha de mercado, no sentido de alocação económica, é um conceito diferente da anomalia de mercado, que tem um caráter mais financeiro, não da falta de eficiência do mercado. A anomalia de mercado diz respeito ao rendimento financeiro e a uma anomalia nos preços devida a fenómenos comportamentais. Estes dois fenómenos podem ser a causa ou a consequência um do outro, ou resultar de uma causa comum. O conceito de falha tem também um aspecto político, e por isso algo controverso, na medida em que serve para justificar intervenções políticas para “corrigir”, ou até mesmo suprimir, o mercado. Apesar disso, a generalidade dos economistas utiliza o termo mais para se referir às situações em que o funcionamento real de um mercado se afasta significativamente do mercado perfeito, devido ao efeito de três causas principais: O autores liberais, após o surgimento da teoria da escolha pública, acrescentam uma quarta causa, que na sua opinião tem consequências bem mais graves: Novas teorias: compreendendo melhor a concorrência imperfeita. A partir da década de 1970 o paradigma dominante na microeconomia sofre uma inflexão de modo a melhor integrar todas as anomalias e imperfeições do mercado. Para Pierre Cahuc "a nova microeconomia foi construída progressivamente, a partir de críticas dispersas, muitas inicialmente de forma isolada, ao modelo walrasiano". De uma forma mais geral, para a economista Anne Perrot, o edifício teórico da microeconomia tradicional deixava "desarmado o economista que procurasse uma representação positiva do funcionamento do mercado". Esta mudança aconteceu num momento em que a macroeconomia buscava os seus fundamentos microeconómicos, de forma que iria gerar alguma convergência entre os dois campos. O quadro geral da nova microeconomia é preferencialmente reduzido à análise de um só mercado e o seu estudo científico baseia-se mais em constatações que se julga serem representativas do funcionamento da economia (que são apelidados de "factos estilizados"). A nova microeconomia enfatiza os problemas relativos aos estímulos, à informação e à teoria dos jogos. Por "estímulo" entende-se toda a ação de um agente económico (incluindo o Estado) que levem a certos agentes económicos adotar este ou aquele comportamento. Esta noção tem todo o sentido se considerarmos que a informação disponível é inevitavelmente limitada por um agente económico desejoso de incentivar outros agentes a ter comportamentos do seu interesse. A teoria dos jogos, por seu lado, é um ramo da matemática aplicada que estuda as interações estratégicas entre agentes. Segundo essa teoria, os agentes escolhem as estratégias que maximizam os seus benefícios, sendo dadas as estratégias que os outros agentes irão escolher. Propõem um modelo formal das situações em que os decisores interagem com outros agentes. A teoria dos jogos generaliza a abordagem de maximização desenvolvida anteriormente para a análise de mercados. Foi desenvolvida a partir do livro de 1944 "Theory of Games and Economic Behavior", de John von Neumann e Oskar Morgenstern. É também empregue em numerosos domínios não económicos: estratégia nuclear, ética, ciência política e teoria evolucionista. A extensão da abordagem microeconómica conduziu também ao desenvolvimento da "teoria dos contratos". Esta teoria conceptualiza as organizações, instituições, famílias e empresas como conjuntos de contratos (nós de contratos, na terminologia económica). Uma empresa é, por exemplo, um nó composto por contratos de trabalho, ligando-a aos seus assalariados, por contratos ligando-a aos seus clientes e fornecedores, por contratos de produtos bancários e financeiros, por contratos legais ligando-a ao seu Estado ou região em matéria fiscal e de regulação. Os mercados são outro caso particular de nós de contratos, neste caso de contratos de comércio. Os Estados, no sentido das organizações políticas que administram determinados espaços geográficos, são um outro exemplo de nó contratual, representando as Constituições contratos gerais ligando estas organizações ao povo que governam. Um aspecto importante dos contratos é, regra geral, serem "incompletos", isto é, não conseguem especificar totalmente as obrigações das partes em todas as situações possíveis. O desenvolvimento desta teoria gerou naturalmente um aprofundamento das teorias da negociação e renegociação. De facto, o seu propósito é não só explicar como e porquê os contratos são formados entre os agentes, mas também as razões pelas quais eles os põem, ou não, em causa com o decorrer do tempo. A nova microeconomia pode ser usada pela economia industrial, economia do trabalho e pela economia pública, devido à sua capacidade para se aproximar das preocupações práticas de certos industriais. Macroeconomia. A macroeconomia, também conhecida como "cross-section", examina a economia como um todo, "de cima para baixo", para explicar amplos agregados e suas interações. Tais agregados incluem as medições do produto nacional bruto, a taxa de desemprego, e inflação dos preços e subagregados como o consumo todas e os gastos com investimento e seus componentes. Ela também estuda os efeitos da política monetária e política fiscal. Desde pelo menos os anos 1960, a macroeconomia tem sido caracterizada pela integração cada vez maior com a modelagem de base micro de setores, inclusive a racionalidade dos agentes, o uso eficiente da informação no mercado, e a competição imperfeita. Isso tem abordado uma antiga preocupação sobre as inconsistências no desenvolvimentos da disciplina. A análise macroeconômica também considera fatores que afetem o nível de crescimento da renda nacional no longo-prazo. Tais fatores incluem a acumulação de capital, mudança tecnológica e crescimento da força de trabalho. Crescimento e economia do desenvolvimento. A "economia do desenvolvimento" estuda fatores que explicam o crescimento econômico – o aumento na produção per capita de um país ao longo de um extenso período de tempo. Os mesmos fatores são usados para explicar diferenças no "nível" de produção per capita "entre" países. Fatores muito estudados incluem a taxa de investimento, crescimento populacional, e mudança tecnológica. Que estão representados em formas empíricas e teóricas (como no modelo de crescimento neoclássico) e na contabilidade do crescimento. O campo distinto da "economia do desenvolvimento" examina aspectos econômicos do processo de desenvolvimento em países de baixa renda focando em mudanças estruturais, pobreza, e crescimento econômico. Abordagens em economia do desenvolvimento frequentemente incorporam fatores políticos e sociais. Sistemas econômicos. "Sistemas econômicos" é o ramo da economia que estuda os métodos e instituições pelas quais sociedades determinam a propriedade, direção e alocação dos recursos econômicos e as suas respectivas trajetórias de desenvolvimento econômico. Um "sistema econômico" de uma sociedade é a unidade de análise. Entre sistemas contemporâneos em diferentes partes do espectro organizacional são os sistemas socialistas e os sistemas capitalistas, nos quais ocorre a maior parte da produção, respectivamente em empresas estatais e privadas. Entre esses extremos estão as economias mistas. Um elemento comum é a interação de influências políticas e econômicas, amplamente descritas como economia política. "Sistemas econômicos comparados" é a área que estuda a performance e o comportamento relativos de diferentes economias ou sistemas. Contas nacionais. A contabilidade nacional é um método para listar a atividade econômica agregada de uma nação. As contas nacionais são sistemas contábeis de partidas dobradas que fornecem informações detalhadas sobre a atividade econômica de um país. Essas incluem o produto nacional bruto (PNB), que fornece estimativas para o valor monetário da produção e da renda por ano ou por trimestre. O PNB permite que se acompanhe a performance de uma economia e seus componentes ao longo de ciclos econômicos ou períodos históricos. Dados de preços pedem permitir a distinção entre valores reais e nominais, isto é, corrigir totais monetários para refletir as variações nos preços ao longo do tempo. As contas nacionais também incluem aferições do estoque de capital, riqueza de uma nação, e fluxos internacionais de capital. Campos de aplicação da economia. A economia tem inúmeros campos de estudo, abordando temáticas específicas. Os códigos de classificação JEL constituem um sistema de classificação dos assuntos em economia muito usado em publicações da área. Economia aplicada ao poder público. A economia política junta economia, legislação e ciência política para explicar como as instituições políticas e o sistema económico (capitalista, socialista ou misto) interagem. Estuda questões como impacto na política seguida pelos governos de factores como monopólios, comportamento para obtenção de rendimento e externalidades. Para o prémio Nobel da economia Edmund Phelps "a economia política é o estudo das estruturas alternativas de rendimentos entre as quais a sociedade pode — e deve — escolher: como os mecanismos de um dado sistema, os impostos, subsídios, obrigações, deveres etc. atuam sobre os indivíduos e até que ponto funcionam bem ou mal?". A economia pública ocupa-se do sector produtor de bens públicos e é frequentemente considerado um ramo da economia cujo objeto é o fornecimento de bens coletivos gratuitos cujos custos são financiados através de impostos. De forma mais geral, integra também a produção de bens de mercado por empresas públicas. Estuda também as políticas que um Estado deve conduzir para promover o desenvolvimento económico e o bem-estar da população e os problemas de desigualdade social e redistribuição da riqueza. Finanças públicas é o ramo da economia que lida com os gastos e receitas das entidades do setor público, geralmente o governo. Aborda questões como incidência fiscal (quem realmente paga um imposto), análise custo-benefício de programas do governo, efeitos na eficiência econômica e distribuição de renda de diferentes tipos de gastos e políticas fiscais. Essa última, um aspecto da teoria da escolha pública, modela o comportamento do setor público de forma análoga à microeconomia, envolvendo interações de eleitores, políticos e burocratas interessados em si mesmos. A economia do bem-estar é um ramo normativo da economia que usa técnicas da microeconomia para determinar a eficiência de alocação e a distribuição de renda que lhe está associada. Visa medir o bem-estar social examinando as atividades econômicas dos indivíduos que compõem a sociedade. A análise econômica do direito ("Economic Analysis of Law" ou "Law and Economics" em inglês) é a disciplina que procura explicar os fenómenos jurídicos através de métodos e conceitos da ciência económica. Usa de conceito econômicos para explicar os efeitos de normas legais a fim de determinar ou prever se serão economicamente eficientes. São feitas críticas à intervenção pública. Para os economistas da teoria da escolha pública, os políticos e funcionários procuram o seu interesse individual e não o interesse geral. os primeiros procuram ser reeleitos, e os últimos procurar melhorar os seus rendimentos e poderes. A busca de renda (do inglês "rent-seeking") retrata o comportamento de indivíduos e organizações que procuram obter rendimentos através de regulamentação que lhe seja favorável, ao invés de o conseguir através de uma atividade realmente criadora de riqueza. Por exemplo, estudos neste domínio evidenciam a existência de esforços para assegurar situações de monopólio. Economia aplicada à empresa. A economia industrial, também conhecida nos Estados Unidos como organização industrial, estuda o comportamento estratégico das empresas, a estrutura dos mercados e suas interações. As estruturas comuns do mercado incluem competição perfeita, competição monopolística, várias formas de oligopólio e monopólio. A economia gerencial aplica análise microeconômica para especificar decisões nas organizações. Ela se aproveita pesadamente de métodos quantitativos como pesquisa operacional e programação e também de métodos estatísticos como a regressão ausentes a certeza e informação perfeita. Um tema unificador é a tentativa de otimizar decisões de negócios, inclusive minimização de custo por unidade e maximização de lucro, dados os objetivos da firma e limitações impostas pela tecnologia e condições de mercado. Economia aplicada a um domínio particular. Economia individual. Segundo alguns autores, as necessidades do ser humano como indivíduo, tais como se alimentar, se abrigar e até mesmo respirar, exigem consumo de produtos conseguidos com uma atividade econômica, nesse caso chamada de "Economia Individual". Os extremos são os exemplos históricos ou literários clássicos como o de Santo Antão que viveu numa caverna do deserto da Arábia e que plantava trigo e fabricava pão para se sustentar; e de Robinson Crusoé que praticou várias atividades econômicas para se manter enquanto esteve isolado numa ilha oceânica. Outros autores, como Oscar Dias Corrêa, preferem não reconhecer tais atividades como econômicas ou pertencentes ao estudo da Economia. Economia familiar. Nas famílias primitivas autossuficientes já se identificavam as diversas fases da Economia: o produto de todos (da caça, pesca, plantação e colheita) era distribuído pelos chefes da família e consumido. O grupo necessitava de um planejamento rudimentar das atividades, que ficava a cargo do chefe familiar que o aplicava de forma autoritária e que, além de distribuir as atividades, podia também racionar o consumo. Economia internacional. O comércio internacional estuda os determinantes dos fluxos de bens e serviços através das fronteiras internacionais. Também estuda a quantidade e forma de distribuição dos ganhos com o comércio. Aplicações em política incluem a capacidade de estimar os efeitos da alteração de taxas alfandegárias e quotas de comércio. A primeira teoria de comércio internacional (teoria clássica de comércio internacional) foi formulada no início do por David Ricardo, também sendo conhecida por Teoria das Vantagens Comparativas ou Princípio das Vantagens Comparativas. Finanças internacionais é uma área de estudo da macroeconomia que estuda os fluxos de capital através das fronteiras internacionais e os efeitos desses movimentos nas taxas de câmbio. O aumento do comércio de bens, serviços e capitais entre países é um dos maiores efeitos da globalização contemporânea. A área de estudo da "economia do desenvolvimento" aborda os aspetos económicos do processo de desenvolvimento nos países em vias de desenvolvimento, focando na mudança estrutural, pobreza e crescimento económico. As abordagens à economia do desenvolvimento incorporam frequentemente fatores sociais e políticos. "Sistemas económicos" é o ramo da economia que estuda os métodos e instituições através dos quais as sociedades determinam a propriedade, direção, e alocação dos recursos económicos. O "sistema económico" de uma sociedade é a unidade de análise. Os extremos do espetro de sistema económicos são as economias planificadas e os sistemas capitalistas, onde a maioria da produção é efetuada, respetivamente, em organizações detidas pelo estado ou pela iniciativa privada. Como meio termo temos as economias mistas. Um elemento comum a qualquer dos sistemas é a interação entre o poder económico e político, largamente descrito pela economia política. Economia agrícola. A economia da agricultura é uma das mais antigas e mais bem estabelecidas áreas da economia. É o estudo das forças econômicas que afetam o setor agrícola e o impacto do setor agrícola no resto da economia. É uma área da economia que, graças à necessidade de se aplicar a teoria microeconômica a situações complexas do mundo real, tem contribuído com avanços importantes de aplicação mais geral; o papel do risco e da incerteza, o comportamento das famílias e as ligações entre direito de propriedade e incentivos. Mais recentemente áreas como o comércio internacional de "commodities" e meio ambiente tem recebido grande atenção. Economia da informação. A economia da informação examina como a informação (ou sua falta) afeta o processo decisório econômico. Um importante foco da disciplina é o conceito de assimetria de informação, onde um participante possui mais ou melhor informação que a outra. A existência da assimetria de informação abre espaço para o surgimento de problemas como risco moral e seleção adversa estudada na teoria dos contratos. A economia da informação tem relevância em muitas áreas como finanças, seguros, direito, e processo decisório em condições de risco e incerteza. Economia do trabalho. A economia do trabalho procura entender o funcionamento do mercado e a sua dinâmica relacionada ao trabalho. Os mercados de trabalho funcionam através das interações entre trabalhadores e empregadores. A economia do trabalho observa os ofertantes de força-de-trabalho (trabalhadores), seus demandantes (empregadores) e tenta entender os padrões resultantes de salários e outras rendas do trabalho, de emprego e desemprego. Usos práticos incluem a assistência na formulação de políticas de pleno emprego. Métodos, teoria e prática. Raciocínio econômico. A economia enquanto uma disciplina contemporânea se fia em estilos rigorosos de argumentação. Os objetivos incluem a formulação de teorias que sejam mais simples, mais frutíferas e mais confiáveis do que outras teorias ou nenhuma teoria. A análise pode começar com um simples modelo que propõe uma hipótese de uma variável a ser explicada por outra variável. Com frequência uma hipótese em economia é somente qualitativa, não "quantitativa". Isto é, a hipótese implica a "direção" de uma mudança em uma variável, não o "tamanho" da mudança, para uma certa mudança de outra variável. Para clareza de exposição, a teoria pode proceder com a suposição de "ceteris paribus", isto é, mantendo constante outros termos explicatórios que não aquele em questão. Por exemplo, a teoria quantitativa da moeda prediz um aumento no valor nominal da produção a partir de um aumento da oferta de moeda, "ceteris paribus". A teoria econômica é aberta às críticas de que ela confia em suposições irrealistas, não verificáveis ou altamente simplificadas. Um exemplo é a suposição da maximização do lucro pelas firmas competitivas. Respostas de executivos a perguntas sobre os fatores que afetam as suas decisões podem mostrar nenhum cálculo desse tipo. Métodos quantitativos e matemáticos. A ciência econômica como disciplina acadêmica frequentemente usa métodos geométricos, além de métodos literários. Outros métodos quantitativos e matemáticos também são frequentemente usados para análises rigorosas da economia ou de áreas dentro da economia. Tais métodos incluem os seguintes. Economia matemática. A economia matemática se refere a aplicações de métodos matemáticos para representar a teoria econômica ou analisar problemas surgidos na economia. Esses métodos incluem cálculo e álgebra matricial. Autores citam suas vantagens na formulação e derivação de relações centrais em um modelo econômico com clareza, generalidade, rigor, e simplicidade. Por exemplo, o livro de Paul Samuelson "Fundamentos da Análise Econômica" (1947) identifica uma estrutura matemática comum através de vários campos da disciplina. Econometria. A econometria aplica métodos matemáticos e estatísticos para analisar dados relacionados com modelos econômicos. Por exemplo, uma teoria pode levantar a hipótese de que pessoas com mais educação irão ter renda mais alta, na média, do que uma pessoa com menos educação, mantido o resto constante. Estimativas econométricas podem delimitar a magnitude e a significância estatística da relação. A econometria pode ser usada para tecer generalizações quantitativas. Essas incluem testar ou refinar uma teoria, descrever uma relação de variáveis no passado e prever variáveis futuras. Teoria dos jogos. A teoria dos jogos é um ramo da matemática aplicada que estuda as interações estratégicas entre agentes. Nos jogos estratégicos, agentes escolhem estratégias que irão maximizar suas vantagens, dadas as estratégias que os outros agentes escolherem. Ela fornece uma abordagem formal para a modelação de situações sociais em que os decisores interagem com outros agentes. A teoria dos jogos generaliza as abordagens ao problema da maximização desenvolvidas para analisar mercados como o modelo de oferta e demanda. O campo de estudo remonta ao clássico de 1944 "Theory of Games and Economic Behavior" de John von Neumann e Oskar Morgenstern. Tem encontrado aplicações significativas em muitas áreas fora da economia, incluindo a formulação de estratégia nuclear, ética, ciência política, e teoria evolucionária. Profissão. A profissionalização da economia, refletida no crescimento dos cursos de graduação, tem sido descrita como "a principal mudança na economia desde 1900". A maioria das principais universidades e faculdades tem um curso, escola ou departamento que atribui títulos académicos na área. Há dezenas de prêmios concedidos a economistas a cada ano por contribuições intelectuais destacadas para o campo, o mais proeminente dos quais é o Prêmio do Banco da Suécia para as Ciências Econômicas em Memória de Alfred Nobel, embora não seja um Prêmio Nobel. No mundo profissional, os economistas encontram ocupação como consultores, principalmente nos setores bancário e financeiro. No setor público podem trabalhar em várias agências e departamentos como o tesouro nacional, o Banco Central, e entidades oficiais de estatística, entre outros. História e escolas de pensamento. Pensamento econômico antigo. O pensamento econômico na Antiguidade remonta às civilizações mesopotâmicas, Grega, Romana, Indiana, Chinesa, Persa e árabe. Dentro os autores mais notáveis estão Aristóteles, Chanakya, Qin Shi Huang, Tomás de Aquino e ibne Caldune. Joseph Schumpeter considerou inicialmente a escolástica tardia do período que vai do ao XVII como a "que chega mais perto do que qualquer outro grupo de ser os 'fundadores' da economia científica quanto às teoria monetária, de juros e do valor dentro de uma perspectiva das leis naturais. Depois de descobrir a obra "Muqaddimah" de ibne Caldune, no entanto, Schumpeter mais tarde considerou ibne Caldune o mais próximo antecedente da economia moderna, uma vez que muitas das suas teorias econômicas não eram conhecidas na Europa até épocas modernas. Dois outros grupos, mais tarde chamados de ' mercantilistas e 'fisiocratas', influenciaram mais diretamente o desenvolvimento subsequente da disciplina. Ambos os grupos estavam associados com a ascensão do nacionalismo econômico e do capitalismo moderno na Europa. O mercantilismo era uma doutrina econômica que floresceu do ao XVIII através de uma prolífica literatura de panfleto quer de autoria de mercantes ou estadistas. Defendiam a ideia de que a riqueza de uma nação dependia da sua acumulação de ouro e prata. Nação que não tinham acesso à minas poderiam obter ouro e prata através do comércio internacional apenas se vendessem bens ao exterior e restringissem as importações que não fossem de ouro e prata. A doutrina advogava a importação de matérias-primas baratas para serem transformadas em produtos manufaturados destinados à exportação e também o intervencionismo estatal no sentido de impor tarifas protecionistas à importação de produtos manufaturados e a proibição de manufaturas nas colônias. Os fisiocratas, um grupo de pensadores e escritores franceses do , desenvolveram a ideia da economia como um fluxo circular. Adam Smith descreveu esse sistema com "todas as suas imperfeições" como "talvez a mais pura aproximação da verdade que já foi publicada" no assunto. Os fisiocratas acreditavam que somente a produção agrícola gerava um claro excedente sobre o custo, de forma que a agricultura constituía a base de toda riqueza. Assim, eles se opunham às políticas mercantilistas de promoção das manufaturas e do comércio em detrimento da agricultura, inclusive tarifas de importação. Advogavam a substituição do complexo e custoso sistema de arrecadação de tributos por um único imposto sobre a renda dos proprietários de terra. Variações sobre tal imposto fundiário foram retomadas por economistas posteriores (inclusive Henry George um século mais tarde) como uma fonte de receita que não distorcia tanto a economia. Como reação às copiosas regulamentações mercantilistas, os fisiocratas defendiam uma política de laissez-faire, que consistia numa intervenção estatal mínima na economia. Economia clássica. Apesar das discussões sobre produção e distribuição terem uma longa história, a ciência econômica no seu sentido moderno como uma disciplina separada é convencionalmente datada a partir da publicação de "A Riqueza das Nações" de Adam Smith em 1776. Nesse trabalho, ele descreve a disciplina nesses exatos termos: Smith se referia à disciplina como 'economia política', mas esse termo foi gradualmente substituído por ciência econômica ("economics") depois de 1870. A publicação da obra A Riqueza das Nações de Adam Smith em 1776, tem sido descrita como o "efetivo nascimento da economia como uma disciplina separada". O livro identificava o trabalho, a terra e o capital como os três fatores de produção e maiores contribuidores para a riqueza de uma nação. Para Smith, a economia ideal seria um sistema de mercado auto-regulador que automaticamente satisfaria as necessidades econômicas da população. Ele descreveu o mecanismo de mercado como uma "mão invisível" que leva todos os indivíduos, na busca de seus próprios interesses, a produzir o maior benefício para a sociedade como um todo. Smith incorporou algumas das ideias dos fisiocratas, inclusive o laissez-faire, nas suas próprias teorias econômicas, mas rejeitou a ideia de que somente a agricultura era produtiva. Na sua famosa analogia da mão invisível, Smith argumentou em favor da noção, aparentemente paradoxal de que os mercados competitivos tendem a satisfazer às necessidades sociais mais amplas, apesar de ser guiado por interesses-próprios. A abordagem geral que Smith ajudou a formular foi chamada do economia política e mais tarde de economia clássica e incluiu nomes notáveis como Thomas Malthus, David Ricardo e John Stuart Mill, que escreveram de 1770 a 1870, aproximadamente. Enquanto Adam Smith enfatizou a produção de renda, David Ricardo na sua distribuição entre proprietários de terras, trabalhadores e capitalistas. Ricardo enxergou um conflito inerente entre proprietários de terras e capitalistas. Ele propôs que o crescimento da população e do capital, ao pressionar um suprimento fixo de terras, eleva os aluguéis e deprime os salários e os lucros. Thomas Robert Malthus usou a ideia dos retornos decrescentes para explicar as baixa condições de vida na Inglaterra. De acordo com ele, a população tendia a crescer geometricamente sobrecarregando a produção de alimentos, que cresceria aritmeticamente. A pressão que uma população crescente exerceria sobre um estoque fixo de terras significa produtividade decrescente do trabalho, uma vez que terras cada vez menos produtivas seriam incorporadas à atividade agrícola para suprir a demanda. O resultado seria salários cronicamente baixos, que impediriam que o padrão de vida da maioria da população se elevasse acima do nível de subsistência. Malthus também questionou a automaticidade da economia de mercado para produzir o pleno emprego. Ele culpou a tendência da economia de limitar o gasto por causa do excesso de poupança pelo desemprego, um tema que ficou esquecido por muitos anos até que John Maynard Keynes a reviveu nos anos 1930. No final da tradição clássica, John Stuart Mill divergiu dos autores anteriores quanto a inevitabilidade da distribuição de renda pelos mecanismos de mercado. Mill apontou uma diferença dois papéis do mercado: alocação de recursos e distribuição de renda. O mercado pode ser eficiente na alocação de recursos mas não na distribuição de renda, ele escreveu, de forma que seria necessário que a sociedade intervenha. A teoria do valor foi importante na teoria clássica. Smith escreveu que "o preço real de qualquer coisa… é o esforço e o trabalho de adquiri-la" o que é influenciado pela sua escassez. Smith dizia que os aluguéis e os salários também entravam na composição do preço de uma mercadoria. Outros economistas clássicos apresentaram variações das ideias de Smith, chamada 'Teoria do valor-trabalho'. Economistas clássicos se focaram na tendência do mercado de atingir o equilíbrio no longo prazo. Economia marxiana. A economia marxista, mais tarde chamada marxiana, descende da economia clássica, em particular da obra de Karl Marx. O primeiro volume da obra de Marx, O Capital, foi publicada em alemão em 1867. Nela, Marx foca escreve sobre sua "teoria do valor-trabalho" e o que ele considera a exploração do trabalho pelo capital. Assim, a teoria do valor-trabalho, além de ser uma simples teoria dos preços, se transformou em um método para medir a utilização do trabalho num sistema capitalista, apesar de disfarçadas pela economia política "vulgar". Economia neoclássica. Um corpo teórico mais tarde chamado de 'economia neoclássica' ou 'economia marginalista' se formou entre 1870 e 1910. A expressão economics foi popularizada na língua inglesa por economistas neoclássicos como Alfred Marshall, como substituto para 'economia política'. A economia neoclássica sistematizou a oferta e demanda como determinantes conjuntos do preço e da quantidade transacionada em um equilíbrio de mercado, afetando tanto a alocação da produção quanto a distribuição de renda. Ela dispensou a teoria do valor-trabalho em favor da teoria do valor-utilidade marginal no lado da demanda e uma teoria mais geral de custos no lado da oferta. Na microeconomia, a economia neoclássica diz que os incentivos e os custos tem um papel importante no processo de tomada de decisão. Um exemplo imediato disso é a teoria do consumidor da demanda individual, que isola como os preços (enquanto custos) e a renda afetam a quantidade demandada. Na macroeconomia é refletida numa antiga e duradoura síntese neoclássica com a macroeconomia keynesiana. A economia neoclássica é a base do que hoje é chamada economia ortodoxa, tanto pelos críticos quanto pelos simpatizantes, mas com muitos refinamentos que ou complementam ou generalizam as análises anteriores , como a econometria, a teoria dos jogos, a análise das falhas de mercado e da competição imperfeita, assim como o modelo neoclássico do crescimento econômico para a análise das variáveis de longo-prazo que afetam a renda nacional. Economia keynesiana. A economia keynesiana deriva de John Maynard Keynes, em particular do seu livro "A Teoria Geral do Emprego, do Juro e da Moeda" (1936), que deu início à macroeconomia como um campo de estudo distinto. O livro foca nos determinantes da renda nacional no curto prazo, em que os preços são relativamente inflexíveis. Keynes tentou explicar com riqueza de detalhes teóricos por que o alto desemprego poderia não ser auto-corrigido devido a baixa "demanda efetiva" e por que mesmo a flexibilidade dos preços e a política monetária pode não ser suficiente para corrigir a situação. Expressão como "revolucionário" foram aplicadas ao livro devido ao seu impacto na análise econômica. A economia keynesiana teve dois sucessores. A economia pós-keynesiana que busca resgatar as principais contribuições da Teoria Geral de Keynes, tendo economistas com pontos de vista plurais. É geralmente associada à Universidade de Cambridge e à obra de Joan Robinson. A nova economia keynesiana também está associada com desenvolvimentos à maneira keynesiana. No Brasil, grandes centros Keynesianos estão em Campinas, UNICAMP e no Rio de Janeiro, UFRJ. Na verdade, a economia keynesiana não estabelece restrição alguma de preços e salários, o que Keynes disse foi o seguinte: em uma recessão, caso exista flexibilidade de preços e salários, o problema econômico será mais grave e ocorrerá de forma cumulativa. Por que? Na lógica individual da empresa (a microeconômica), com a crise faz sentido para a empresa reduzir salários e demitir funcionários. Contudo, aplicando a lógica para todo um setor ou para toda economia, a facilidade de reduzir salários e demitir acaba por deprimir ainda mais a economia, pois se de um lado o trabalhador é um custo para a empresa individual, de outro ele é consumidor de outras empresas. Caso ocorra o fato de muitos serem desempregados e a redução da renda for acentuada, a demanda agregada se reduzirá ainda mais. Desta forma o faturamento dos vários setores se reduzirá ainda mais, e o esforço de redução de custos inicial será solapado e o processo entra em nova espiral, agravando a crise, com mais queda de faturamento, mais redução de renda, mais desemprego. Economia keynesiana significa estudar como a economia funciona na realidade, na qual os agentes modificam suas decisões frente a mudança de expectativas sobre o futuro (que não é passível de certeza matemática) Economia keynesiana enfatiza que o objetivo da produção é o lucro, mas que os agentes não maximizam previamente o lucro, dependem das decisões de todos os demais agentes sobre o que eles vão fazer com seu dinheiro, isto é, quanto as pessoas vão consumir de sua renda, quanto vão poupar, de que forma vão poupar, e além da poupança, como vão aplicar seu estoque de riqueza, qual taxa de retorno desejam, com qual liquidez e a que risco. Sendo isto válido para o público em geral, empresários, banqueiros e instituições financeiras. Outras escolas e abordagens. Outras escolas reconhecidas ou linhas de pensamento relacionadas a um estilo próprio de fazer economia, disseminadas por um grupo bem conhecido de acadêmicos incluem a Escola Austríaca, Escola de Chicago, a Escola de Friburgo, a escola de Lausanne e a escola de Estocolmo. Dentro da macroeconomia há, em ordem geral de aparecimento na literatura: economia clássica, economia keynesiana, a síntese neoclássica, economia pós-keynesiana, monetarismo, nova economia clássica e Economia pelo lado da oferta. Novos desenvolvimentos alternativos incluem economia ecológica, economia evolucionária, teoria da dependência, economia estruturalista, teoria dos juros da abstinência e teoria do sistema-mundo. Definições históricas da economia. Discussões influentes nos primórdio da economia política estavam relacionadas com a "riqueza" amplamente definida, como na obra de David Hume e Adam Smith. Hume argumentava que ouro adicional sem incremento da produção só servia para aumentar os preços. Smith também descreveu a riqueza real não em termos de ouro e prata como anteriormente, mas como a "produção anual do trabalho e da terra da sociedade". John Stuart Mill definiu a economia como "a ciência prática de produção e distribuição de riqueza"; esta foi a definição adotada pelo "Concise Oxford English Dictionary" apesar de não incluir o papel vital do consumo. Para Mill, a riqueza é definida como o estoque de coisas úteis. Definições da disciplina em termos de riqueza enfatizam a produção e o consumo. Essa definição foi acusada pelos críticos por ser estreita demais, colocando a riqueza à frente do homem. Por exemplo, John Ruskin chamou a economia política de "a ciência de ficar rico" e a "bastard science". Definições mais amplas se desenvolveram para incluir o estudo do homem, da atividade humana e do seu bem-estar. Alfred Marshall, no seu livro "Principles of Economics", escreveu, "A Economia Política ou Economia é um estudo da humanidade nos negócios da vida cotidiana; ela examina essa parte do indivíduo e da ação social que é mais fortemente ligada ao uso dos requisitos materiais para o bem-estar". Crítica. A economia é uma ciência? Uma das características de qualquer ciência é o uso do método científico, com a exigência de estabelecer hipóteses e fazer predições que possam ser testadas com dados empíricos, onde os resultados são passíveis de serem demonstrados e repetidos, através da reprodução das mesmas condições da experiência. Em economia são conduzidos algumas experiências em áreas aplicadas, em particular nos sub-campos da economia experimental e comportamento do consumidor, focados na experimentação usando sujeitos humanos; e no sub-campo da econometria, focada em testar hipóteses quando os dados estatísticos não são gerados em experimentos controlados. No entanto, à semelhança das outras ciências sociais, pode ser difícil os economistas conduzirem certos experimentos formais devido a questões práticas e morais envolvendo sujeitos humanos. O estatuto das ciências sociais como ciências empíricas, ou mesmo ciências, tem sido objeto de discussão desde o . Alguns filósofos e cientistas, notavelmente Karl Popper, afirmam que nenhuma hipótese, proposição ou teoria empírica podem ser considerada científica se nenhuma observação puder ser feita que a possa contradizer, insistindo numa falseabilidade estrita (ver positivismo). Os críticos alegam que a economia não pode atingir sempre a falseabilidade popperiana, mas os economistas apontam os muitos exemplos de experimentos controlados que fazem exatamente isso, apesar de conduzidos em laboratório. Enquanto a economia tem produzido teorias que se correlacionam com os comportamentos observados na sociedade, a economia não gera leis naturais ou constantes universais devido à sua dependência de argumentos não físicos. Isso tem levado alguns críticos a argumentar que a economia não é uma ciência. Em geral, os economistas respondem que, enquanto esse aspecto apresenta sérias dificuldades, eles de fato testam as suas hipóteses usando métodos estatísticos como a econometria usando dados gerados no mundo real. O campo da economia experimental tem feito esforços para testar pelo menos algumas das predições de teorias econômicas em ambientes simulados em laboratório – um esforço que rendeu a Vernon Smith e Daniel Kahneman o Prêmio Nobel em Economia em 2002. Apesar de que a maneira convencional de conectar um modelo econômico com o mundo é através da análise econométrica, a professora e economista Deirdre McCloskey, através da crítica McCloskey, cita muitos exemplos em que professores de econometria usaram os mesmos dados para tanto provar e negar a aplicabilidade das conclusões de um modelo. Ela argumenta que muito dos esforços dispendidos por economistas em equações analíticas é essencialmente esforço desperdiçado (posição seguida por economistas brasileiros como Pérsio Arida).Os econometristas respondem que essa é uma objeção a qualquer ciência, não apenas à economia. Críticos de McCloskey replicam dizendo que, entre outras coisas, ela ignora exemplos em que a análise econômica é conclusiva e que as suas afirmações são ilógicas. Alguns economistas, como ganhador do Prêmio Nobel Friedrich Hayek, são da opinião que a tendência para a economia imitar os métodos e procedimentos das ciências físicas leva a resultados não científicos, por se tratar da aplicação mecânica e não crítica de hábitos de pensamento vindos de áreas sem as especificidades das ciências sociais. A área econômica também é conhecida por ser excessivamente abstrata e se fechar para o mundo real. A economia já foi apelidada de "ciência sombria" ("The dismal science" no original em inglês), de forma humorística e até mesmo depreciativa. A expressão é atribuída ao historiador vitoriano Thomas Carlyle, no . Afirma-se que Carlyle apelidou a economia de "ciência sombria" como resposta aos escritos do reverendo Thomas Robert Malthus do final do , que sinistramente previa a fome como resultado do crescimento projetado da população exceder o taxa de aumento da oferta de alimentos. No entanto, a expressão foi efetivamente usada por Carlyle no contexto de um debate com John Stuart Mill sobre a escravidão, no qual Carlyle argumentava a favor e Mill contra. Também existe controvérsia acerca da relação entre a economia e a política. Alguns economistas, como John Stuart Mill ou Leon Walras, defenderam que a produção de riqueza não deveria estar ligada à sua distribuição. A primeira está no campo da "economia aplicada" enquanto a segunda pertence à "economia social" e é em grande parte uma questão de poder e política. Crítica aos pressupostos usados. Certos modelos usados por economistas são criticados, até por outros economistas, pela sua dependência de pressupostos irrealistas, não observáveis ou não verificáveis. Uma resposta a essas críticas é que os pressupostos irrealistas resultam de abstrações que simplificam detalhes pouco importantes, e que tais abstrações são necessárias em um mundo real complexo. Isso significa que os pressupostos simplificadores, ao invés de afetar o valor epistêmico da economia, são essenciais para a formação do conhecimento em economia. Os economistas são também criticados por ignorar o papel da dívida das sociedades. A classe é considerada fechada em relação ao mundo real, e de se julgar acima da mesma. A profissão é tida também como uma religião. Um estudo chamou essa explicação de "defesa abstracionista" e concluiu que essa defesa não invalida a crítica aos pressupostos irrealistas. No entanto não existe um consenso sobre esta questão, e diferentes campos da economia chegaram a conclusões suportadas em evidências empíricas com diferentes graus intensidade. Os conceitos que costumam ser considerados como "axiomas" são simplificações da realidade mas que se espera serem consistentes com a observação empírica. Alguns exemplos crenças ou axioma compartilhados por muitos economistas do "mainstream" são: A questão dos pressupostos é delicada. Por um lado eles permitem que os problemas sejam "tratáveis". Por outro não podem ser demasiado simplificados sob pena de não conseguir retratar eficazmente o comportamento dos agentes económicos. O crescimento na teoria da microeconomia viola a teoria das Leis da termodinâmica nos estudos efetuados no final dos século XX. Crítica das contradições. A economia é um campo de estudo com várias escolas e correntes de pensamento. Como resultado, há uma distribuição significativa de opiniões, abordagens e teorias. Algumas dessas chegam a conclusões opostas ou, devido à diferenças nos pressupostos, se contradizem. Economia e política. Alguns economistas, como John Stuart Mill ou Leon Walras, defenderam a ideia de que a produção de riqueza não deveria ser limitada à sua distribuição. A produção estaria mais no campo da "economia aplicada" enquanto a distribuição na "economia social" e seria em grande medida uma questão política. A economia "per se", como ciência social, não se baseia em atos políticos de qualquer governo ou outra organização política, no entanto, muitos políticos ou indivíduos em posições de mando que podem influenciar as vidas de outras pessoas são conhecidas por usarem arbitrariamente uma infinidade de conceitos da teoria econômica e retórica como veículos para legitimar agendas e sistemas de valor, e não limitam suas observações aos assuntos relevantes para as suas responsabilidades. A íntima relação de teoria e prática econômica com a política é um foco de disputas que pode nublar ou distorcer as ideias originais mais despretensiosas da economia, e é frequentemente confundida com agendas sociais específicas e sistemas de valor. Questões como a independência do banco central, políticas do banco central e retórica nos discursos de presidentes do banco central sobre as premissas das políticas macroeconômicas (monetária e fiscal) dos Estados, são focos de dissenso e criticismo. Economia e ideologias. Por exemplo, é possível associar a promoção da democracia por parte dos EUA pela força no , o trabalho de Karl Marx no ou o embate entre capitalismo e comunismo durante a guerra fria como questões de economia. Apesar da economia não fazer quaisquer juízos de valor, essa pode ser uma das razões pelas quais a economia pode ser vista como não baseada na observação empírica e no teste de hipóteses. Como uma ciência social, a economia tenta se focar nas consequências e eficiências observáveis de diferentes sistemas econômicos sem necessariamente fazer nenhum juízo de valor a respeito de tais sistemas — por exemplo, ao examinar a economia de sistemas autoritários, igualitários, ou mesmo um sistema de castas sem fazer quaisquer julgamentos a respeito da moralidade de qualquer um deles. Ética e economia. A relação entre ética e economia é complexa. Muitos economistas consideram escolhas normativas e juízos de valor — como o que seria preciso ou necessário, ou o que seria melhor para a sociedade — questões pessoais ou políticas fora do âmbito da economia. Uma vez que um governo ou economia estabelece um conjunto de objetivos, a economia pode fornecer "insight" sobre a melhor forma de se atingi-los. Outros enxergam a influência das ideias econômicas, como aquelas que permeiam o capitalismo moderno, promovendo um determinado sistema de valores com os quais eles podem ou não concordar. (Veja, por exemplo, consumismo e Dia do Compre Nada.) De acordo com alguns pensadores, uma teoria econômica também é, ou implica, uma teoria de raciocínio moral. A premissa do consumo responsável é que o consumidor deve levar em consideração preocupações éticas e ambientais, além das tradicionais considerações econômicas e financeiras, quando tomar decisões de compra. Por outro lado, a alocação racional dos recursos limitados em prol do bem e segurança públicos também é uma área da economia. Alguns tem apontado que não estudar as melhores formas de alocar recursos para metas como saúde e segurança, o meio ambiente, justiça, ou assistência a desastres seria uma forma de ignorância voluntária que resultaria em menos bem-estar ou mesmo em mais sofrimento. Nesse sentido, não seria ético ignorar o lado econômico de tais questões. Efeito na sociedade. Alguns poderiam dizer que estruturas de mercado e outras formas de distribuição de bens escassos, sugeridos pela economia, afetam não apenas seus "desejos e vontades" mas também "necessidades" e "hábitos". Muito da chamada "escolha" econômica é considerada involuntária, certamente dada por condicionamento social porque as pessoas passaram a esperar uma certa qualidade de vida. Isso leva a uma das mais debatidas áreas na política econômica hoje, a saber, o efeito e eficácia das políticas de bem-estar. Os libertários enxergam isso como uma falha com respeito ao raciocínio econômico — eles argumentam que a redistribuição de riqueza é moral e economicamente errada. Já os socialistas veem aí uma falha da economia em respeitar a sociedade, argumentando que as disparidades de renda não deveriam ter sido permitidas para começar. Essa controvérsia levou à economia do trabalho no século XIX e na economia do bem-estar no antes de serem incluídas na teoria do desenvolvimento humano. O antigo nome da economia, "economia política", ainda é frequentemente usado em vez de "economia", especialmente por algumas escolas como a marxista. O uso dessa expressão normalmente sinaliza um desacordo fundamental com a terminologia ou paradigma da economia de mercado. A economia política traz explicitamente considerações políticas e sociais em sua análise e é, portanto, amplamente normativa. A economia marxista geralmente nega o "trade-off" de tempo por dinheiro. No ponto de vista marxista, é o trabalho que define o valor das mercadorias. As relações de troca dependem de que haja trabalho prévio para a determinação de preços. Os meios de produção são portanto a base compreender a alocação de recursos entre as classes, já que é nesta esfera que a riqueza é produzida. A escassez de qualquer recurso físico em particular é subsidiário à questão central das relações de poder atrelada ao monopólio dos meios de produção. Se calcula que no Brasil 40% do PIB é consumido em atividades correlatas as ciências gerenciais. Legislação/Fiscalização (Economia/Economista). BRASIL PORTUGAL
743
Eric Steven Raymond
Eric Steven Raymond Eric Steven Raymond (4 de Dezembro de 1957 em Boston, Massachusetts), conhecido também como ESR, é um hacker e escritor americano. Depois da publicação em 1997 do seu livro "A Catedral e o Bazar", Raymond foi por alguns anos frequentemente citado como um porta-voz extra-oficial para o movimento open source. É quem mantém o "Jargon File", mais conhecido como "The Hacker's Dictionary" (O Dicionário dos Hackers). Um ícone no movimento do Open Source e do software livre, é responsável pela famosa frase: ""Havendo olhos suficientes, todos os erros são óbvios". Que é o enunciado da Lei de Linus, em alusão ao criador do Linux, o finlandês Linus Torvalds. Biografia. Nascido em Boston, Massachusetts, em 1957, Raymond viveu na Venezuela quando criança, e em outros três continentes, antes de se fixar na Pensilvânia, em 1971. Seu envolvimento com a cultura hacker começou em 1976, e ele contribuiu pela primeira vez para um projeto de código aberto em 1982. Desde então, suas atividades de desenvolvimento de softwares de código aberto incluíram manter o cliente de e-mails fetchmail, contribuir de modos de edição para o editor Emacs, co-escrever porções da biblioteca GNU ncurses, e contribuir para as bibliotecas giflib/libungif, libpng e algumas das padrões do Python. Enquanto isso, ele escreveu alguns documentos HOWTO, incluindo vários do corpo do Projeto de Documentação do Linux. Raymond cunhou o aforismo "Havendo olhos suficientes, todos os erros são óbvios"". Atribui os créditos da inspiração para esta citação a Linus Torvalds em seu livro A Catedral e o Bazar, de 1999. Projetos. Alguns dos projetos em quais ESR teve participação:
744
Engenharia
Engenharia Engenharia é a aplicação do conhecimento científico, econômico, social e prático, com o intuito de planejar, desenhar, construir, manter e melhorar estruturas, máquinas, aparelhos, sistemas, materiais e processos. O profissional de engenharia aplica os conhecimentos matemáticos e técnicos para a criação, aperfeiçoamento e implementação de utilidades que realizem uma função ou objetivo específico. Nos processos de criação, aperfeiçoamento e complementação, a engenharia conjuga os vários conhecimentos especializados no sentido de viabilizar as utilidades, tendo em conta a sociedade, a técnica, a economia e o meio ambiente. A "engenharia" é uma área bastante abrangente que engloba uma série de ramos mais especializados, cada qual com uma ênfase mais específica em determinados campos de aplicação e em determinados tipos de tecnologia. O profissional da engenharia. O engenheiro é o profissional que exerce a prática de engenharia. Em muitos países, o exercício da profissão de engenheiro obriga, para além da habilitação com um curso superior de engenharia, a uma licença ou certificação profissional atribuída pelo estado, por uma associação profissional, ordem ou instituição de engenheiros ou por um outro tipo de órgão de regulamentação profissional. Conforme o país, aos profissionais devidamente certificados ou licenciados está reservado o uso exclusivo do título profissional de "engenheiro" ou estão reservados outros títulos formais como "engenheiro profissional", "engenheiro encartado", "engenheiro incorporado", "engenheiro diplomado" ou "Engenheiro Europeu". Normalmente, a lei restringe a prática de determinados atos de engenharia aos profissionais certificados e habilitados para tal, ainda que a prática dos restantes não esteja sujeita a essa restrição. Para além da certificação como engenheiro propriamente dito, em alguns países existe a certificação como técnico de engenharia ou engenheiro técnico, associada aos profissionais com uma habilitação correspondente a um curso superior de 1º ciclo na área da engenharia. História. O conceito de engenharia existe desde a antiguidade, a partir do momento em que o ser humano desenvolveu invenções fundamentais como a roda, a polia e a alavanca. Cada uma destas invenções é consistente com a moderna definição de engenharia, explorando princípios básicos da mecânica para desenvolver ferramentas e objetos utilitários. O termo "engenharia" em si tem uma etimologia muito mais recente, derivando da palavra "engenheiro", que apareceu na língua portuguesa no início do século XVI e que se referia a alguém que construía ou operava um engenho. Naquela época, o termo "engenho" referia-se apenas a uma máquina de guerra como uma catapulta ou uma torre de assalto. A palavra "engenho", em si, tem uma origem ainda mais antiga, vindo do latim "ingenium" que significa "gênio" ou seja uma qualidade natural, especialmente mental, portanto uma invenção inteligente. Mais tarde, à medida que o projeto de estruturas civis como pontes e edifícios amadureceu como uma especialidade técnica autónoma, entrou no léxico o termo "engenharia civil" como forma de distinção entre a atividade de construção daqueles projetos não militares e a mais antiga especialidade da engenharia militar. Hoje em dia, os significados originais dos termos "engenharia" e "engenharia civil" estão já largamente obsoletos, mas ainda são usados como tal em alguns países ou dentro do contexto de algumas forças armadas. Antiguidade. O Farol de Alexandria, as Pirâmides do Egipto, os Jardins Suspensos da Babilónia, a Acrópole de Atenas, o Parténon, os antigos aquedutos romanos, a Via Ápia, o Coliseu de Roma, Teotihuacán e as cidades e pirâmides dos antigos Maias, Incas e Astecas, a Grande Muralha da China, entre muitas outras obras, mantêm-se como um testamento do engenho e habilidade dos antigos engenheiros militares e civis. O primeiro engenheiro civil conhecido pelo nome foi Imhotep. Como um dos funcionários do faraó Djoser, Imhotep provavelmente projetou e supervisionou a construção da Pirâmide de Djoser, uma pirâmide de degraus em Sacará, por volta de 2630 a.C.-2611 a.C.. Este poderá também ter sido o responsável pelo primeiro uso da coluna na arquitetura. Os antigos gregos desenvolveram máquinas tanto no domínio civil como no militar. A Máquina de Anticítera (o primeiro computador mecânico conhecido) e as invenções mecânicas de Arquimedes são exemplos da primitiva engenharia mecânica. Estas invenções requereram um conhecimento sofisticado de engrenagens diferenciais e planetárias, dois princípios-chave na teoria das máquinas que ajudou a projetar as embreagens empregues na Revolução Industrial e que ainda são amplamente utilizadas na atualidade, em diversos campos como a robótica e a engenharia automobilística. Os exércitos chineses, gregos e romanos empregaram máquinas e invenções complexas como a artilharia que foi desenvolvida pelos gregos por volta do século IV a.C.. Estes desenvolveram a trirreme, a balista e a catapulta. Na Idade Média, foi desenvolvido o trabuco. Renascimento. Nos séculos XV e XVI, a engenharia naval emerge em Portugal. Os novos tipos de navios então desenvolvidos, como a caravela, a nau redonda e o galeão, irão ser fundamentais nos grandes descobrimentos marítimos. William Gilbert é considerado o primeiro engenheiro eletrotécnico, devido à publicação da obra "De Magnete" em 1600, o qual foi o criador do termo "eletricidade". A primeira máquina a vapor foi construída em 1698 por Thomas Savery, que assim é considerado o primeiro engenheiro mecânico moderno. O desenvolvimento deste aparelho deu origem à Revolução Industrial nas décadas seguintes, permitindo o início da produção em massa. Com a ascensão da engenharia como profissão, durante o século XVIII, o termo tornou-se mais estritamente empregue para designar as atividades para cujos fins eram aplicadas a matemática e a ciência. Além disso, além das engenharias militar e civil, também foram incorporadas na engenharia o que antes eram conhecidas como "artes mecânicas". Era moderna. A engenharia elétrica pode traçar as suas origens às experiências de Alexandre Volta em 1800, às experiências de Michael Faraday, Georg Ohm e outros, bem como à invenção do motor elétrico em 1872. O trabalho de James Maxwell e de Heinrich Hertz no final do século XIX deu origem à eletrónica. As invenções de Thomas Savery e de James Watt deram origem à moderna engenharia mecânica. O desenvolvimento de máquinas especializadas e de ferramentas para a sua manutenção durante a Revolução Industrial levaram ao crescimento acentuado da engenharia mecânica. A engenharia química tal como a engenharia mecânica, desenvolveu-se no século XIX, durante a Revolução Industrial. A produção à escala industrial precisava de novos materiais e de novos processos. Por volta de 1880, a necessidade da produção em larga escala de químicos era tanta que foi criada uma nova indústria, dedicada ao desenvolvimento e fabricação em massa de produtos químicos em novas fábricas. A função do engenheiro químico era a de projetar essas novas fábricas e processos. A engenharia aeronáutica lida com o projeto de aeronaves. Nos tempos modernos, começou-se também a designá-la como "engenharia aeroespacial", dando ênfase à expansão daquele campo da engenharia que passou também lidar com o projeto de veículos espaciais. As suas origens podem ser traçadas até aos pioneiros da aviação da viragem do século XIX para o século XX. Os conhecimentos primitivos de engenharia aeronáutica eram largamente empíricos, com alguns conceitos e perícias a serem importados de outros ramos da engenharia. A partir dos experimentos muito bem sucedidos realizados por Alberto Santos Dumont no inicio do Século XX, como o primeiro voo com balão dirigível com motor a gasolina realizado em 1901, o primeiro no mundo a descolar a bordo de um avião impulsionado por um motor a gasolina em 23 de outubro de 1906, voando cerca de 60 metros a uma altura de dois a três metros com o "Oiseau de Proie"' (francês para "ave de rapina"), no Campo de Bagatelle, em Paris e apenas alguns anos depois dos bem sucedidos voos dos irmãos Wright, a década de 1920 viu um desenvolvimento intensivo da engenharia aeronáutica, através do desenvolvimento de aviões militares da época da Primeira Guerra Mundial. Entretanto, as pesquisas, para fornecer bases científicas fundamentais, continuaram através da combinação da física teórica com experiências. Durante a Segunda Guerra Mundial, inicia-se o desenvolvimento da engenharia de computação e da engenharia de automação industrial. A expansão radical da informática depois do final da guerra tornou os engenheiros ligados a tecnologia em alguns dos maiores grupos de profissionais da engenharia. Métodos. Tradicionalmente, a engenharia lidava apenas com objetos concretos e palpáveis. Modernamente, porém, esse cenário mudou. A engenharia lida agora também com entidades não-palpáveis, tais como custos, obrigações fiscais, aplicações informáticas e sistemas. Na engenharia, os conhecimentos científicos, técnicos e empíricos são aplicados para exploração dos recursos naturais e para a concepção, construção e operação de utilidades. Resolução de problemas. Os engenheiros aplicam as ciências físicas e matemáticas na busca por soluções adequadas para problemas ou no aperfeiçoamento de soluções já existentes. Mais do que nunca, aos engenheiros é agora exigido o conhecimento das ciências relevantes para os seus projetos, o que resulta que eles tenham que realizar uma constante aprendizagem de novas matérias ao longo de todas as suas carreiras. Se existirem opções múltiplas, os engenheiros pesam as diferentes escolhas de projeto com base nos seus méritos e escolhem a solução que melhor corresponda aos requisitos. A tarefa única e crucial do engenheiro é identificar, compreender e interpretar os constrangimentos de um projeto, de modo a produzir o resultado esperado. Normalmente, não basta construir um produto tecnicamente bem sucedido, sendo também necessário que ele responda a outros requisitos adicionais. Os constrangimentos podem incluir as limitações em termos físicos, criativos, técnicos ou de recursos disponíveis, a flexibilidade para permitir modificações e adições futuras, além de fatores como os custos, a segurança, a atratividade comercial, a funcionalidade e a suportabilidade. Através da compreensão dos constrangimentos, os engenheiros obtêm as especificações para os limites dentro dos quais um objeto ou sistema viável pode ser produzido e operado. Tipicamente, os engenheiros irão tentar prever o quão bem os seus projetos se irão comportar em relação às suas especificações, antes de ser iniciada a produção em larga escala. Para isso, irão empregar, entre outros: protótipos, maquetes, simulações, testes destrutivos, testes não destrutivos e testes de esforços. Testar assegura que o produto irá comportar-se de acordo com o esperado. Como profissionais, os engenheiros levam a sério a sua responsabilidade em produzir projetos que se comportem conforme o esperado e que não causem males não intencionados ao grande público. Tipicamente, os engenheiros incluem uma margem de segurança nos seus projetos para reduzir o risco de falha inesperada. contudo, quanto maior a sua margem de segurança, menos eficiente se poderá tornar o projeto. A "engenharia" também se ocupa do estado dos produtos falhados. A sua aplicação é muito importante a seguir a desastres como o colapso de pontes ou a queda de aviões, onde uma análise cuidadosa é necessária para descobrir as causas das falhas ocorridas. Este estudo poderá ajudar o projetista a avaliar o seu projeto com base em condições reais ocorridas no passado com projetos semelhantes. O uso do computador. Tal como nas restantes atividades científicas e tecnológicas, os computadores e os programas informáticos desempenham um papel cada vez mais importante na engenharia. Existem inúmeras aplicações assistidas por computador específicas para a engenharia. Os computadores podem ser usados para gerarem modelos de processos físicos fundamentais, que podem ser resolvidos através de métodos numéricos. Umas das ferramentas mais utilizadas pelos engenheiros são as aplicações de desenho assistido por computador (CAD), que lhes permitem criar desenhos e esquemas em 2D e modelos em 3D. As aplicações CAD, juntamente com as aplicações de maquete digital (DMU) e de engenharia assistida por computador (CAE), incluindo as de análise de elementos finitos e de elementos analíticos permitem criar modelos de projetos que podem ser analisados sem a necessidade da construção de protótipos dispendiosos em termos de custo e de tempo. Estas aplicações permitem que os produtos e componentes sejam verificados para detecção de falhas, avaliados em termos de montagem e ajustamento e estudados em termos de ergonomia. Também permitem a análise das caraterísticas dinâmicas dos sistemas como as tensões mecânicas, temperaturas, emissões eletromagnéticas, correntes elétricas, tensão elétrica, vazão e cinemática. O acesso e a distribuição de toda esta informação é geralmente organizado através do uso de aplicações de gestão de dados do produto (PDM). Existem também uma série de ferramentas para suporte de tarefas específicas de engenharia, como as aplicações de fabricação assistida por computador (CAM) que geram instruções para as máquinas de controle numérico computadorizado (CNC), as de gestão de processos de fabrico (MPM) para a engenharia de produção, as de desenho de eletrónica assistido por computador (ECAD ou EDA) para desenho de esquemas de circuitos elétricos e de circuitos impressos para a engenharia eletrónica, as de manutenção, reparação e operações para a gestão da manutenção e as de arquitetura, engenharia e construção (AEC) para a engenharia civil. Recentemente, o uso do computador no auxílio ao desenvolvimento de utilidades passou a ser coletivamente conhecido como gestão do ciclo de vida do produto. Ramos da engenharia. A "engenharia" é uma ciência bastante abrangente que é muitas vezes subdividida em diferentes ramos ou especialidades. Cada uma destas especialidades preocupa-se com um determinado tipo de tecnologia ou com um determinado campo de aplicação. Apesar de inicialmente um engenheiro se formar normalmente numa especialidade específica, ao longo da sua carreira na maioria dos casos, irá tornar-se polivalente, penetrando com o seu trabalho em diferentes áreas da engenharia. Historicamente, existiam a engenharia militar e a engenharia naval. A partir da engenharia militar começou por desenvolver-se o ramo da engenharia civil. Posteriormente, a engenharia civil (em sentido lato) subdividiu-se em diversas especialidades: Paralelamente, algumas das ciências agrárias aproximaram-se da engenharia e acabaram por nela se integrar, originando especialidades como: Com o surgimento das engenharias relacionadas com a agricultura, surge a dicotomia entre estas e a engenharia industrial que agrupa as especialidades industriais referentes a engenharia civil, mecânica, elétrica, química e de minas. A engenharia industrial irá contudo deixar de ser um agrupamento de especialidades e tornar-se ela própria numa especialidade da engenharia, vocacionada para o aperfeiçoamento de processos e da gestão industrial através da integração dos fatores tecnológicos, humanos e económicos. Posteriormente, com o rápido avanço da tecnologia, desenvolveram-se e ganharam proeminência diversos novos campos da engenharia, como os de materiais, aeronáutica, automação, telecomunicações, computação, nuclear, molecular, ambiente, geológica, alimentar e biomédica. Alguns dos novos campos da engenharia resultam da subdivisão de especialidades iniciais ou, pelo contrário, da combinação de diferentes especialidades. O prestígio da engenharia fez com que áreas fora dela também a ela se quisessem associar. Surgiram assim campos exteriores ao que convencionalmente é considerado engenharia, mas também referidos como tal, sendo alguns exemplos a "engenharia jurídica", a "engenharia financeira", a "engenharia comercial" e a "engenharia social". Quando uma nova área da engenharia emerge, normalmente é inicialmente definida como uma sub-especialidade ou como uma derivação de especialidades já existentes. Frequentemente, existe um período de transição entre o aparecimento do novo campo e o crescimento do mesmo até ter uma dimensão ou proeminência suficientes para poder ser classificado como nova especialidade da engenharia. Um indicador chave para essa emergência é o número de cursos criados nessa especialidade nas principais instituições de ensino superior. Existe uma considerável sobreposição de matérias comuns a todas as especialidades da engenharia. Todas elas, fazem grande aplicação da matemática, da física e da química. Relação com outras ciências e artes. Ciências. Existe uma sobreposição entre a prática da ciência e a da engenharia. Na engenharia aplica-se a ciência. Ambas as atividades baseiam-se na observação atenta dos materiais e dos fenómenos. Ambas usam a matemática e critérios de classificação para analisarem e comunicarem as observações. Espera-se que os cientistas interpretem as suas observações e façam recomendações versadas para ações práticas baseadas nessas interpretações. Os cientistas podem também desempenhar tarefas totalmente de engenharia como a do desenho de aparelhos experimentais ou a da construção de protótipos. Reciprocamente, no processo de desenvolvimento de tecnologia, os engenheiros ocasionalmente apanham-se a explorar novos fenómenos, transformando-se assim, momentaneamente, em cientistas. No entanto, a pesquisa em engenharia tem um carácter diferente da pesquisa científica. Em primeiro lugar, frequentemente lida com áreas em que a física e a química básicas são bem conhecidas, mas os problemas em si são demasiado complexos para serem resolvidos de uma forma exata. Exemplos, são o uso de aproximações numéricas nas equações de Navier-Stokes para a descrição do fluxo aerodinâmico sobre uma aeronave ou o uso da regra de Miner para cálculo dos danos provocados pela fadiga do material. Em segundo lugar, a pesquisa em engenharia emprega muitos métodos semiempíricos que são estranhos à pesquisa científica pura, sendo um exemplo o do método da variação de parâmetros. Essencialmente, pode dizer-se que os cientistas tentam entender a natureza enquanto que os engenheiros tentam fazer coisas que não existem na natureza. Medicina e biologia. O estudo do corpo humano, em algumas das suas formas e propósitos, constitui uma importante ligação entre a medicina e alguns campos da engenharia. A medicina tem como objetivo sustentar, aumentar e até substituir funções do corpo humano, se necessário, através do uso da tecnologia. A moderna medicina pode substituir várias funções do corpo através do uso de próteses e órgãos artificiais e pode alterar significativamente várias dessas funções através de dispositivos como implantes cerebrais e marca-passos. A biónica é um campo específico que se dedica ao estudo dos implantes sintéticos em sistemas naturais. Reciprocamente, alguns campos da engenharia olham para o corpo humano como uma máquina biológica que merece ser estudada e dedicam-se a melhorar muitas das suas funções através da substituição da biologia pela tecnologia. Isto levou a campos como a inteligência artificial, as redes neurais, a lógica difusa e a robótica. Existem também interações substanciais entre a engenharia e a medicina. Ambos os campos fornecem soluções para problemas do mundo real. Isto, frequentemente, requer avançar mesmo antes de um fenómeno ser completamente compreendido em termos científicos o que faz com que a experimentação e o conhecimento empírico sejam uma parte integral tanto da medicina como da engenharia. A medicina ocupa-se do estudo do funcionamento do corpo humano o qual, como uma máquina biológica, tem muitas funções que podem ser modeladas através do uso de métodos da engenharia. O coração, por exemplo, funciona como uma bomba hidráulica, o esqueleto funciona como uma estrutura e o cérebro produz sinais elétricos. Estas semelhanças, bem como a crescente importância da aplicação dos princípios da engenharia à medicina levou ao desenvolvimento da engenharia biomédica, que usa conceitos de ambas. Novos ramos emergentes da ciência, como a biologia de sistemas, vêm adaptando ferramentas analíticas tradicionalmente usadas na engenharia, como a modelação de sistemas e a análise computacional, para a descrição de sistemas biológicos. Artes. A moderna engenharia deriva em parte do que, antigamente, eram consideradas as artes mecânicas. Ainda se mantêm muitas ligações entre as modernas artes e a engenharia, que são diretas em alguns campos como os da arquitetura, da arquitetura paisagista e do "design" industrial, ao ponto destas disciplinas serem parte integrantes dos currículos de alguns cursos superiores de engenharia. De entre as figuras históricas famosas, Leonardo da Vinci é um bem conhecido artista e engenheiro do Renascimento, constituindo um exemplo da ligação entre as artes e a engenharia. Outros campos. A ciência política, pegou no termo "engenharia" e empregou-o no âmbito do estudo de vários assuntos como a engenharia social e a engenharia política, que lidam com a formação das estrutura política e social usando uma metodologia da engenharia associada aos princípios da ciência política. Ensino da engenharia. Até ao século XX, na maioria dos países, o ensino da engenharia era realizado em escolas superiores especializadas não universitárias, uma vez que tradicionalmente o ensino das universidades se concentrava em áreas como as humanidades, a medicina e o direito. Hoje em dia, no entanto, além de continuar a ser realizado em escolas especiais, o ensino da engenharia é já realizado na maioria das grandes universidades. Na maioria dos países, os cursos que dão acesso à profissão de engenheiro têm uma duração mínima de quatro ou cinco anos. Nos países cujos sistemas de ensinos seguem os moldes do Processo de Bolonha, a formação de um engenheiro implica a realização do 2º ciclo do ensino superior, incluindo normalmente um total de cinco anos de estudos e a realização de uma dissertação, tese ou estágio final. Em alguns destes países, a conclusão do 1º ciclo de um curso superior de engenharia poderá dar acesso à profissão de engenheiro técnico ou de técnico de engenharia. É difícil determinar quais eram as mais antigas escolas de engenharia, uma vez que o ensino de matérias que hoje fazem parte da engenharia vem já desde a antiguidade. No entanto, segundo os padrões modernos podem apontar-se as seguintes escolas precursoras deste ensino: Em 2017, a consultoria britânica "Quacquarelli Symonds" (QS) publicou recentemente a atualização de 2017 do seu ranking de cursos de Engenharia Civil com o MIT ficando em primeiro lugar. Brasil. O ensino da engenharia no Brasil tem origem em 1699, altura em que o Rei D. Pedro II de Portugal ordena a criação aulas de fortificação em vários pontos do Ultramar Português. O objetivo era formar técnicos de engenharia militar nos territórios ultramarinos, de modo a que estes estivessem menos dependentes de engenheiros vindos do Reino. Em território brasileiro, seriam criadas destas aulas no Rio de Janeiro, em Salvador e no Recife. No entanto, a mais antiga escola a ministrar cursos de engenharia segundo os moldes modernos foi a Real Academia de Artilharia, Fortificação e Desenho, fundada em 1792 no Rio de Janeiro pela rainha D. Maria I de Portugal, segundo o modelo da academia com o nome semelhante existente em Lisboa. A atual Escola Politécnica do Rio de Janeiro e o Instituto Militar de Engenharia consideram-se sucessores daquela academia, razão pela qual este último reivindica ser a mais antiga escola de engenharia das Américas. Os profissionais de engenharia e de áreas correlatas são regulamentados pelo Conselho Federal de Engenharia e Agronomia e fiscalizados pelos conselhos regionais. Há um crescente déficit de engenheiros no Brasil devido, em grande parte, ao alto índice de evasão dos estudantes da graduação na área. A Federação Nacional dos Engenheiros estima que seriam necessários ao menos 60 mil novos engenheiros formados por ano em um “cenário de expansão econômica”. Todavia, em 2011, esse número foi de apenas 42,8 mil segundo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira – Inep. Em 2017, a consultoria britânica "Quacquarelli Symonds" (QS) publicou recentemente a atualização de 2017 do seu ranking de cursos de Engenharia Civil com a USP ficando em primeiro lugar no Brasil. Em 2019 foram publicadas as novas Diretrizes Curriculares Nacionais para os cursos de engenharia no Brasil. Portugal. Em Portugal, o ensino do que é hoje a engenharia remonta à formação em artes mecânicas e em ciências físicas e matemáticas, realizadas desde a Idade Média. Destaca-se o ensino da construção naval, já com metodologias técnicas e científicas avançadas, que leva ao desenvolvimento de novos tipos de navios, permitindo as grandes explorações marítimas portuguesas. O ensino da moderna engenharia começou a desenvolver-se na primeira metade do século XVII, com a necessidade de engenheiros militares em virtude da Guerra da Restauração. Para a formação dos mesmos, em 1647, o Rei D. João IV funda a Aula de Fortificação e Arquitetura Militar em Lisboa. Em 1699, o Rei D. Pedro II ordena a criação de aulas de fortificação em vários locais do Ultramar, como Angola e Brasil. Em 1707, a Aula de Fortificação e Arquitetura Militar é transformada na Academia Militar da Corte, sendo também criadas academias militares provinciais, a primeira das quais em Viana do Minho e, posteriormente, também em Elvas e Almeida. Em 1779, aquelas academias são extintas, ao mesmo tempo que é criada a Academia Real de Marinha, cujos estatutos preveem a existência de uma escola de engenharia e fortificação, a qual seria frequentada pelos candidatos a engenheiros militares, depois da frequência do Curso Matemático dos Oficiais Engenheiros realizado na Academia de Marinha. A referida escola de engenharia e fortificação só virá a ser criada pela Rainha D. Maria I, a 2 de janeiro de 1790, na forma da Academia Real de Fortificação, Artilharia e Desenho (ARFAD). Esta é considerada a primeira escola moderna de engenharia portuguesa e uma das primeiras do mundo. Na ARFAD era realizado um curso militar, que para os candidatos a oficiais engenheiros tinha a duração de quatro anos, incluindo as cadeiras de fortificação regular, de fortificação irregular, de arquitetura civil e de hidráulica, além de uma aula de desenho. A admissão no curso de oficiais engenheiros implicava a habilitação com os dois primeiros anos do curso matemático da Academia Real da Marinha ou, em alternativa, a habilitação com um curso preparatório na Faculdade de Matemática da Universidade de Coimbra. Durante o século XIX, o ensino superior de engenharia irá desenvolver-se com a criação de diversas escolas militares e civis. Em 1837, são criadas a Escola Politécnica de Lisboa e a Escola do Exército - por remodelação, respetivamente da Academia Real da Marinha e da ARFAD - mantendo-se o sistema da primeira ministrar os preparatórios científicos dos cursos de engenharia a serem realizados na segunda. Além do curso de engenharia militar, a Escola do Exército passa também a ministrar o curso de engenharia civil. Em 1837, é também criada a Academia Politécnica do Porto, com os cursos completos de engenheiros civis nas especialidades de minas, de pontes e estradas e de construtores navais, além dos preparatórios para acesso à Escola do Exército. Em 1896, o Instituto Industrial e Comercial de Lisboa passa a ministrar um curso superior industrial, diplomando engenheiros industriais. No século XX, o ensino da engenharia passa pela primeira vez a ser realizado na universidade, quando a Academia Politécnica do Porto é integrada na nova Universidade do Porto, criada em 1911, com os seus cursos de engenharia a estarem na génese da atual Faculdade de Engenharia daquela Universidade. Ao mesmo tempo, o Instituto Industrial e Comercial de Lisboa é desdobrado, com o seu ensino de engenharia a dar origem ao Instituto Superior Técnico. Entretanto, na sequência da reforma do ensino superior agrícola, o antigo curso de agronomia dá origem aos cursos de engenheiro agrónomo e de engenheiro silvicultor do Instituto Superior de Agronomia. Também se desenvolve o ensino médio técnico industrial, cujos diplomados passam a ser considerados engenheiros auxiliares em 1918 e agentes técnicos de engenharia em 1926. Os institutos industriais são transformados em estabelecimentos de ensino superior em 1974, passando a ministrar cursos de bacharelato, cujos diplomados passam a ser engenheiros técnicos. Atualmente, o ensino da engenharia é realizado em universidades e institutos politécnicos, tanto públicos como privados. São oferecidas várias centenas de cursos de engenharia de 1º e de 2º ciclo. No entanto, apenas uma pequena percentagem destes está acreditada, pela Ordem dos Engenheiros ou pela Ordem dos Engenheiros Técnicos, dando aos seus diplomados um acesso automático às profissões, respetivamente, de engenheiro e de engenheiro técnico.
745
Engenharia química
Engenharia química Engenharia química é o ramo da engenharia responsável por projetar, construir e operar plantas químicas industriais. É também conhecida como engenharia universal por ser um ramo da engenharia que combina conhecimentos de química, biologia, física, computação e matemática para projetar, construir, e operar plantas químicas de matérias-primas em produtos finais através de processos químicos, biológicos ou físicos, divididos entre reatores e operações unitárias. Numa definição mais formal, dada pelo "American Institute of Chemical Engineers" (AIChe): “Engenharia química é a área/profissão que dedica-se à concepção, desenvolvimento, dimensionamento, melhoramento e aplicação dos Processos e dos seus Produtos. Neste âmbito inclui-se a análise econômica, dimensionamento, construção, operação, controle e gestão das Unidades Industriais que concretizam esses Processos, assim como a investigação e formação nesses domínios”. Embora a engenharia química tenha sido concebida inicialmente na Inglaterra, sofreu seu desenvolvimento principal nos Estados Unidos, impelida primeiramente pelo petróleo e indústrias químicas pesadas, e depois pela indústria petroquímica, com a produção de plásticos, borracha sintética e fibras sintéticas a partir do petróleo e do gás-natural. No início do século passado, a engenharia química adaptou para grande escala os processos físicos de separação tais como destilação, absorção e extração, que já eram feitos em laboratórios , os quais foram combinados os princípios de transferência de massa, fluidodinâmica e transferência de calor com a finalidade de projetar fábricas e usinas. Os projetos de engenharia química são baseados em três leis fundamentais: conservação de massa, conservação de energia e conservação de quantidade de movimento. Seus fundamentos clássicos são principalmente a Termodinâmica e os Fenômenos de Transporte, a partir dos quais são delineados os projetos de Cinética Química e Cálculo de Reatores e de Operações Unitárias. Os Fenômenos de Transporte podem ser dividido em Mecânica dos Fluidos, Transferência de massa e a Transferência de calor. Além das leis fundamentais supramencionadas, existem outras leis e restrições técnicas importantes contempladas pelos princípios fundamentais da engenharia química (por exemplo, equilíbrio químico e equilíbrio de fases, balanço entrópico e reversibilidade de processos e difusão de calor e de massa mediante gradiente) e, também, por outras sub-áreas, cabendo ressaltar a importância da viabilidade financeira, da Engenharia de Controle e Instrumentação, da Engenharia de Materiais e da Engenharia de Projetos. A entre os processos são determinados através da aplicação das leis fundamentais da Física. Na aplicação de tais leis os engenheiros químicos utilizam A tarefa complexa de dimensionamento e análise de equipamentos da engenharia química pode ser auxiliada pela simulação de processos. Os simuladores (ASCEND, Aspen Plus, CFX, Design II, Dymola, EMSO, Hysys, Petro-SIM, Pro II, SysCAD, DWSIM, dentre outros) resolvem os balanços de massa e energia e são normalmente acompanhados de uma biblioteca de equipamentos que representam as mais diversas operações unitárias da engenharia química. Simulação é apenas mais uma ferramenta que o engenheiro químico pode lançar mão. Porém o domínio dos conceitos básicos são insubstituíveis. Perfil do engenheiro químico. O Engenheiro Químico deve ser um profissional apto a aperfeiçoar e elaborar novos métodos para fabricação de produtos químicos e outros produtos sujeitos a tratamento químico, projetar e controlar a construção, a montagem e o funcionamento de instalação e fábricas onde se realiza o preparo ou o tratamento químico, realizar investigações com o objetivo de verificar as diferentes etapas operacionais, as possibilidades de produção para fins comerciais e a maneira pela qual se podem reduzir os custos de produção e conseguir um melhor controle de qualidade, fiscalizar a montagem de instalações novas ou modificações de instalações já existentes, e inspecionar e coordenar atividades dos trabalhadores encarregados dos equipamentos e sistemas químicos. Algumas das características de formação profissional são: No Brasil, é considerado um profissional da química pelo Conselho Federal de Química CFQ (assim como químico e o bioquímico) e um profissional da engenharia pelo Conselho Federal de Engenharia e Agronomia (CONFEA), podendo ser registrado em ambos os conselhos (CRQ e/ou CREA) ou em cada um, isoladamente.
746
Período Clássico (música)
Período Clássico (música) O período clássico foi uma era da música clássica entre aproximadamente 1730 e 1820. O período clássico situa-se entre os períodos barroco e romântico A música clássica tem uma textura mais clara do que a música barroca e é menos complexa. É principalmente homofônico, usando uma linha melódica clara sobre um acompanhamento de acordes subordinados, mas o contraponto não foi de forma alguma esquecido, especialmente mais tarde no período. Também faz uso do "estilo galant" que enfatiza a elegância leve em lugar da seriedade digna e grandiosidade impressionante do barroco. A variedade e o contraste dentro de uma peça tornaram-se mais pronunciados do que antes e a orquestra aumentou em tamanho, alcance e poder. O cravo foi substituído como instrumento de teclado principal pelo piano. Ao contrário do cravo, que dedilha as cordas com penas, os pianos batem nas cordas com martelos revestidos de couro quando as teclas são pressionadas, o que permite ao músico tocar mais alto ou mais suave (daí o nome original "fortepiano"; em contraste, a força com que um executante toca as teclas do cravo não altera o som. A música instrumental foi considerada importante pelos compositores do período clássico. Os principais tipos de música instrumental foram sonata, trio, quarteto de cordas, quinteto, sinfonia (executado por uma orquestra) e o concerto solo, que apresentava um músico virtuoso tocando uma obra solo para violino, piano, flauta ou outro instrumento, acompanhado por uma orquestra. A música vocal, como canções para um cantor e piano (nomeadamente a obra de Schubert), obras corais e ópera (uma obra dramática encenada para cantores e orquestra) também foram importantes durante este período. Os compositores mais conhecidos desse período são Joseph Haydn, Wolfgang Amadeus Mozart, Ludwig van Beethoven e Franz Schubert; outros nomes notáveis ​​incluem Carl Philipp Emanuel Bach, Johann Christian Bach, Luigi Boccherini, Domenico Cimarosa, Muzio Clementi, Christoph Willibald Gluck, André Grétry, Pierre-Alexandre Monsigny, Leopold Mozart, Giovanni Paisiello, François-André Danican Philidor, Niccolò Piccinni,Antonio Salieri, Mauro Giuliani, Christian Cannabich e o Chevalier de Saint-Georges. Beethoven é considerado um compositor romântico ou um compositor do período clássico que fez parte da transição para a era romântica. Schubert também é uma figura de transição, assim como Johann Nepomuk Hummel, Luigi Cherubini, Gaspare Spontini, Gioachino Rossini, Carl Maria von Weber, Jan Ladislav Dussek e Niccolò Paganini. O período é às vezes referido como a era do "Classicismo vienense" (em alemão: "Wiener Klassik"), já que Gluck, Haydn, Salieri, Mozart, Beethoven e Schubert trabalharam em Viena. Classicismo. Em meados do século XVII, a Europa começou a se mover em direção a um novo estilo de arquitetura, literatura e artes, geralmente conhecido como Classicismo. Este estilo procurou emular os ideais da Antiguidade Clássica, especialmente os da Grécia Clássica. A música clássica usava formalidade e ênfase na ordem e hierarquia, e um estilo "mais claro" e "mais limpo" que usava divisões mais claras entre as partes (notavelmente uma melodia única e clara acompanhada por acordes), contrastes mais brilhantes e "cores de tons" (alcançado pelo uso de mudanças e modulações dinâmicas para mais chaves). Em contraste com a música rica em camadas da era barroca, a música clássica moveu-se para a simplicidade ao invés da complexidade. Além disso, o tamanho típico das orquestras começou a aumentar, dando às orquestras um som mais poderoso. O notável desenvolvimento de idéias na " filosofia natural " já havia se estabelecido na consciência pública. Em particular, a física de Newton foi tomada como um paradigma: as estruturas deveriam ser bem fundamentadas em axiomas e ser bem articuladas e ordenadas. Esse gosto pela clareza estrutural começou a afetar a música, que se afastou da polifonia em camadas do período barroco para um estilo conhecido como homofonia, em que a melodia é tocada sobre uma harmonia subordinada. Este movimento significava que acordes tornou-se uma característica muito mais predominante da música, mesmo que interrompesse a suavidade melódica de uma única parte. Como resultado, a estrutura tonal de uma peça musical tornou - se mais audível. O novo estilo também foi incentivado por mudanças na ordem econômica e na estrutura social. À medida que o século XVIII avançava, a nobreza se tornou a principal patrocinadora da música instrumental, enquanto o gosto do público preferia cada vez mais óperas cômicas engraçadas e leves. Isso levou a mudanças na forma como a música era executada, a mais importante das quais foi a mudança para grupos instrumentais padrão e a redução da importância do "contínuo" - a base rítmica e harmônica de uma peça musical, tipicamente tocada por um teclado (cravo ou órgão) e geralmente acompanhado por um grupo variado de instrumentos de baixo, incluindo violoncelo, contrabaixo, violão baixo eteorbo. Uma forma de rastrear o declínio do continuo e de seus acordes figurados é examinar o desaparecimento do termo "obbligato", que significa uma parte instrumental obrigatória em uma obra de música de câmara. Em composições barrocas, instrumentos adicionais podem ser adicionados ao grupo contínuo de acordo com a preferência do grupo ou do líder; nas composições clássicas, todas as partes eram especificamente anotadas, embora nem sempre "notadas", de modo que o termo "obbligato" tornou-se redundante. Em 1800, o basso continuo estava praticamente extinto, exceto pelo uso ocasional de uma parte do continuo do órgão de tubos em uma missa religiosa no início do século XIX. As mudanças econômicas também tiveram o efeito de alterar o equilíbrio entre disponibilidade e qualidade dos músicos. Enquanto no barroco tardio, um grande compositor teria todos os recursos musicais de uma cidade para recorrer, as forças musicais disponíveis em uma cabana de caça aristocrática ou pequena corte eram menores e mais fixas em seu nível de habilidade. Isso foi um incentivo para ter partes mais simples para os músicos tocarem e, no caso de um grupo virtuoso residente, um incentivo para escrever partes idiomáticas espetaculares para certos instrumentos, como no caso da orquestra de Mannheim, ou partes de solo virtuoso para violinistas ou flautistas particularmente qualificados. Além disso, o apetite do público por um fornecimento contínuo de música nova herdou do barroco. Isso significava que as obras deveriam ser executadas com, no máximo, um ou dois ensaios. Mesmo depois de 1790, Mozart escreve sobre "o ensaio", com a implicação de que seus concertos teriam apenas um ensaio. Como havia uma ênfase maior em uma única linha melódica, havia maior ênfase na anotação dessa linha para a dinâmica e o fraseado. Isso contrasta com a era barroca, quando as melodias eram tipicamente escritas sem dinâmica, marcas de fraseado ou ornamentos, já que se supunha que o intérprete improvisaria esses elementos na hora. Na era clássica, tornou-se mais comum os compositores indicarem onde queriam que os executantes tocassem ornamentos, como trinados ou voltas. A simplificação da textura tornou esse detalhe instrumental mais importante, e também tornou o uso de ritmos característicos, como fanfarras de abertura que chamam a atenção, o ritmo da marcha fúnebre ou o gênero minueto, mais importantes para estabelecer e unificar o tom de um único movimento.. O período clássico também viu o desenvolvimento gradual da forma sonata, um conjunto de princípios estruturais para a música que reconciliava a preferência clássica pelo material melódico com o desenvolvimento harmônico, que poderia ser aplicado em todos os gêneros musicais. A sonata em si continuou a ser a principal forma de solo e música de câmara, enquanto mais tarde, no período clássico, o quarteto de cordas se tornou um gênero proeminente. A forma sinfônica para orquestra foi criada neste período (isso é popularmente atribuído a Joseph Haydn). O "concerto grosso" (concerto para mais de um músico), forma muito popular no período barroco, começou a ser substituído pelo "concerto solo", apresentando apenas um solista. Os compositores começaram a dar mais importância à habilidade do solista em mostrar habilidades virtuosas, com escalas rápidas e desafiadoras e corridas de arpejo. No entanto, alguns "concerti grossi" permaneceram, o mais famoso dos quais sendo a Sinfonia Concertante para Violino e Viola em Mi bemol maior de Mozart. Características principais. No período clássico, o tema consiste em frases com figuras e ritmos melódicos contrastantes. Essas frases são relativamente breves, normalmente com quatro compassos de comprimento e podem ocasionalmente parecer esparsas ou concisas. A textura é principalmente homofônica, com uma melodia clara acima de um acompanhamento de acordes subordinado. Isso contrasta com a prática na música barroca, onde uma peça ou movimento normalmente teria apenas um tema musical, que seria então trabalhado em várias vozes de acordo com os princípios do contraponto, enquanto mantém um ritmo ou métrica consistente por toda parte. Como resultado, a música clássica tende a ter uma textura mais clara e clara do que o barroco. O estilo clássico baseia-se no "estilo galant", um estilo musical que enfatiza a elegância leve no lugar da seriedade digna e grandiosidade impressionante do barroco. Estruturalmente, a música clássica geralmente tem uma forma musical clara, com um contraste bem definido entre a tônica e a dominante, introduzida por cadências claras. Dinâmicas são usadas para destacar as características estruturais da peça. Em particular, a forma sonata e suas variantes foram desenvolvidas durante o período clássico inicial e eram frequentemente usadas. A abordagem clássica da estrutura contrasta novamente com o barroco, onde uma composição normalmente se moveria entre a tônica e a dominante e vice-versa, mas por meio de um progresso contínuo de mudanças de acordes e sem uma sensação de "chegada" à nova tonalidade. Embora o contraponto tenha sido menos enfatizado no período clássico, não foi de forma alguma esquecido, especialmente mais tarde no período, e os compositores ainda usavam o contraponto em obras "sérias" como sinfonias e quartetos de cordas, bem como em peças religiosas, como missas. O estilo musical clássico foi apoiado por desenvolvimentos técnicos em instrumentos. A adoção generalizada de temperamento igual tornou possível a estrutura musical clássica, garantindo que as cadências em todas as tonalidades soassem semelhantes. O forte piano e depois o pianoforte substituíram o cravo, permitindo um contraste mais dinâmico e melodias mais sustentadas. Durante o período clássico, os instrumentos de teclado tornaram-se mais ricos, mais sonoros e mais poderosos. A orquestra aumentou em tamanho e alcance e tornou-se mais padronizada. O papel de baixo contínuo de cravo ou órgão de tubos na orquestra caiu em desuso entre 1750 e 1775, deixando a seção de cordas os sopros se tornaram uma seção independente, consistindo de clarinetes, oboés, flautas e fagotes. Embora a música vocal, como a ópera cômica, fosse popular, grande importância foi dada à música instrumental. Os principais tipos de música instrumental eram sonata, trio, quarteto de cordas, quinteto, sinfonia, concerto (geralmente para um instrumento solo virtuoso acompanhado por orquestra) e peças leves como serenatas e divertimentos. A forma Sonata se desenvolveu e se tornou a forma mais importante. Foi usado para construir o primeiro movimento da maioria das obras de grande escala em sinfonias e quartetos de cordas. A forma de sonata também foi usada em outros movimentos e em peças únicas e independentes, como aberturas. Primeira escola vienense. A Primeira Escola Vienense é um nome usado principalmente para se referir a três compositores do período clássico na Viena do final do século XVIII: Haydn, Mozart e Beethoven. Franz Schubert é ocasionalmente adicionado à lista. Em países de língua alemã, o termo "Wiener Klassik" (lit. "era / arte clássica vienense") é usado. Esse termo é frequentemente aplicado de forma mais ampla à era clássica na música como um todo, como um meio de distingui-la de outros períodos que são coloquialmente referidos como "clássicos", nomeadamente música barroca e romântica. O termo "Escola Vienense" foi usado pela primeira vez pelo musicólogo austríaco Raphael Georg Kiesewetter em 1834, embora ele contasse apenas com Haydn e Mozart como membros da escola. Outros escritores seguiram o exemplo e, por fim, Beethoven foi adicionado à lista. A designação "primeiro" é adicionada hoje para evitar confusão com a Segunda Escola Vienense. Embora, à parte Schubert, esses compositores certamente se conhecessem (com Haydn e Mozart até mesmo sendo parceiros ocasionais de música de câmara), não há nenhum sentido em que eles estivessem engajados em um esforço colaborativo no sentido de que alguém associaria a escolas do século XX como a Segunda Escola Vienense, ou Les Six. Nem há nenhum sentido significativo no qual um compositor foi "educado" por outro (da maneira que Berg e Webern foram ensinados por Schoenberg), embora seja verdade que Beethoven por um tempo recebeu lições de Haydn. As tentativas de estender a Primeira Escola Vienense para incluir figuras posteriores como Anton Bruckner, Johannes Brahms e Gustav Mahler são meramente jornalísticas e nunca encontradas na musicologia acadêmica.
748
Esperanto
Esperanto O Esperanto é a língua planejada mais falada no mundo (Esperantujo, 120 países). Ao contrário da maioria das outras línguas planejadas, o esperanto já saiu dos níveis de projeto (publicação de instruções) e semilíngua (uso em algumas poucas esferas da vida social). Seu iniciador, o médico judeu Ludwik Lejzer Zamenhof, publicou a versão inicial do idioma em 1887 com a intenção de criar uma língua de mais fácil aprendizagem e que servisse como língua franca internacional para toda a população mundial (e não, como muitos supõem, para substituir todas as línguas existentes). O esperanto é empregado em viagens, correspondência, intercâmbio cultural, convenções, literatura, ensino de línguas, televisão e transmissões de rádio. Alguns sistemas estatais de educação oferecem cursos opcionais de esperanto, e há evidências de que auxilia na aprendizagem dos demais idiomas. Apesar da facilidade gramatical, o Esperanto enfrenta dificuldade de ser adotado como língua auxiliar universal. Origem do nome. "Esperanto" é formado pela junção do radical "esper" (em Esperanto, com origem no latim "sperare", "esperar"), da desinência "ant" (própria do particípio presente) e da desinência "o" (dos substantivos). Significa, portanto, " aquele que espera", "aquele que tem esperança". História. Ludwik Lejzer Zamenhof vivia em Białystok na atual Polônia (na época Império Russo). Em Białystok, moravam povos com diversas línguas diferentes que, por esta causa, fazia com que dificultasse a comunicação no cotidiano da população da cidade. Estes motivos motivaram Zamenhof a criar uma língua neutra. Durante a adolescência, criou a primeira versão da "lingwe universala", uma espécie de esperanto arcaico. O seu pai, entretanto, fê-lo prometer deixar de trabalhar no seu idioma para se dedicar aos estudos. Zamenhof então foi para Moscou estudar medicina. Em uma de suas visitas à terra natal, descobriu que seu pai queimara todos os manuscritos do seu idioma. Zamenhof pôs-se então a reescrever tudo, adicionando melhorias e fazendo a língua evoluir. O primeiro livro sobre o esperanto foi lançado em 26 de julho de 1887, em russo, contendo as 16 regras gramaticais, a pronúncia, alguns exercícios e um pequeno vocabulário. Logo depois, mais edições do "Unua Libro" foram lançadas em alemão, polaco e francês. O número de falantes cresceu rapidamente nas primeiras décadas, primordialmente no Império Russo e na Europa Oriental, depois na Europa Ocidental, nas Américas, na China e no Japão. Muitos desses primeiros falantes vinham de outro idioma planificado: volapük. As primeiras revistas e obras originais em esperanto começaram a ser publicadas. Em 1905, aconteceu o primeiro Congresso Universal de Esperanto, em Bolonha-sobre-o-Mar, na França, juntando quase mil pessoas, de diversos povos. Em 1906, foi fundado, no Brasil, o primeiro grupo esperantista: o Suda Stelaro, em Campinas. Todo o movimento esperantista avançava a passos largos e seguros, mas, com o advento das duas guerras mundiais, o movimento teve um recuo: as tropas comandadas por Hitler perseguiam e matavam os esperantistas na Alemanha e nos países dominados por esta; as tropas de Stalin faziam o mesmo na Rússia; a família de Zamenhof foi dizimada; no Japão e na China, a perseguição ao esperanto também ganhou proporções assustadoras. Após a segunda guerra mundial, o esperanto reergueu-se. Em 1954, a Organização das Nações Unidas para a Educação, a Ciência e a Cultura passou a reconhecer formalmente o valor do esperanto para a educação, a ciência e a cultura, e, em 1985, a mesma Organização das Nações Unidas para a Educação, a Ciência e a Cultura recomendou, aos países-membros, a difusão do esperanto. Após 1995, com a popularização e disseminação da internet, o movimento esperantista ganhou uma nova força propulsora. Uma evidência do maior interesse contemporâneo pelo esperanto é o considerável número de artigos na Wikipédia em esperanto: mais de , em dezembro de 2013, com índice de profundidade 18 — número maior que o de muitas línguas étnicas. Em 2022, a Wikipédia em Esperanto conta com 322 216 artigos. Propriedades linguísticas. Classificação. O esperanto é uma língua aglutinante, sem gêneros gramaticais para entidades assexuais, sem conjugação de verbos variáveis por pessoa ou número e com três modos — indicativo, imperativo e subjuntivo, além das formas nominais do verbo e seis particípios; tem apenas dois casos morfológicos: o acusativo e o nominativo. Como uma língua construída, o esperanto não é relacionado genealogicamente a nenhuma língua étnica; pode ser descrito como uma língua de léxico predominantemente românico e de morfologia aglutinante. A fonologia, a gramática, o vocabulário e a semântica são baseados em línguas indo-europeias ocidentais. Os fonemas são essencialmente eslavos, assim como muito da semântica, enquanto o vocabulário é derivado primordialmente de línguas românicas, com uma menor contribuição de línguas germânicas e algumas palavras de várias outras línguas (o dicionário etimológico de esperanto "Konciza Etimologia Vortaro", de André Cherpillod, faz referência a 110 línguas). A pragmática e outros aspectos da língua não descritos especificamente nos documentos originais de Zamenhof foram influenciados pelas línguas nativas dos primeiros falantes, principalmente russo, polonês, alemão e francês. A relação entre grafemas e fonemas é biunívoca (uma letra para cada som e um som para cada letra) e a morfologia é extremamente regular e fácil de aprender. Tipologicamente, a ordem sintática padrão do esperanto é sujeito-verbo-objeto e adjetivo-substantivo. Novas palavras podem ser formadas a partir de processos de construção com morfemas já existentes na língua, ou podem ser introduzidas como neologismos. Fonologia. O esperanto tem cinco vogais e 23 consoantes, das quais duas são semivogais. Não há tons. A sílaba tônica é sempre a penúltima (paroxítona), a não ser que a palavra tenha apenas uma vogal ou que a vogal final tenha sido omitida (situação em que é tónica a última sílaba; neste caso, é graficamente substituída por um apóstrofo: "kastelo" = "kastel"’) - recurso estilístico para a poesia. Gramática. A gramática segue poucas regras simples, entre elas as chamadas 16 regras do esperanto, sendo porém necessário algum estudo para uma aprendizagem satisfatória. As palavras são formadas pela junção regular de radicais (prefixos, sufixos e outros), de modo que "novas" palavras criadas "ad hoc" são compreendidas trivialmente através da sua análise morfológica (inconsciente, no caso de falantes fluentes). As diferentes classes gramaticais são marcadas por desinências próprias: substantivos recebem a desinência "-o", adjetivos recebem a desinência "-a", advérbios derivados recebem a desinência "-e" e todos os verbos recebem uma de seis desinências de tempos e modos verbais. A pluralidade é marcada nos substantivos e adjetivos concordantes pela desinência "j", e o caso acusativo é marcado pela desinência "n", cuja ausência indica o nominativo. Assim, "bela birdo" significa "bela ave", "belaj birdoj", "belas aves", e "belajn birdojn", como em "mi vidas belajn birdojn" ("eu vejo belas aves"), "belas aves" complementando diretamente uma ação (nesse caso, sendo vistas). As seis inflexões são três tempos e três modos verbais. O tempo presente é marcado por "as", o futuro por "os", e o passado por "is"; o modo infinitivo é marcado por "i", o condicional por "us", e o volitivo (imperativo + conjuntivo) por "u". Assim: "mi vidas", "vejo"; "mi vidos", "verei"; "mi vidis", "vi"; "vidi", "ver"; "mi vidus", "eu veria"; "ni vidu", "vejamos". As desinências não variam de acordo com a pessoa. Além dessas formas, o verbo pode se apresentar na forma de particípio. São os particípios do esperanto: Terminados em -"a", os particípios são usados com o verbo esti (ser/estar) para a formação de tempos compostos. A desinência -"a" pode também designar um adjetivo do particípio. Trocando-se o -"a" por -"o", constrói-se um substantivo do particípio, e por -"e", um advérbio do particípio. Vocabulário. O vocabulário original do esperanto foi definido em "Lingvo internacia", publicado por Zamenhof em 1887. Trata-se de uma compilação de 900 radicais, passíveis de expansão para dezenas de milhares de palavras com prefixos, sufixos e composição. Em 1894, Zamenhof publicou o primeiro dicionário de esperanto, "Universala Vortaro", com uma maior quantidade de radicais. As próprias regras da língua permitem a introdução de novos radicais de acordo com a necessidade, recomendando apenas que isso seja feito a partir das formas mais internacionais. Desde então, muitas palavras têm sido "emprestadas", basicamente mas não apenas de línguas da Europa ocidental. Nem todas as novas palavras propostas entram em uso generalizado, mas muitas o fazem, especialmente termos técnicos e científicos. Termos para uso cotidiano, por sua vez, geralmente são feitos a partir de outros radicais — por exemplo, "komputilo" (computador) a partir de "komputi" (computar) com o uso do sufixo "il" (para indicar ferramentas). Há frequentes debates entre esperantófonos sobre a justificabilidade da introdução de uma palavra em particular e sobre as possibilidades de alcançar o sentido pretendido através da construção de palavras com elementos já existentes. Sistema de escrita. O esperanto é escrito através de uma versão modificada do alfabeto latino, ao qual foram incluídas seis letras com sinais diacríticos: ĉ, ĝ, ĥ, ĵ, ŝ e ŭ. A língua não inclui as letras q, w, x e y, que podem porém ser encontradas em textos no seio de palavras não assimiladas oriundas de outras línguas. O alfabeto contém 28 letras: a b c ĉ d e f g ĝ h ĥ i j ĵ k l m n o p r s ŝ t u ŭ v z Todas as letras são pronunciadas como seus equivalentes minúsculos no Alfabeto Fonético Internacional, à exceção das seguintes: A impossibilidade de se escrever as letras com sinais diacríticos em certos meios fez com que se adotassem convenções substitutivas. Zamenhof, ainda nos primeiros anos da língua, recomendou o uso de "h" após as letras "c", "g", "h", "j" e "s" para formar "ĉ", "ĝ", "ĥ", "ĵ" e "ŝ". Uma convenção semelhante, mas com o "x", usando-o também para o "ŭ" ("cx" = "ĉ", "ux" = "ŭ", etc.), foi criada originalmente para utilização em telegrafia, evitando situações de ambiguidade entre o "h" ortográfico e este "h" substituto de diacrítico; muito usado recentemente, principalmente em meio eletrônico, com a relativa popularização da internet. Em setembro de 2006, a Seção de Pronúncia da Academia de esperanto propôs uma resolução sobre o uso de sistemas diferentes de escrita sob circunstâncias e necessidades especiais: a "substituição [das letras acentuadas por outros signos ou combinação de signos], quando for apenas um meio técnico que não objetive reformas da ortografia do esperanto, e quando ele não causar confusão alguma, não deve ser visto como contrária ao Fundamento". Assim, o uso do esperanto em código Morse, braile, taquigrafia e com a letra x em substituição aos sinais diacríticos é considerado correto por esta Academia, sob circunstâncias específicas. Razões alegadas para adesão ao esperanto. Problema linguístico. Muitos esperantófonos tomaram a iniciativa de aprender esperanto pelo chamado "lingva problemo" (literalmente, problema linguístico). Uma das maiores faces desse problema é o chamado imperialismo cultural, que encerra, em si, o favorecimento a poucos grupos linguísticos, e a pouca praticidade da estrutura vigente de comunicação entre sujeitos sociais de línguas diferentes. Vários estudiosos têm se debruçado sobre esses aspectos. Izabel Cristina Oliveira Santiago levanta várias ocasiões históricas em que o custo de traduções alcança níveis questionáveis: "Nova Délhi, 1968. A Conferência da Organização das Nações Unidas sobre Comércio e Desenvolvimento custou mais de 2 milhões de dólares dos Estados Unidos, sendo que mais da metade disso foi gasto com o uso de apenas quatro línguas — tidas como predominantes. [...] só em 1976, por exemplo, em vez de serem investidos na alimentação das multidões de famintos, 700 mil dólares dos Estados Unidos foram gastos para traduzir, em seis línguas, os relatórios sobre a fome mundial." O psicólogo e ex-tradutor das Organização das Nações Unidas, Claude Piron (Bélgica, 1931 - 22 de janeiro de 2008), dedicou-se à temática, abordando-a sob um ponto de vista psicológico a partir de vastíssimo material bibliográfico e documental, tratando a insistência no atual modelo de comunicação internacional como uma neurose. Comunidade esperantófona. Geografia e demografia. Esperantófonos são mais numerosos na Europa e Ásia Oriental do que nas Américas, África e Oceania, e mais numerosos em áreas urbanas do que em rurais. Na Europa, é mais comum nos países do norte e do leste; na Ásia, na China, na Coreia, no Japão e no Irã; nas Américas, no Brasil, na Argentina e no México; na África, no Togo e em Madagascar. Uma estimativa do número de esperantófonos foi feita por Sidney S. Culbert, um professor de psicologia aposentado da Universidade de Washington e esperantista de longa data que rastreou e avaliou esperantófonos em áreas de amostragem em dezenas de países por mais de vinte anos. Culbert concluiu que entre um e dois milhões de pessoas falam esperanto no nível 3 da escala ILR (competência linguística para trabalho profissional). A estimativa de Culbert não foi feita apenas para o esperanto; incluía-se numa listagem de estimativas para todas as línguas com mais de um milhão de falantes, publicada anualmente no "The World Almanac and Book of Facts". Uma vez que Culbert nunca publicou os resultados detalhados para países e regiões particulares, é difícil verificar a precisão de seus resultados. Cultura. Como uma língua planejada, o esperanto realmente não possuía a princípio uma cultura, mas os mais de 130 anos de história (desde 1887) e divulgação da língua geraram o que poderíamos chamar como uma cultura multinacional esperantista. Algumas pessoas acusam-no quanto a ser um "idioma universal" por não apresentar cultura, literatura, falantes nativos e por outras razões. Em contrapartida, já há elementos de cultura própria do esperanto, há um acervo considerável de músicas e obras literárias originais na língua (inclusive alguns escritores, como William Auld, que já foram indicados ao Nobel de Literatura por suas obras originais em esperanto), há pessoas que têm o esperanto como língua materna (na maioria dos casos, poliglotas) e a língua é usada em todos os continentes. O esperanto não veio de uma cultura específica, mas formou uma. Esperantistas falam em esperanto e sobre esperanto, usando termos, gírias, sarcasmos e uma série de expressões próprias do meio esperantista, alguns aspectos comuns de todos os esperantistas podem definir tal cultura. A literatura em esperanto, consistindo de obras traduzidas e escritas diretamente na língua é altamente universalista, pois são adicionadas à literatura esperantista as melhores obras de cada nação, juntamente com os aspectos particulares de cada uma, assim como as crenças e costumes típicos de cada povo. Nas obras escritas diretamente em esperanto, vemos a mesma universalidade presente em toda a cultura esperantista. Devido à ideia inicial de fraternidade do esperanto, a tolerância e respeito aos costumes e crenças dos vários povos consiste em um dos componentes dessa cultura; o repúdio ao imperialismo cultural é comum entre os esperantistas, e o desejo de intercâmbio e contato com outros povos apresenta-se na absoluta maioria dos esperantistas, muitas vezes consistindo um dos motivos do aprendizado da língua. Isso é comprovado na leitura do Manifesto de Praga, documento que sintetiza os objetivos comuns a todos os falantes do esperanto. Além do desenvolvimento da cultura em torno da língua, é interessante notar que a causa esperantista parece atingir um grupo especial de indivíduos, tendo eles em comum o desejo de democracia e igualdade entre as nações. A constante entrada desses indivíduos no meio esperantista, faz com que sua cultura se desenvolva e se torne mais universalista a cada dia. Um excelente exemplo das particularidades da cultura esperantista são as expressões idiomáticas surgidas ao longo da evolução da língua, frutos diretos da comunicação internacional entre esperantistas. Um argumento comum dos esperantistas é que o esperanto é uma língua democrática, pois através dela uma cultura não é imposta aos novos falantes, como é o caso do inglês, então caberia perguntar se essa cultura nova, gerada ao longo da evolução esperantista pós guerras não seria imposta aos povos que a adotarem como língua auxiliar. Isso certamente pode acontecer, mas por ser altamente universalista, ela tenderia a não causar males às culturas locais, e sim absorver para si mais e mais dessas culturas locais, a cultura da língua esperantista, se adotada pelos povos, seria então uma cultura comum, gerada por todas as nações, e que poderia até mesmo servir para aproximar algumas populações. No Manifesto de Praga, a democracia cultural é tratada como algo extremamente forte no esperanto. Os Congressos Universais de Esperanto, realizados anualmente desde 1905 (excluindo-se o período das grandes guerras), alimentam e aprimoram a cultura esperantista. Nesses congressos é visível a plena existência de uma cultura geral, independente da nacionalidade de cada participante. Os Discursos de Zamenhof mostram alguns indícios dessas características de forma clara. Símbolos. Há alguns símbolos atribuídos pelo movimento esperantista a si mesmo ou à língua. Não há unanimidade no movimento esperantista a respeito da política do uso de símbolos, mas a maioria dos esperantistas reconhecem três símbolos: a estrela verde, a bandeira e o "Jubilea Símbolo". Argumenta-se contra a estrela e a bandeira que elas dão um ar nacionalista ao objeto representado, podendo também ser confundido com ideários de outra natureza (o Islão e o movimento dito comunista, por exemplo). Estrela verde. O mais simples e antigo dos símbolos é a estrela verde de cinco pontas, usada, por exemplo, como broche ou adesivo para automóvel. Segundo a tradição, as cinco pontas representam os cinco continentes (segundo cálculo tradicional) e o verde simboliza a esperança. Zamenhof, entretanto, em 1911, já não tinha mais certeza de sua origem; a cor lhe fora proposta pelo irlandês A. Richard Henry Geoghegan, que depois lhe esclareceu que se tratava da cor nacional da Irlanda. Já em 1893, Louis de Beaufront propunha o uso do verde e da estrela em tudo que se relacionasse ao movimento. A consolidação da estrela como símbolo do esperanto data dos últimos anos do século XIX; da estrela na cor verde, provavelmente apenas em 1904. Bandeira. A bandeira é uma espécie de extensão da estrela verde, retomando a mesma cor e significados, com a adição do branco, para representar paz e neutralidade. Era originalmente a bandeira do clube de esperanto de Bolonha-sobre-o-Mar (França). Foi adotada generalizadamente nessa cidade por ocasião do primeiro Congresso Universal de Esperanto, em 1905. "Jubilea simbolo". O "jubilea simbolo" ("símbolo do jubileu") é um símbolo alternativo proposto para o esperanto, contendo a ideia interna da língua: juntar todos. As suas duas metades laterais representam a letra latina E (Esperanto) e a letra cirílica Э (Эсперанто), simbolizando a união do ocidente e do oriente. A ideia de usar as duas letras ocorreu por causa da Guerra Fria, quando as duas grandes potências estatais a se enfrentar tinham como línguas maternas o inglês (com alfabeto latino) e o russo (com alfabeto cirílico). A sua elaboração foi promovida através de um concurso em 1983, por ocasião do centenário da língua (1987). A ideia original é do brasileiro Hilmar Ilton S. Ferreira. O símbolo é usado com cores diferentes, com ou sem contornos, de acordo com a opção do usuário. Esperanto e movimentos sociais. Existem diversos movimentos sociais e culturais que apoiam o esperanto de alguma forma. Centro de Mídia Independente. O Centro de Mídia Independente (CMI) é uma rede internacional formada por produtores de informação de ordem política e social que se autodeclaram independentes de quaisquer interesses empresariais ou governamentais. O site brasileiro do CMI possui versão em esperanto. Bona Espero. Bona Espero é uma escola e internato localizada no município de Alto Paraíso de Goiás, região norte do estado de Goiás, a 412 quilômetros de Goiânia (capital do estado) e a 280 quilômetros de Brasília (capital federal), que abriga crianças carentes da região onde a utilização e o ensino do esperanto é comum no dia a dia. A instituição vem sendo visitada por muitos esperantistas ao longo de seus mais de 50 anos de existência. Foi fundada por um grupo nordestino de esperantistas; hoje, é administrada pelo casal Gratapagglia, por Ursula (alemã) e Giuseppe (italiano), além de outros três diretores. Esperanto e religiões. Alguns grupos religiosos ao redor do mundo apoiam, de alguma forma, o esperanto. Catolicismo. Em 1910, foi fundada a União Internacional Católica Esperantista, cujo órgão, a revista Espero Katolika, é o periódico em esperanto mais antigo ainda em atividade. Papas (incluindo pelo menos o João Paulo II e Bento XVI) usaram o esperanto frequentemente no "urbi et orbi" multilíngue. A Radio Vaticana transmite semanalmente em Esperanto. Cristandade em geral. A "Kristana Esperantista Ligo Internacia" (Liga Internacional Cristã Esperantista) foi formada logo cedo na história do esperanto e é de orientação predominantemente protestante, mas também são filiados a ela católicos romanos e ortodoxos. Há alguns apologistas e professores cristãos que usam o esperanto como um meio de comunicação. O pastor nigeriano Bayo Afolaranmi tem um grupo no Yahoo! chamado "Spirita nutraĵo" (alimento espiritual), que hospeda mensagens semanais desde 2003. Espiritismo. Em 1908, o espírita Camilo Chaigneau escreveu um artigo intitulado "O Espiritismo e o Esperanto" na revista de Gabriel Delanne (depois reproduzido no periódico "La Vie d'Outre-Tombe", de Charleroi, e na revista brasileira Reformador em 1909), recomendando o uso de Esperanto em uma "revista central" para todos os espíritas no mundo. O esperanto, então, foi divulgado ativamente no Brasil por espíritas. Este fenómeno originou-se através de Ismael Gomes Braga e Francisco Valdomiro Lorenz, sendo o último um emigrante de origem checa que foi pioneiro de ambos os movimentos neste país. Assim, a Federação Espírita Brasileira publica livros didáticos de esperanto, traduções das obras básicas do espiritismo e encoraja os espíritas a se tornarem esperantistas. Por causa disso, no Brasil, muitos não esperantistas mal-informados têm a impressão de que o esperanto é "língua de espírita"; a contradizê-lo é de notar a discrepância entre o número relativamente elevado de espíritas entre os esperantófonos brasileiros (entre um quarto e um terço) e a insignificância do recíproco (número de espíritas brasileiros que falam esperanto, cerca de 1%). Este fenómeno não se verifica noutros países. Fé Bahá'í. A Fé Bahá'í encoraja o uso de uma língua auxiliar, e, sem endossar nenhuma língua específica, vê no esperanto um grande potencial para esse papel. Lidja Zamenhof, filha do fundador do esperanto, tornou-se Bahá'i e foi uma destacada personalidade da embrionária Fé Bahá'í no início do século XX. Homaranismo. Zamenhof promoveu uma doutrina filosófica e religiosa chamada homaranismo, mas temeu que se confundissem as ideias da doutrina com o ideal pró-esperanto. Por esse e outros motivos, não se empenhou tanto em sua divulgação. Todavia, a maior parte dos adeptos do homaranismo hoje são esperantistas, tendo conhecido a doutrina através do esperanto. Islão. Ayatollah Khomeini do Irã fez um chamado oficial aos islâmicos ao aprendizado do esperanto e elogiou o uso dessa língua como um meio para melhor compreensão entre povos de diferentes religiões. Após sugerir que o esperanto substituísse o inglês como uma língua franca internacional, a língua foi introduzida nos seminários de Qom. Uma tradução do Corão em esperanto foi publicada pelo estado pouco tempo depois Khomeini e o governo iraniano passaram a fazer oposição ao esperanto em 1981 após notar que seguidores da Fé Bahá'i estavam interessados no esperanto. Oomoto. A religião oomoto encoraja o uso do esperanto entre seus seguidores, e inclui Zamenhof entre seus espíritos divinos. Pentecostalismo. A Congregação Cristã no Brasil recebeu uma versão em Esperanto, intitulada de "Kristana Kongregacio en Brazilo". Traduções da Bíblia. A primeira tradução da Bíblia para esperanto foi uma tradução do Tanakh (Velho Testamento), feita por Zamenhof. A tradução foi revisada e comparada com traduções para outras línguas por um grupo de clérigos britânicos, antes de sua publicação na "British and Foreign Bible Society" em 1910. Em 1926, ela foi publicada junto com uma tradução do Novo Testamento, numa edição geralmente chamada de "Londona Biblio". Nos anos 1960, "Internacia Asocio de Bibliistoj kaj Orientalistoj" tentou organizar uma nova e ecumênica versão da Bíblia em esperanto. Desde então, o pastor luterano Gerrit Berveling traduziu os Livros Deuterocanônicos, além de novas traduções dos Evangelhos, algumas das epístolas do Novo Testamento e alguns livros do Tanakh; estes foram publicados em várias brochuras separadas, ou em série na revista "Dia Regno", mas os deuterocanônicos apareceram numa edição recente da "Londona Biblio". Uso. O esperanto é, frequentemente, usado para se ter acesso a uma cultura internacional, dispondo ele de um vasto leque de obras literárias, tanto traduzidas como originais. Há mais de 25 000 livros em esperanto, entre originais e traduções, além de mais de uma centena de revistas editadas regularmente. Muitos esperantófonos usam a língua para viajar livremente pelo mundo usando o Pasporta Servo, rede internacional de hospedagem solidária. Outros têm correspondentes em vários países diferentes através de serviços como o Esperanto Koresponda Servo. Com o desenvolvimento da internet e sua maior popularização, as iniciativas de imprensa em esperanto têm se tornado mais fáceis, e pouco a pouco ela se desenvolve. Atualmente, vários Estados subvencionam transmissões regulares em esperanto de suas estações de rádio oficiais, como República Popular da China, Polónia (diariamente), Cuba, Itália e Vaticano. Em menor escala, várias estações de rádio mantêm programas em ou sobre esperanto, como a Rádio Rio de Janeiro, que tem um departamento dedicado exclusivamente ao esperanto. Anualmente, de 1 200 a 3 000 esperantistas encontram-se anualmente no Congresso Universal de Esperanto. A língua mostra-se útil essencialmente para a troca de informações entre indivíduos de etnias diferentes que, doutra maneira, só seria realizada através de elementos mediadores (uma língua estranha a pelo menos um deles, um intérprete, organizações privadas, Estados etc.). Comparado a uma língua étnica, o esperanto apresentou algumas utilidades particulares: Num estudo, um grupo de estudantes do ensino secundário estudou esperanto durante seis meses e, depois, francês durante ano e meio, obtendo um melhor conhecimento de francês do que o grupo-controle, que estudou só o francês durante dois anos. É provável que outras línguas planificadas também apresentem esse efeito no mesmo grau que o esperanto, mas devido ao maior número de falantes e melhor disponibilidade de material didático, a língua esperantista parece ser a mais recomendável para obter o efeito propedêutico.
749
Email
Email
751
Enciclopédia
Enciclopédia Enciclopédia (, formado a partir de "circular" + "educação") é uma coletânea de textos bastante numerosos, cujo objetivo principal é descrever o melhor possível o estado atual do conhecimento humano. Pode-se definir como uma obra que trata de todas as ciências e artes do conhecimento do homem atual. Pode ser tanto um livro de referência para praticamente qualquer assunto do domínio humano como também uma obra na "internet". As enciclopédias podem ser divididas em dois grupos: "genéricas", que coletam conhecimentos de todo o conhecimento humano (como, por exemplo, a Encyclopædia Britannica), ou especializadas, com tópicos relacionados a um assunto específico (como, por exemplo, uma enciclopédia de medicina ou de matemática). O termo "enciclopédia" começou a ser utilizado em meados do século XVI, embora trabalhos de formato similar já existissem em épocas anteriores. Etimologia. A palavra "enciclopédia" provém do Grego Clássico ἐγκύκλιος παιδεία" (transliterado: "enkyklios paideia"), literalmente "educação circular", isto é, "conhecimento geral". Embora a noção de um compêndio de conhecimento remonte a milhares de anos, o termo foi utilizado pela primeira vez no título de um livro publicado em 1541 por Joachimus Fortius Ringelbergius, "Lucubrationes vel potius absolutissima kyklopaideia" (Basileia, 1541). A palavra "enciclopédia" foi utilizada primeiramente como um substantivo, no título do livro do enciclopedista croata Skalić, "Encyclopaedia seu orbis disciplinarum tam sacrarum quam prophanarum epistemon" (Enciclopédia, ou conhecimento do mundo das disciplinas, Basel, 1559). Um dos mais antigos usos em francês foi realizado por François Rabelais em sua obra "Pantagruel", em 1532. Várias enciclopédias têm nomes que incluem o sufixo "-pedia", como por exemplo a Banglapedia, uma enciclopédia sobre as questões relevantes para Bengala, ou a própria Wikipédia, uma enciclopédia redigida com o sistema wiki. Características. A enciclopédia como conhecemos hoje foi desenvolvida a partir do dicionário no século XVIII. Um dicionário concentra-se principalmente em palavras e as suas definições e, normalmente, dá uma informação limitada, a análise do uso linguístico ou o contexto para cada termo definido. Essa definição linguística pode deixar de informar, ao leitor, o significado, a importância ou as limitações de um termo, ou as relações do termo com um vasto campo de conhecimento. Para fazer face a essas necessidades, um artigo de enciclopédia aborda, além da palavra, o próprio conceito e também o tema ou disciplina, tratando-os com profundidade, a fim de transmitir o conhecimento acumulado sobre esse tema. Uma enciclopédia, muitas vezes, também inclui mapas e ilustrações, bem como bibliografias e estatísticas. Historicamente, tanto a enciclopédia como o dicionário foram pesquisados e escritos com o fim de contribuir para a educação e informação, muitas vezes com a contribuição de peritos, ou especialistas. Algumas obras intituladas "dicionário" são, de facto, similares a uma enciclopédia, especialmente as ligadas a área determinada (como os "Dictionary of the Middle Ages", "Dictionary of American Naval Fighting Ships" e "Black's Law Dictionary"). O "Dicionário Macquarie", reconhecido como o dicionário oficial da Austrália, tornou-se um dicionário enciclopédico após a sua primeira edição, em reconhecimento do uso de nomes próprios e de palavras derivadas de tais nomes próprios, típico de uma obra enciclopédica. História. Antiguidade. Grande parte dos escritos que procuravam englobar o conhecimento humano na Antiguidade eram de estilo específico, ou especializado (geralmente relacionados à natureza ou à filosofia). Alguns dos grandes filósofos da Antiguidade já haviam tentado escrever sobre todos os campos de conhecimento estudados. Na China antiga, no século III AEC, foi escrita a enciclopédia chinesa mais antiga conhecida, o Erya. O autor (ou autora?) do livro é desconhecido, embora seja tradicionalmente atribuída ao Duque de Zhou, Confúcio ou os seus discípulos. Aristóteles escreveu um conjunto de obras sobre os seres vivos, que foram preservadas: "De anima", "Parva naturalia", "Historia animalium", "De partibus animalium", "De motu animalium", "De incessu animalium" e "De generatione animalium". Muitas delas tratam de assuntos bastante teóricos, discutindo os motivos dos fenômenos da vida; outras são mais descritivas, compreendendo um vasto volume de fatos. Em "Historia animalium", o filósofo grego apresentou uma descrição muito detalhada de aproximadamente 550 espécies, incluindo vertebrados e invertebrados. Também tratou de descrever as aparências externa e interna, os costumes dos animais, redigiu uma comparação detalhada entre as espécies e tentou descrever suas principais características e diferenças. Quatro séculos após a obra de Aristóteles ser publicada, Plínio, o Velho coligiu, em sua obra "Naturalis historiae", todas as informações que pôde encontrar sobre plantas, animais, minerais e diversos outros tópicos, repartidos em 37 partes. A primeira obra apresenta um índice e uma bibliografia por completo. Os livros II a VI tratam, respectivamente, sobre a astronomia e a geografia; os livros VII a XI, tratam sobre a zoologia; os XII a XIX, sobre a botânica e a agricultura; os XX a XXVII, sobre apenas a botânica médica; os livros XXVIII a XXXII descrevem diferentes remédios e antídotos retirados de diferentes animais e do próprio homem; e os livros XXXIII a XXXVII tratam unicamente sobre mineralogia e metais. Essa obra, em conjunto, é considerada uma grande enciclopédia sobre a natureza. Idade Média. No século X, em Constantinopla, apareceu uma obra coletiva greco-bizantina de grande interesse para o conhecimento da Antiguidade Grega. Trata-se de uma compilação de obras e personagens classificadas de forma inovadora por ordem alfabética que se apresenta, portanto, como a primeira enciclopédia: a Suda. Apesar de várias imprecisões e erros, a Suda contém informações inestimáveis, uma vez que seus autores tiveram acesso a obras agora perdidas. Esse cobiçado livro, nos dias atuais, é conhecido como a primeira enciclopédia de que se tem notícia, pela amplidão de conhecimento atingido (porém, não se extinguem possibilidades de terem existidas outras obras, talvez mais completas, de não tanto sucesso). Santo Isidoro de Sevilha, um dos maiores estudiosos do início da Idade Média, é amplamente reconhecido como sendo o autor da primeira enciclopédia de que se tem conhecimento dos tempos medievais, o "Etymologiae" (publicado em torno do ano de 630), no qual ele compilou a mais ampla possível aprendizagem disponível na sua época, criando uma enorme leva de conhecimento de 448 capítulos em 20 volumes; é muito valioso não só pela sua importância, mas também por causa das citações e fragmentos de textos de outros autores que teriam sido perdidos não fosse o trabalho de Santo Isidoro. "De Rerum proprietatibus" (1240) de Bartolomeu da Inglaterra foi a mais lida e citada enciclopédia na Baixa Idade Média, enquanto "Speculum Majus" (1260) de Vicente de Beauvais foi a mais ambiciosa enciclopédia do período tardo-medieval, com mais de 3 milhões de palavras. Árabes e Persas. As primeiras compilações de conhecimento muçulmanas de que se tem notícia na Idade Média incluíam muitas obras já completas, e um desenvolvimento respeitosamente vasto do que, agora, chamamos método científico, método histórico, e citação. Por volta do ano 960, os Irmãos da Pureza de Baçorá se empenharam na confecção de sua obra "Enciclopédia dos Irmãos da Pureza". Outras obras notáveis foram: a enciclopédia de ciências de Rasis, a prolífica produção de Alquindi de 270 livros, e a enciclopédia médica de Avicena, que foram, por séculos, padrões de referência para trabalhos. Também notáveis são obras de história universal (ou sociologia), como "História de Profetas e Reis" dos Axaritas, Atabari, Almaçudi, ibne Rusta, Ali ibne Alatir, e ibne Caldune, cuja "Muqadimmah" contém alertas quanto à confiança em registos escritos que permanecem totalmente aplicáveis hoje. Esses estudiosos tiveram uma incalculável influência sobre os métodos de investigação e edição, em parte devido à prática islâmica "isnad", que destacou a fidelidade do registo escrito, verificando fontes, e céticos inquéritos. Idade Moderna. Hoje em dia, é creditada a criação da primeira enciclopédia moderna à "Encyclopédie", de 28 volumes, 71 818 artigos, e 2 885 ilustrações, editada por Jean le Rond d’Alembert e Denis Diderot em 1772, tendo como colaboradores Rousseau, Voltaire, Montesquieu e outros ensaístas ilustres. Porém, antes destes respeitáveis iluministas terem atingido um grau de amplitude muito superior, John Harris havia escrito anteriormente, em 1704, a "Lexicon technicum", e a ele é creditado o estabelecer do formato moderno de uma enciclopédia, tal como a conhecemos hoje. No século seguinte, George Wilhem Hegel publicou a sua "Enciclopédia das Ciências Filosóficas", em que se cristaliza a ideia de enciclopédia como apresentação sistemática de uma ciência ou de um conjunto de ciências. Formatos contemporâneos. O formato hierárquico e sua natureza em permanente evolução tornam obras enciclopédicas alvos perfeitos para publicação em formato digital. Praticamente todas as grandes enciclopédias tiveram uma versão em CD-ROM no final do século XX. A versão em CD-ROM conta com a vantagem de ser portátil e de produção extremamente econômica. Além disso, uma enciclopédia em formato digital pode ter conteúdos como animações e áudio, impossíveis de serem inseridos numa tradicional publicação escrita. A inclusão de "hyperlinks" ligando artigos relacionados também é uma enorme vantagem do formato digital. Por fim, o advento da internet possibilitou a criação das enciclopédias livres, sendo atualmente as mais conhecidas: a Everything2, a Encarta, a h2g2 e a Wikipédia. Nestas, pela primeira vez na história da humanidade, qualquer pessoa pode fazer contribuições e corrigir e/ou ampliar as entradas já existentes, o que resulta num banco de dados universal (?) que é continuamente aperfeiçoado. Embora qualquer um possa editar essas enciclopédias, atualmente, apenas 15% das edições realizadas na Wikipedia em língua portuguesa, por exemplo, são de mulheres. Algumas iniciativas tentam mudar esse cenário, como a organização Art + Feminism, a coletiva curatorial Na Pupila e a cientista inglesa Jessica Wade Este tipo de enciclopédia permite ainda que o significado de um determinado verbete seja consultado em vários idiomas, expandindo os resultados da pesquisa. As enciclopédias impressas modernas do século XX realmente perderam muito valor. Os negociantes de livros em segunda mão possuem dificuldades para vendê-los, e até mesmo algumas associações de caridade as recusam como doações.
752
Encyclopædia Britannica
Encyclopædia Britannica A Encyclopædia Britannica é uma enciclopédia generalista de língua inglesa publicada pela Encyclopædia Britannica, Inc., uma editora privada. É amplamente considerada como a mais acadêmica das enciclopédias. A "Britannica" inicialmente foi publicada entre 1768 e 1771, em Edimburgo, Reino Unido, e depressa aumentou em popularidade e tamanho, com a sua terceira edição, em 1801, alcançando os vinte volumes. O aumento de tamanho implicou a contratação de colaboradores, e as suas 9.ª (1875–1889) e 11.ª edições (1911) são consideradas como marcos no que toca a enciclopédias acadêmicas e de estilo literário. Começando com a 11.ª edição, a "Britannica" foi gradualmente diminuindo e simplificando os seus artigos a fim de os tornar mais acessíveis, e alargar a sua expansão ao mercado nos Estados Unidos. Em 1933, a "Britannica" tornou-se a primeira enciclopédia a adotar a política "em contínua revisão", que resulta em que a enciclopédia seja continuamente reimpressa e cada verbete seja atualizado regularmente. A edição atual (a 15.ª) tem uma única estrutura dividida em três partes: a "Micropædia", de 12 volumes, contém verbetes menores (geralmente tendo menos de 750 palavras), a "Macropædia", de 17 volumes, com longos artigos (tendo de duas a 310 páginas cada) e a "Propædia", num só volume, que pretende fornecer um esboço do conhecimento humano, de modo hierárquico. A "Micropædia" é destinada a pesquisa rápida e a servir como guia para a "Macropædia"; os leitores são aconselhados a estudar o esboço da "Propædia" a fim de entender o contexto do assunto e para encontrar outros artigos, mais detalhados. O tamanho da "Britannica" tem-se mantido muito constante ao longo dos últimos 70 anos, com cerca de 40 milhões de palavras e meio milhão de tópicos. Embora a sua publicação tenha sede nos Estados Unidos desde 1901, a "Britannica" manteve a ortografia inglesa tradicional. Ao longo da História, a "Britannica" tem tido dificuldade em permanecer rentável — um problema enfrentado por muitas enciclopédias. Alguns verbetes, em determinadas edições anteriores da "Britannica", foram acusados de imprecisão, viés ou falta de qualificação dos colaboradores. A precisão de partes da edição mais recente (de 2005) tem sido igualmente questionada, embora tais críticas tenham sido contestadas pela gestão da "Britannica". Apesar disso, a "Britannica" mantém a sua reputação como fonte de pesquisa confiável. Em 3 de março de 2012, foi anunciado que a "Encyclopædia Britannica", agora com sede em Chicago, não iria publicar mais versões impressas em papel focando-se apenas na sua versão "online". História. Descrição geral. A propriedade da "Britannica" mudou muitas vezes ao longo do tempo, tendo passado por vários donos como: a editora escocesa A & C Black, Horace Everett Hooper, Sears Roebuck e William Benton. O presente dono da Encyclopædia Britannica, Inc. é Jacqui Safra, de nacionalidade suíça, milionário e ator. Os recentes avanços das tecnologias da informação e o aumento das enciclopédias eletrônicas tais como a "Encarta" e a Wikipédia reduziram a procura de enciclopédias impressas. A fim de permanecer competitiva, a "Encyclopædia Britannica, Inc." tem enfatizado a boa reputação da "Britannica", reduzindo seu preço e os custos de produção e desenvolvido versões eletrônicas em CD-ROM, DVD e World Wide Web. Desde os primeiros anos da década de 1930, a editora promoveu também trabalhos de referência spin-off. Edições. A "Britannica" foi impressa em 15 edições oficiais, com suplementos multi-volumes da 3.ª a 5.ª edições (ver a Tabela abaixo). Estritamente falando, a décima edição foi apenas um suplemento da 9.ª, assim como as edições 12.ª e 13.ª foram suplementos da 13.ª edição. A 15.ª edição sofreu uma mudança drástica, em termos de organização, em 1985, mas a atualização, versão corrente, continuou conhecida como 15.ª edição. Ao longo de sua história, a "Britannica" foi desenvolvida com dois objetivos: ser um excelente livro de referências e providenciar material educacional para quem tenha desejo de estudar. Em 1974, a 15.ª edição adotou um terceiro alvo: sistematizar todo o conhecimento humano. A história da "Britannica" pode ser dividida em cinco fases principais em que se destacam mudanças maiores, tanto na gestão quanto na reorganização do seu conteúdo. Na primeira fase (edições 1 a 6, 1768–1826), a "Britannica" foi gerida por seus fundadores originais, Colin Macfarquhar e Andrew Bell, e por seus amigos e conhecidos, tais como Thomas Bonar, George Gleig e Archibald Constable. A "Britannica" foi primeiramente publicada entre 1768 e 1771 em Edimburgo como "Encyclopædia Britannica, ou, Um dicionário de arte e ciência, compilado sob um novo plano". Foi concebida como uma reacção conservadora à provocativa "Encyclopédie" francesa de Denis Diderot (publicada entre 1751 e 1766), que por sua vez havia sido inspirada pela anterior "Chambers Cyclopaedia". A "Britannica" foi, primeiramente, uma empresa escocesa e tinha como símbolo o cardo, o emblema nacional da Escócia. A criação da enciclopédia é um dos mais famosos e perseverantes legados do Iluminismo Escocês. Nesta fase, a "Britannica" deixou de ser um conjunto de três volumes (1.ª edição) compilados por um jovem editor — William Smellie — para se tornar uma obra de vinte volumes escrita por numerosas autoridades. Embora várias outras enciclopédias tenham competido com a "Britannica", como a "Rees's Cyclopaedia" e a "Encyclopaedia Metropolitana", de Samuel Taylor Coleridge, estes rivais ou faliram ou ficaram inacabados por desentendimentos entre os editores. No fim desta fase, a "Britannica" tinha constituído uma rede de ilustradores, primeiramente entre os conhecidos de seus editores, sendo os mais relevantes Constable e Gleig. Durante a segunda fase (edições 7 a 9, 1827–1901), a "Britannica" foi gerida pela editora de Edimburgo, A & C Black. Embora alguns colaboradores fossem recrutados novamente através de relacionamentos, sendo Macvey Napier o mais relevante, outros foram atraídos pela reputação sempre crescente da "Britannica". Os colaboradores muitas vezes vinham de outros países e incluíam algumas das autoridades mais respeitadas nas suas áreas. Na sétima edição foi incluído, pela primeira vez, um índice geral de todos os artigos, prática que se manteve até 1974. O primeiro editor-chefe nascido em Inglaterra foi Thomas Spencer Baynes, que supervisionou a produção da famosa 9.ª edição; nomeada "Edição Acadêmica", a 9.ª edição é muitas vezes considerada como sendo a "Britannica" mais direcionada ao uso acadêmico alguma vez produzida. No entanto, no fim do século XIX, a 9.ª edição estava desatualizada e a "Britannica" enfrentava sérias dificuldades financeiras. Na terceira fase (10.ª a 14.ª edições, 1901–1973), a "Britannica" foi gerida por negociantes estadunidenses, que introduziram técnicas de venda agressivas, tais como o marketing direto e venda porta a porta, a fim de aumentar os lucros. Os donos norte-americanos simplificaram, gradualmente, os verbetes da "Britannica", fazendo-a menos acadêmica, mas mais inteligível para o mercado das massas. A décima edição foi rapidamente produzida, como suplemento da 9.ª, mas a 11.ª edição ainda é prezada pela sua excelência; o seu dono, Horace Everett Hooper, esforçou-se na busca da sua perfeição. Quando Hooper entrou em dificuldades financeiras, a "Britannica" passou a ser gerida por Sears Roebuck durante cerca de 18 anos (1920–1923, 1928–1943). Em 1932, a vice-presidente de Sears, Elkan Harrison Powell, assumiu a presidência da "Britannica"; em 1936, começou a política de revisão contínua (ainda praticada), que faz com que cada verbete seja verificado e possivelmente revisado pelo menos duas vezes em cada década. Esta foi uma grande mudança pois, com a prática anterior, os artigos não eram alterados a não ser aquando de uma nova edição, com cerca de 25 anos de intervalo, com alguns artigos sendo transportados de edições anteriores sem alteração. Powell, agressivamente, desenvolveu novos produtos educacionais, que se baseavam na reputação da "Britannica". Em 1943, a posse passou de Sears Roebuck para William Benton, diretor da "Britannica" até sua morte, em 1973. Benton fundou ainda a Fundação Benton, que geriu a "Britannica" até 1996. Em 1968, perto do fim desta fase, a "Britannica" celebrou o seu bicentenário. Na quarta fase (15.ª edição, 1974–1994), a "Britannica" introduziu a sua 15.ª edição, que foi reorganizada em três partes: a "Micropædia", a "Macropædia" e a "Propædia". Sob influência de Mortimer J. Adler (membro do quadro de editores da "Encyclopædia Britannica" desde o seu ingresso na companhia, em 1949, e seu presidente desde 1974; diretor dos planos para realização da 15.ª edição da "Britannica", desde 1965), a "Britannica" procurou não só ser uma boa obra de referência e uma ferramenta educacional, mas também sistematizar todo o conhecimento humano. A ausência de um índice separado e o agrupamento de artigos em duas enciclopédias paralelas (a "Micro-" e a "Macropædia") provocaram uma "tempestade de críticas" sobre a 15.ª edição, inicialmente. Em resposta, a 15.ª edição foi totalmente reorganizada e indexada para novo lançamento em 1985. A segunda versão da 15.ª edição continua a ser revisada e publicada; a versão mais recente foi impressa em 2007. O título oficial da 15.ª edição é "Nova Encyclopædia Britannica", e está ainda a ser promovida como "Britannica 3". Na quinta fase (1994–presente), foram desenvolvidas versões digitais da "Britannica", lançadas em disco óptico e internet. Em 1996, a "Britannica" foi comprada à Fundação Benton por Jacqui Safra, bastante abaixo do seu valor, devido às dificuldades financeiras por que a editora passava. A editora Encyclopædia Britannica, Inc. dividiu-se em 1999. Uma parte manteve o nome da companhia e desenvolveu a versão impressa; a outra parte, Britannica.com Inc., desenvolveu as versões digitais. Desde 2001, estas duas companhias partilharam um único CEO, Ilan Yeshua, que continuou a estratégia de expansão da "Encyclopædia Britannica, Inc." de Elkan Harrison Powell em lançar novos produtos sob a marca "Britannica". Dedicatórias. A "Britannica" foi dedicada aos monarcas britânicos de 1788 a 1901 e, após sua venda a uma sociedade estadunidense, ao monarca britânico e ao presidente dos EUA. Assim, a 11.ª edição foi "dedicada, com permissão, a Sua Majestade Jorge V, Rei da Grã-Bretanha e Irlanda e dos Domínios Britânicos de além-mar, Imperador da Índia, e a William Howard Taft, Presidente dos Estados Unidos". A ordem destas duas dedicatórias mudou com os poderes relativos dos EUA e da Grã-Bretanha, e com as vendas relativas da "Britannica" nesses países; a versão de 1954 da 14.ª edição é "dedicada, com permissão aos Chefes de Estado das Duas Nações Anglófonas, Dwight D. Eisenhower, Presidente dos Estados Unidos, e a sua Majestade, Isabel II". De acordo com esta tradição, a versão de 2007 da corrente 15.ª edição é "dedicada, com permissão, ao ex Presidente dos Estados Unidos, George W. Bush, e a sua Majestade, Elizabeth II". Avaliação popular e da crítica. Reputação. Desde a 3.ª edição, a "Britannica" usufruiu de uma reputação excelente, tanto popular como crítica. Várias edições, desde a 3.ª a 9.ª foram pirateadas para venda nos EUA, começando com a Dobson's Encyclopædia. No lançamento da 14.ª edição a revista "Time" batizou a "Britannica" como "O Patriarca das Bibliotecas". Em um anúncio relacionado, o naturalista William Beebe foi citado como dizendo que a "Britannica" estava "além de comparação porque não há nenhum concorrente." Referências à "Britannica" podem ser encontradas em meio da literatura inglesa, notadamente na obra de Arthur Conan Doyle, em seu personagem mais conhecido, Sherlock Holmes, na história "The Red-Headed League". Este conto foi realçado pelo Lord Mayor of London, Gilbert Inglefield, durante o bicentenário da "Britannica" A obra goza de reputação popular como o sumário de todo o conhecimento humano. A fim de aprimorar seus conhecimentos, muitos se dedicaram à leitura de toda a enciclopédia, levando de 3 a 22 anos para consegui-lo. Quando Fat'h Ali Shah Qajar se tornou o Xá da Pérsia, em 1797, foi-lhe ofertado um conjunto completo da 3.ª edição da "Britannica", que ele leu na íntegra; depois deste feito, ele estendeu o seu título real, incluindo "O Mais Formidável Senhor e Mestre da "Encyclopædia Britannica"”. O escritor George Bernard Shaw afirma ter lido inteira a 9.ª edição — excepto os artigos científicos — e Richard Evelyn Byrd levou a "Britannica" como material de leitura para a sua estadia de cinco meses no Polo Sul, em 1934. Mais recentemente, A.J. Jacobs, um editor da revista Esquire, leu a versão inteira de 2002 da 15.ª edição, descrevendo as suas experiências num livro, em 2004, intitulado "The Know-It-All: One Man's Humble Quest to Become the Smartest Person in the World" (“O Sabe-tudo: A jornada de um homem humilde para se tornar a pessoa mais inteligente do mundo”, em livre tradução). Apenas duas pessoas se conhece como tendo lido duas edições diferentes: o autor C. S. Forester e Amos Urban Shirk, um negociante estadunidense, que leu a 11.ª e a 14.ª edições, dedicando, para isso, cerca de três a quatro horas e meia por noite para ler a 11.ª. Vários editores-chefes da "Britannica" provavelmente leram as suas edições na íntegra, tais como William Smellie (1.ª edição), William Robertson Smith (9.ª edição), e Walter Yust (14.ª edição). Prêmios. A "Britannica" tem recebido diversas premiações ao longo de sua existência. A versão on-line ganhou, em 2005, o Prêmio Codie para "Melhor Serviço Online de Informação ao Cliente"; os prêmios Codie são concedidos anualmente pela "Software and Information Industry Association" a fim de reconhecer os melhores produtos entre as categorias de software. Em 2006, a "Britannica" foi de novo finalista. Similarmente, a versão CD/DVD-ROM da "Britannica" recebeu, em 2004, o Prêmio de Distinção, pela "Association of Educational Publishers", e prêmio Codie, em 2001 e 2002. Temas. Como enciclopédia generalista, a "Britannica" procura descrever a mais ampla gama de assuntos possível. Os temas são escolhidos, em parte, por referência no "Esboço do Conhecimento" da "Propædia". Grande parte da "Britannica" é dedicada à geografia (26% da "Macropædia"), biografia (14%), biologia e medicina (11%), literatura (7%), física e astronomia (6%), religião (5%), arte (4%), filosofia ocidental (4%), e direito (3%). Um estudo complementar da "Micropædia" descobriu que 25% dos verbetes eram do ramo da geografia, 18% de ciências exatas, 17% das ciências humanas, 17% eram biografias, e 25% sobre todos os outros ramos das humanidades. Em 1992, um revisor escreveu que "o alcance, a profundidade, a exatidão da análise [da "Britannica"] são insuperáveis por qualquer outra enciclopédia generalista". A "Britannica" não trata os tópicos equivalentes com igual riqueza de detalhes; por exemplo, o verbete Budismo e a maioria das outras religiões são cobertas por um único verbete da "Macropædia", enquanto que 14 verbetes são dedicados ao Cristianismo, representando cerca de metade de todos os verbetes sobre religião. No entanto, tem recebidos louvores por ser considerada a menos "enviesada" de todas as enciclopédias generalistas, comercializadas para leitores ocidentais e prezada pelas suas biografias de mulheres importantes de todas as eras. Crítica. A "Britannica" também tem recebido fortes críticas, especialmente quando as suas edições se tornam desatualizadas. É dispendioso produzir uma nova edição, completa, da "Britannica," e os seus editores, em geral, atrasam as novas edições, tanto quanto sensatamente possível (por norma, cerca de 25 anos). Por exemplo, apesar da política de revisão contínua, a 14.ª edição ficou significativamente desatualizada após 35 anos (1929–1964). Quando o físico norte-americano Harvey Einbinder detalhou os seus erros no seu livro de 1964, "The Myth of the Britannica", o feito resultou em que a enciclopédia produziu a 15.ª edição, que requereu dez anos de trabalho. Continua sendo difícil manter a "Britannica" atualizada; um crítico escreveu, recentemente, que "não é difícil encontrar verbetes desatualizados ou a precisar de revisão", constatando que os artigos maiores, da "Macropædia", correm mais riscos de estarem desatualizados do que os mais curtos, da "Micropædia". A informação na "Micropædia" por vezes é inconsistente com a matéria correspondente no verbete da "Macropædia", principalmente porque uma delas está desatualizada. As bibliografias dos artigos da "Macropædia" obtiveram mais críticas por estarem mais desatualizadas do que pelos artigos em si. Historicamente, dentre os autores da "Britannica" foram incluídas autoridades eminentes, tais como Albert Einstein, Marie Curie e Leon Trotsky. No entanto, alguns dos seus colaboradores têm sido criticados pela sua falta de conhecimento técnico específico: Opiniões. Várias autoridades, desde Virginia Woolf até professores académicos, têm criticado a "Britannica" por esta conter opiniões burguesas e antiquadas sobre as artes, a literatura e as ciências sociais. Por exemplo, a 11.ª edição foi acusada de negligenciar a obra de Sigmund Freud. Um professor contemporâneo da Universidade Cornell, Edward B. Titchener, escreveu, "a "Britannica" não reproduz a atmosfera filosófica dos seus dias e sua geração… Apesar da aura de autoridade, e apesar da fiscalização do pessoal, a grande maioria dos artigos secundários, em geral psicologia;… não estão adequados aos parâmetros da cultura do leitor". Racismo e sexismo em edições anteriores. Pelos padrões modernos, as edições passadas da "Britannica" contiveram artigos cobertos de racismo e sexismo. A 11.ª edição caracteriza a Ku Klux Klan como que protegendo a raça branca e restaurando a ordem aos Estados Sulistas depois da guerra civil, citando a necessidade de "controlar os negros" para "prevenir qualquer combinação de raças" e "a frequente ocorrência do crime de violação de mulheres brancas, por homens negros." Similarmente, o verbete sobre "Civilização" argumenta sobre eugenia, afirmando que é irracional "propagar pessoas com baixo grau de inteligência, aumentando as fileiras dos pobres, deficientes e criminosos, que hoje em dia constituem obstáculo a ameaçar o progresso racial." A 11.ª edição não biografou Marie Curie, apesar de ela ter recebido o Nobel de Física de 1903 e o Nobel de Química de 1911, embora seja brevemente mencionada na biografia do marido Pierre Curie. A "Britannica" empregava uma vasta equipa feminina, que escreveu centenas de verbetes, pelos quais não obtiveram qualquer crédito. Imprecisão. Em 1912, o matemático L. C. Karpinski criticou a 11.ª edição da "Britannica" pelas suas muitas imprecisões em artigos de história da matemática, nenhum dos quais havia sido escrito por especialistas da área. Em 1917, o crítico de arte Willard Huntington Wright publicou o livro, "Misinforming a Nation", que trouxe a público as imprecisões na língua inglesa da 11.ª edição, particularmente nos verbetes sobre humanidades. Muito das críticas de Wright foram também endereçadas a edições posteriores da "Britannica". No entanto, o seu livro foi acusado de polêmico por alguns órgãos da imprensa de seu tempo; por exemplo, o "New York Times" descreveu-o como "livro maldoso e frívolo", enquanto o "The New Republic" opinava que "é uma infelicidade para o propósito do Sr. Wright, o facto de ter procedido de modo anticientífico e ter justificado tão pouco a sua crítica" Outro crítico, o escritor inglês e antigo padre Joseph McCabe, afirmou em seu livro "Lies And Fallacies of The Encyclopædia Britannica" (1947), que a "Britannica" era susceptível à pressão editorial da Igreja Católica Romana. A "Britannica" sempre admitiu que os erros eram inevitáveis numa enciclopédia. Falando da 3.ª edição (1788-97), seu editor-chefe George Gleig escreveu que “a perfeição parece ser incompatível com a natureza do trabalho de construir-se algo como este planejado, e que alberga tamanha variedade de assuntos”. Mais recentemente (março de 2006), a Britannica trouxe uma mensagem onde lia-se que “nós nunca insinuamos que a "Britannica" é livre de erros, nunca fizemos tal afirmação”. O sentimento é expressado pelo editor original da obra, William Smellie: Situação atual. Versão impressa de 2007. Desde 1985, a enciclopédia está dividida em quatro partes: a "Micropædia," a "Macropædia," a "Propædia," e os dois volumes do índice. Seus verbetes estão contidos na "Micro-" e "Macropædia" com doze e 17 volumes, respectivamente, cada um deles contendo aproximadamente mil páginas. A versão de 2007 traz 699 artigos na "Macropædia", que variam em tamanho de duas até 310 páginas, contendo referências e nome dos autores; em contrapartida, a "Micropædia" possui cerca de 65 mil verbetes, a grande maioria dos quais (em volta de 97%) contendo menos que 750 palavras, nenhuma referência e nenhum colaborador assinando. Estes artigos foram planejados para oferecer uma informação rápida, e para auxiliar a localização rápida do conteúdo disponível na "Macropædia" que, por sua vez, possui artigos elaborados por autoridades e bem-escritos dentro de cada especialização, contendo dados reunidos sobre o tema que não se encontram noutra parte. O mais longo artigo, com 310 páginas é sobre os Estados Unidos, e é resultado da fusão dos artigos de todos os 50 estados. As informações podem ser encontradas seguindo-se as referências cruzadas entre "Micro" e "Macropædia" - embora elas sejam escassas, sendo calculada uma média de uma referência cruzada por página. Conseqüentemente, recomenda-se aos leitores que façam a busca no índice alfabético inicialmente, ou à "Propædia", que organizam o conteúdo geral através de tópicos. O lema da "Propædia" é "Esboço do Conhecimento" ("Outline of Knowledge"), indicando que pretende realizar uma organização lógica para todo o conhecimento humano. Efetivamente, esse esboço é usado pelos editores da enciclopédia para decidir quais artigos devem ser incluídos nas duas outras subdivisões. Também tem a pretensão de servir de guia ao consulente, sugerindo-lhe os artigos que deverá ler para ter um conhecimento mais aprofundado sobre o tópico. As bibliotecas, entretanto, constataram que este volume é raramente utilizado, e os revisores sugeriram que fosse abolido da enciclopédia. A "Propædia" também possui transparências coloridas da anatomia humana, e vários apêndices contendo a listagem dos membros administrativos, conselheiros e colaboradores de todas as três subdivisões da obra. Vistas juntas, "Micropædia" e "Macropædia" contêm cerca de 40 milhões de palavras e 24 mil imagens. Os dois volumes de índice têm 2 350 páginas, listando 225 274 tópicos junto com 474 675 sub-entradas sob esses tópicos. A ortografia britânica é preferida sobre a norte-americana, em geral; como exemplo, a palavra "colour" é usada ao invés de "color", "centre" no lugar de "center" e "encyclopaedia" em vez de "encyclopedia". Entretanto, algumas exceções ocorrem, como uso de "defense" ao invés do britânico "defence". A solução alternativa encontrada é o uso de referências cruzadas como em "Color: "see" Colour." Desde 1936 os artigos são revisados em períodos regulares, considerando que a cada ano ao menos 10% deles sejam revisados. De acordo com um dos sítios da "Britannica", 46% dos artigos são revisados a cada três anos; entretanto, em outro sítio, é informado que apenas 35% dos verbetes sofrem revisão neste período. A ordenação alfabética dos artigos na "Micro-" e "Macropædia" segue a regras rígidas. Diacríticos e letras não usadas no inglês são ignorados, enquanto entradas numéricas como ""1812, War of" são ordenadas como se os números fossem escritos na forma cardinal ("Eighteen-twelve, War of"). Verbetes com nomes iguais recebem a seguinte ordem: primeiro as pessoas, depois os lugares e por último as coisas. Governantes com nomes idênticos são seqüenciados primeiro pelo país, e em seguida pela cronologia; Assim, Carlos III da França ("Charles III of France") precede a Carlos I do Reino Unido ("Charles I of England"), por ser listado na "Britannica" como rei da Grã-Bretanha e Irlanda ("Great Britain and Ireland") - ou seja, são listados como se seus nomes fossem escritos assim: "Charles, France, 3" e "Charles, Great Britain and Ireland, 1". De forma similar, os lugares de nomes iguais são organizados alfabeticamente pelos países, e depois pela condição das subdivisões políticas. Material impresso relacionado. Existem diversas edições abreviadas da enciclopédia "Britannica". A "Concise", por exemplo, reúne num só volume 28 mil verbetes curtos que condensam os 32 volumes da edição integral. A "Compton's by Britannica", que incorpora o formato da Enciclopédia Compton, e dirigida a crianças e adolescentes entre 10-17 anos, consiste em 26 volumes e 11 mil páginas. Outros produtos incluem o "My First Britannica", voltado para crianças entre 6 a 12 anos, e a "Britannica Discovery Library", escrita para crianças com idades de 3 a 6 anos. Desde 1938 a Encyclopædia Britannica, Inc. edita anualmente o "Book of the Year" ("Livro do Ano"), reunindo os eventos ocorridos no último ano, e que estão disponíveis on-line a partir da edição de 1994 (com os eventos de 1993, portanto). A companhia ainda edita material especializado de referência, trabalhos como "Shakespeare: The Essential Guide to the Life and Works of the Bard"" ("Shakespeare: O Guia Essecial da Vida e da Obra do Bardo") (Wiley, 2006). Midia eletrônica. O "Britannica Ultimate Reference Suite 2006 DVD" contém mais de cem mil artigos. Inclui 73.645 artigos da "Britannica" impressa, com restante de material da "Britannica Student Encyclopædia", da "Britannica Elementary Encyclopædia" e do "Britannica Book of the Year" (1993–2004), e ainda alguns artigos "clássicos" das primeiras versões da enciclopédia. O pacote inclui uma gama de conteúdos adicionais, como mapas, vídeos, clipes sonoros, animações e ligações à web. Também oferece ferramentas de estudo e entradas de dicionário e léxico da Merriam-Webster. A "Encyclopædia Britannica On-line" é um site com mais de 120 mil artigos atualizados regularmente. Possui referências diárias, atualizações e ligação para notícias do "The New York Times" e da "BBC". A assinatura do conteúdo pode ser anual, mensal ou semanal. Planos especiais de assinatura são oferecidos a escolas, faculdades e bibliotecas; estes subscritores institucionais são uma parte importante dos negócios da "Britannica". Alguns artigos têm acesso livre, mas são exibidas apenas algumas linhas de texto. Iniciado no começo de 2007, a "Britannica" vem disponibilizando ligações para artigos com acesso livre, em sítios externos. Tais ligações externas melhoram com frequência o ranking dos artigos nos resultados dos buscadores. Em 20 de fevereiro de 2007 a "Encyclopædia Britannica, Inc." anunciou que irá trabalhar com a companhia de buscas em telefonia móvel AskMeNow a fim de lançar uma enciclopédia móvel. Os usuários poderão enviar uma pergunta por mensagem de texto, e a AskMeNow procurará num dos 28 mil verbetes da "Britannica" uma resposta concisa para a questão. Tópicos diários, que serão enviados diretamente aos celulares dos usuários, também fazem parte do plano. Responsáveis e colaboradores. Colaboradores. A versão impressa de 2007 da "Britannica" ostenta 4.411 colaboradores, com figuras proeminentes, entre eles o Nobel de Economia Milton Friedman, o astrônomo Carl Sagan e o cirurgião Michael DeBakey. Um quarto dos colaboradores já faleceu, alguns há tempo tão distante como em 1947 (caso de Alfred North Whitehead), enquanto outro quarto é aposentado ou emérito. A maioria (98%, aproximadamente), contribui para um único artigo; entretanto, 64 contribuíram em três artigos, 23 ajudaram em quatro, dez contribuíram em cinco e oito contribuíram em mais de cinco verbetes. Uma exceção prolífica foi o Drª. Christine Sutton, da Universidade de Oxford, que contribuiu em 24 artigos sobre física de partículas. Administração. Dale Hoiberg, um sinólogo, é presentemente o vice-presidente sênior e editor-chefe da Britannica. Seus predecessores como editores-chefes foram Hugh Chisholm (1902–1924), James Louis Garvin (1926–1932), Franklin Henry Hooper (1902–1938), Walter Yust (1938–1960), Harry Ashmore (1960–1963), Warren E. Preece (1964–1968, 1969–1975), Sir William Haley (1968–1969), Philip W. Goetz (1979–1991), e Robert McHenry (1992–1997). Anita Wolff e Theodore Pappas são editora assistente e editor executivo, respectivamente. Editores executivos anteriores incluem John V. Dodge (1950–1964) e Philip W. Goetz. A "Britannica" mantém um departamento editorial com cinco editores seniores, e nove editores associados, supervisado por Dale Hoiberg e outros quatro. O departamento editorial auxilia na autoria dos artigos da "Micropædia" e nalgumas seções da "Macropædia". Conselheiros editoriais. A "Britannica" possui um quadro de conselheiro editoriais, que correntemente inclui 14 acadêmicos distintos: A "Propædia" e seu "Outline of Knowledge" são feitos por dúzias de conselheiros editoriais sob a direção de Mortimer J. Adler. Metade destes conselheiros já é falecida, incluindo antigos chefes dos editores dessa seção: René Dubos (m. 1982), Loren Eiseley (m. 1977), Harold D. Lasswell (m. 1978), Mark Van Doren (m. 1972), Peter Ritchie Calder (m. 1982) e Mortimer J. Adler (m. 2001). A "Propædia" lista ainda quatro mil colaboradores que foram consultados, mas que não assinaram os artigos da "Micropædia". Estrutura corporativa. Em janeiro de 1996, a "Britannica" pertencente à Benton Foundation (Fundação Benton), foi comprada pelo milionário suíço das finanças Jacqui Safra, e que atualmente é o presidente do quadro administrativo. Em 1997, Don Yannias, sócio de longa data e conselheiro de negócios de Safra, tornou-se o executivo-chefe da Encyclopædia Britannica, Inc.. Uma nova companhia, a Britannica.com Inc., foi iniciada em Spin-off em 1999, para desenvolver uma versão digital da "Britannica", tendo Yannias a chefia desse empreendimento, enquanto o cargo equivalente da Encyclopædia Britannica, Inc. permaneceu acéfalo por dois anos. A gestão de Yannias deu prejuízos, grandes demissões e perdas financeiras. Em 2001, ele foi finalmente substituído por Ilan Yeshua, que reuniu a direção das duas companhias. Yannias retornou mais tarde como administrador financeiro, mas não mais integrou o Conselho de Administração da "Britannica". Em 2003, o então consultor administrativo Jorge Aguilar-Cauz foi nomeado presidente da Encyclopædia Britannica, Inc. Cauz é executivo sênior e reporta-se diretamente ao Conselho Administrativo da empresa. Apesar de seu estilo dominador e acadêmico, realizou alianças agressivas com outras empresas e estendeu a marca Britannica como um marco e como produto de referência educativa, continuando uma estratégia iniciada ainda em meados dos anos 30 por seu predecessor Elkan Harrison Powell. Sob a propriedade de Safra a companhia sofreu dificuldades financeiras, o que foram enfrentadas com a redução dos preços de seus produtos e implementação de drásticos cortes de gastos. De acordo com um relatório de 2003 do "New York Post", a administração da "Britannica" demitiu os empregados do plano 401(k) e encorajou o uso de imagens sem direito autoral. Estas mudanças, porém, tiveram impactos negativos, como por exemplo a demora de seis meses no pagamento dos colaboradores independentes, e seu pessoal passou vários anos sem melhoria de salários A Encyclopædia Britannica, Inc. possui atualmente as marcas registradas das palavras "Britannica", "Encyclopædia Britannica", "Macropædia", "Micropædia", e "Propædia", como também do seu logotipo em formato de cardo. Vem exercendo seus direitos de copyright desde 2005 Concorrência. Por ser uma obra genérica, a "Britannica" não compete com enciclopédias especializadas, como por exemplo uma "Encyclopaedia of Mathematics" ou um "Dictionary of the Middle Ages" ("dicionário da Idade Média"), obras que podem dedicar muito mais espaço aos temas específicos de que tratam. Em seus primeiros anos, o principal concorrente, em língua inglesa, era a enciclopédia geral de Ephraim Chambers e, logo após, "Rees's Cyclopaedia" e a "Encyclopaedia Metropolitana", de Coleridge. No século XX, os mais diretos competidores foram "Collier's Encyclopedia," a "Encyclopedia Americana," e o "World Book Encyclopedia". Cada uma dessas publicações tinha qualidades para tornar-se excelente, com escrita excepcionalmente clara ou ilustrações soberbas. Não obstante, era consideração geral que a "Britannica" possuía maior autoridade do que qualquer outra enciclopédia em língua inglesa, especialmente em razão de sua extensa abrangência e por possuir em seus quadros autores eminentes. Entretanto, a versão impressa da Britannica é mais cara do que a de seus competidores. Desde o começo dos anos 90 que a "Britannica" enfrenta o desafio de novas fontes de informação digitais. A internet, facilitada com o desenvolvimento dos sistemas de busca, cresceu como uma fonte comum de informação para muitas pessoas, provendo acesso fácil e rápido a fontes originais seguras e opiniões de expertos, graças em parte a iniciativas como o Google Books, o MIT e seu "MIT OpenCourseWare", e ainda a "PubMed Central" - uma biblioteca livre da National Library of Medicine. Em geral, a internet tende a prover cobertura mais atual do que a mídia impressa, devido à facilidade de atualização. Em campos com rápidas mudanças tal como ciência, tecnologia, política, cultura e história moderna, a "Britannica" luta para manter-se atualizada, um problema que foi sistematicamente analisado, inicialmente por seu ex-editor Walter Yust. Embora a enciclopédia esteja disponível atualmente em multimídia e ainda na internet, sua primazia é desafiada por outras enciclopédias on-line, como a "Encarta" e a "Wikipédia". Enciclopédias impressas. A "Encyclopædia Britannica" foi comparada com outras enciclopédias impressas, tanto qualitativa como quantitativamente. O comparativo mais famoso foi feito em nos anos 90 por Kenneth Kister, que traçou um paralelo desta com a "Collier's Encyclopedia" e a "Encyclopedia Americana". Para a análise "quantitativa", dez artigos foram escolhidos ao acaso: circuncisão, Charles Drew, Galileu, Philip Glass, cardiopatia ("doenças cardíacas"), QI, urso panda, assédio sexual, Santo Sudário e Uzbequistão - e notas (A-D, F) foram atribuídas em quatro categorias: amplitude, precisão, clareza e atualização. Em todas as quatro categorias avaliadas, e para as três enciclopédias, as médias atribuídas ficaram entre B- e B+, principalmente porque nenhuma delas apresentava, em 1994, nenhum verbete sobre assédio sexual. Na categoria precisão, a "Britannica" recebeu um "D" e oito "A"s. A "Encyclopedia Americana" teve oito "A"s, e a "Collier's" recebeu um "D" e sete "A"s; Assim a "Americana" ficou com 95%, enquanto as duas outras tiveram 92% no quesito "precisão". A edição de 1994 da "Britannica" falhou por publicar uma história polêmica sobre Charles Drew, que havia sido desmentida há muito tempo. No quesito cronologia, a "Britannica" recebeu aprovação de 86%, a "Americana" 90% e a "Collier's" 85%. Depois de uma análise comparativa mais completa entre as três enciclopédias, Kister recomendou a "Collier's Encyclopedia" como a superior entre as três, considerando principalmente a escrita excelente, apresentação equilibrada e facilidade na consulta. Enciclopédias digitais e mídias ópticas. O mais notável competidor da "Britannica" em matéria de enciclopédias digitais em CD/DVD-ROM é a Encarta, uma moderna enciclopédia de multimédia que incorpora três enciclopédias impressas: "Funk and Wagnalls", "Collier's" e "New Merit Scholar". A "Encarta" é a mais vendida enciclopédia multimédia, tomando por base a venda a varejo no mercado norte-americano entre janeiro de 2000 a fevereiro de 2006 Ambas ocupam a mesma faixa de preços, sendo que em 2007 o último CD ou DVD da "Encyclopædia Britannica" valia 50 dólares estadunidenses e o DVD da "Microsoft Encarta Premium 2007" valia 45 dólares estadunidenses. A "Britannica" possui cem mil artigos, além do Dicionário "Merriam-Webster" (somente na edição norte-americana), e oferece edições mais simplificadas para as escolas primárias e secundárias. A "Encarta" possui 66 mil verbetes, uma interface amigável personalizada, mapas interativos, matemática, gramática e ferramentas para trabalhos escolares, dicionários de língua inglesa em versões dos EUA e do Reino Unido, e uma edição para jovens. Assim como a "Encarta", a "Britannica" foi criticada por ter edição parcial, dirigida ao público estadunidense; verbetes referentes ao Reino Unido são bem menos atualizados, os mapas dos EUA são mais detalhados que dos demais países e falta um dicionário do Reino Unido. As duas enciclopédias estão disponíveis on-line por assinatura, embora mantenham parte do conteúdo para livre acesso. Enciclopédias da internet. Alternativas on-line para a "Britannica" incluem a Wikipédia, uma iniciativa livre e pioneira na Web, com conteúdo livre. A "Wiki" recebe um tráfego 450 vezes maior que a versão on-line da "Britannica", segundo estatísticas independentes de visita em páginas feitas pela Alexa, nos primeiros três meses de 2007. Julgando pelos mais recentes dados de número de artigos ou palavras, a versão anglófona da "Wikipédia" é 20 vezes maior que a "Britannica". Uma diferença fundamental entre as duas enciclopédias reside na autoria dos verbetes. Os 699 artigos da Macropædia em geral são produzidos por colaboradores identificados, e os 65 mil da Micropædia são fruto do corpo editorial e identifica apenas os consultores. Assim, um verbete da "Britannica" ou identifica seu autor ou um grupo de possíveis autores (o corpo editorial). Com exceção destes últimos, a maioria dos colaboradores da "Britannica" é de peritos em suas áreas, inclusive com laureados pelo prêmio Nobel. Em contrapartida, os artigos da "Wikipédia" são escritos por uma comunidade de editores de níveis variados de conhecimento: a maioria dos editores não atribui nenhuma especialização em particular; dentre aqueles que o fazem, muitos são anônimos e não possuem alguma credencial verificável. Outra diferença é a velocidade de mudanças nos verbetes: a "Britannica" é publicada em modo impresso em intervalos de poucos anos, ao passo em que os artigos da "Wiki" mudam com frequência. Esta vem recebendo críticas em vários aspectos, e argumenta-se que não se pode esperar que venha competir com a "Britannica" em termos de precisão. Em 14 de dezembro de 2005, o jornal científico "Nature" informou que existiam 162 erros na "Wikipédia" contra 123 na "Britannica", dentro de 42 verbetes sobre ciências gerais, fortuitamente selecionados. Em sua réplica, detalhada em 20 páginas, a Encyclopædia Britannica, Inc. caracterizou o estudo da "Nature" como falho e enganado, e exigiu uma "imediata" retratação. Observou que dois dos artigos eram estudos feitos pelo "livro do ano" da edição, e não eram enciclopédicos; outros dois pertenciam à "Compton's Encyclopedia" (chamadas pelo sítio oficial da companhia de "Britannica Student Encyclopedia" - "enciclopédia estudantil"). A refutação menciona que alguns dos artigos apreciados pelos revisores eram combinados de vários verbetes, e que os outros artigos eram apenas excertos e foram penalizados por omissões factuais. A companhia também observou que vários fatos classificados pela "Nature" como erros eram variações menores de ortografia, e vários dos demais alegados erros eram questão de interpretação. A "Nature" defendeu sua publicação e não se retratou, declarando ainda que, como estava a comparar a "Wikipédia" com a versão na rede da "Britannica", utilizou-se do material que esta última disponibilizava em seu sítio da Web. Ligações externas. Sítio oficial Verbetes históricos Edições anteriores (em domínio público nos EUA) Eventos recentes Histórico da empresa
754
Expressão regular
Expressão regular Em ciência da computação, uma expressão regular (do inglês "regular expression", abreviado regex ou regexp) provê uma forma concisa e flexível de identificar cadeias de caracteres de interesse, como caracteres particulares, palavras ou padrões de caracteres. Expressões regulares são escritas numa linguagem formal que pode ser interpretada por um processador de expressão regular, um programa que serve um gerador de analisador sintático ou examina o texto e identifica as partes que casam com a especificação dada. O termo deriva do trabalho do matemático norte-americano Stephen Cole Kleene, que desenvolveu as expressões regulares como uma notação ao que ele chamava de álgebra de conjuntos regulares. Seu trabalho serviu de base para os primeiros algoritmos computacionais de busca, e depois para algumas das mais antigas ferramentas de tratamento de texto da plataforma Unix. O uso atual de expressões regulares inclui procura e substituição de texto em editores de texto e linguagens de programação, validação de formatos de texto (validação de protocolos ou formatos digitais), realce de sintaxe e filtragem de informação. Conceitos básicos. Uma expressão regular (ou, um padrão) descreve um conjunto de cadeias de caracteres, de forma concisa, sem precisar listar todos os elementos do conjunto. Por exemplo, um conjunto contendo as cadeias ""Handel", "Händel" e "Haendel" pode ser descrito pelo padrão codice_1. A maioria dos formalismos provê pelo menos três operações para construir expressões regulares. Alternância. Uma barra vertical (codice_2) separa alternativas. Por exemplo, codice_3 pode casar "psicadélico" ou "psicodélico". Agrupamento. Parênteses (codice_4, codice_5) são usados para definir o escopo e a precedência de operadores, entre outros usos. Por exemplo, codice_3 e codice_7 são equivalentes e ambas descrevem "psicadélico" e "psicodélico". Quantificação (ou repetição). Um quantificador após um "token" (como um caractere) ou agrupamento especifica a quantidade de vezes que o elemento precedente pode ocorrer. Os quantificadores mais comuns são o ponto de interrogação codice_8, o asterisco codice_9 e o sinal de adição codice_10. codice_8 indica que há zero ou uma ocorrência do elemento precedente. Por exemplo, codice_12 casa tanto "acção" quanto "ação". codice_9 indica que há zero ou mais ocorrências do elemento precedente. Por exemplo, codice_14 casa "ac", "abc", "abbc", "abbbc", e assim por diante. codice_10 indica que há uma ou mais ocorrências do elemento precedente. Por exemplo, codice_16 casa "abc", "abbc", "abbbc", e assim por diante, mas não "ac"". Essas construções podem ser combinadas arbitrariamente para formar expressões complexas, assim como expressões aritméticas com números e operações de adição, subtração, multiplicação e divisão. De forma geral, há diversas expressões regulares para descrever um mesmo conjunto de cadeias de caracteres. A sintaxe exata da expressão regular e os operadores disponíveis variam entre as implementações. História. A origem das expressões regulares está na teoria dos autômatos e na teoria das linguagens formais, e ambas fazem parte da teoria da computação. Esses campos estudam modelos de computação (autômatas) e formas de descrição e classificação de linguagens formais. Na década de 1950, o matemático Stephen Cole Kleene descreveu tais modelos usando sua notação matemática chamada de "conjuntos regulares", formando a álgebra de Kleene. A linguagem SNOBOL foi uma implementação pioneira de casamento de padrões, mas não era idêntica às expressões regulares. Ken Thompson construiu a notação de Kleene no editor de texto QED como uma forma de casamento de padrões em arquivos de texto. Posteriormente, ele adicionou essa funcionalidade no editor de texto Unix ed, que resultou no uso de expressões regulares na popular ferramenta de busca grep. Desde então, diversas variações da adaptação original de Thompson foram usadas em Unix e derivados, incluindo expr, AWK, Emacs, vi e lex. As expressões regulares de Perl e Tcl foram derivadas da biblioteca escrita por Henry Spencer, e no Perl a funcionalidade foi expandida posteriormente. Philip Hazel desenvolveu a PCRE (Perl Compatible Regular Expressions), uma biblioteca usada por diversas ferramentas modernas como PHP e o servidor Apache. Parte do desenvolvimento do Perl 6 foi melhorar a integração das expressões regulares de Perl, e aumentar seu escopo e funcionalidade para permitir a definição de gramáticas de expressão de analisadores sintáticos. O resultado foi uma mini-linguagem, as regras do Perl 6, usada para definir a gramática do Perl 6 assim como fornecer uma ferramenta para programadores da linguagem. Tais regras mantiveram as funcionalidades de expressões regulares do Perl 5.x, mas também permitiram uma definição BNF de um analisador sintático descendente recursivo. O uso de expressões regulares em normas de informação estruturada para a modelagem de documentos e bancos de dados começou na década de 1960, e expandiu na década de 1980 quando normas como a ISO SGML foram consolidadas. Teoria de linguagens formais. Expressões regulares podem ser expressas através da teoria de linguagens formais. Elas consistem de constantes e operadores que denotam conjuntos de cadeias de caracteres e operações sobre esses conjuntos, respectivamente. Dado um alfabeto finito Σ, as seguintes constantes são definidas: As seguintes operações são definidas: As constantes e os operadores acima formam a álgebra de Kleene. Para evitar parênteses, é assumido que o fecho de Kleene possui a maior prioridade, depois a concatenação e por fim a alternância. Se não houver ambiguidades, os parênteses podem ser omitidos. Por exemplo, codice_17 pode ser escrito como codice_18, e codice_19 pode ser escrito como codice_20. A definição formal de expressões regulares é concisa e evita a utilização dos quantificadores redundantes codice_8 e codice_10, que podem ser expressados respectivamente por codice_26 e codice_27. Por vezes o operador de complemento ~ é adicionado; ~"R" denota o conjunto das cadeias de caracteres de Σ* que não estão em "R". Esse operador é redundante, e pode ser expressado usando outros operadores, apesar da computação para tal representação ser complexa. Expressões regulares podem expressar linguagens regulares, a classe de linguagens aceita por um autômato finito. Entretanto, há uma diferença significativa na compactação. Algumas classes de linguagens regulares podem ser descritas somente por autômatos que crescem exponencialmente em tamanho, enquanto o tamanho das expressões regulares requeridas só pode crescer linearmente. Expressões regulares correspondem ao Tipo-3 das gramáticas da Hierarquia de Chomsky. Por outro lado, existe um mapeamento simples de expressões regulares para máquinas de estado finito não-determinísticas que não leva ao crescimento desgovernado do tamanho. Por essa razão, essas máquinas não determinísticas são geralmente usadas como representação alternativa das expressões regulares. É possível escrever um algoritmo que, para duas expressões regulares dadas, decide se as linguagens descritas são essencialmente iguais. Reduz-se cada expressão na máquina de estado finito mínima, e determina-se se ambas as máquinas mínimas são isomórficas (equivalentes). Vale notar que diversas implementações de expressões regulares implementam funcionalidades que não podem ser expressadas na álgebra de Kleene; ver abaixo mais sobre o assunto. Sintaxe. POSIX. De 1986, a norma IEEE POSIX 1003.2 (POSIX.2) padroniza expressões regulares, e fornece duas especificações, a saber: BRE: expressões regulares básicas. A sintaxe tradicional de expressões regulares em Unix seguiu convenções comuns, mas diferiu entre as implementações. A norma IEEE POSIX BRE ("Basic Regular Expressions", do inglês, expressões regulares básicas) foi desenvolvida primordialmente por compatibilidade com a sintaxe tradicional, mas fornecia uma norma comum que desde então foi adotada por diversas ferramentas. Na sintaxe de BRE, a maioria dos caracteres são tratados como literais — eles casam somente com eles próprios (por exemplo, codice_28 casa "a"). As exceções são chamadas metacaracteres ou metassequências, definidos abaixo: Uma característica da BRE é que os metacaracteres geralmente exigem barras invertidas para serem tratados como tal. Por exemplo, em BRE, codice_29 é composto somente por literais, e casará somente "a{1,2}"". Para casar entre uma a duas ocorrências de "a", deve-se usar a expressão regular codice_30. A motivação desse sistema é a compatibilidade com sistemas antigos, já que na época da padronização já havia código Unix legado que usava chaves como literais. ERE: expressões regulares estendidas. O significado dos metacaracteres serem escapados com a barra invertida é revertido na sintaxe POSIX ERE ("Extended Regular Expression", do inglês, expressões regulares estendidas). Isso significa que não são usadas barras invertidas para identificar metacaracteres. Pelo contrário, elas servem justamente para transformar metacaracteres em literais. Retomando o exemplo da seção anterior, em ERE, codice_29 casa uma a duas ocorrências de "a", enquanto codice_30 casa o literal "a{1,2}". Os seguintes metacaracteres foram adicionados: Ferramentas que adotaram a sintaxe incluem MySQL e PHP, esta, que suporta também as derivações de Perl no modelo do PCRE. Classes de caracteres. Já que diversos grupos de caracteres dependem duma configuração de locale específica, a POSIX define algumas classes (ou categorias) de caracteres para fornecer um método padrão de acesso a alguns grupos específicos de caracteres bastante utilizados, como mostrado na seguinte tabela: Notar que as doze classes definidas acima também estão definidas na biblioteca padrão do C, na seção de funções de testes de caracteres do cabeçalho codice_33. Tais classes só podem ser usadas dentro de expressões de listas de caracteres. Diferentes locales podem fornecer classes adicionais. Uma extensão não POSIX difundida é codice_34 (atalho do Perl codice_35), geralmente definida como codice_36 ou traço baixo (codice_37) e codice_38, contendo somente caracteres ASCII (codice_39). Pode-se negar uma classe de caracteres precedendo um acento circunflexo ao nome da classe. Por exemplo, para negar codice_40 usa-se codice_41. Limites de palavras. A norma POSIX define ainda dois metacaracteres especiais que servem para casar os limites de palavras nas cadeias de caracteres. Nesse contexto da POSIX, uma palavra é formada por caracteres codice_36 ou traço baixo (codice_37). Assim como as âncoras, esses metacaracteres não casam pedaços do texto, elas servem apenas como uma referência. Eles são: Perl e derivações. Perl possui uma sintaxe mais consistente e rica que as normas POSIX BRE e ERE. Um exemplo é que codice_44 sempre escapa um caractere não alfanumérico. Devido ao poder de expressão, outras ferramentas adotaram a sintaxe do Perl, como por exemplo Java, JavaScript, PCRE, Python, Ruby e .NET. Algumas linguagens e ferramentas como PHP suportam diversos tipos de expressões regulares. Um exemplo de funcionalidade possível em Perl mas não em POSIX é a quantificação preguiçosa. Os quantificadores padrões das expressões regulares são "gananciosos", isto é, casam o quanto puderem, voltando atrás somente se necessário para casar o resto da expressão regular. Por exemplo, um novato no assunto tentando encontrar a primeira instância de um item entre os símbolos < e > no texto ""Outra explosão ocorreu em <26 de janeiro> de <2004>" provavelmente usaria o padrão codice_45, ou similar. Entretanto, esse padrão retornará "<26 de janeiro> de <2004>" ao invés de "<26 de janeiro>", como esperado, pois o quantificador codice_9 é ganancioso — ele consumirá a quantidade máxima de caracteres, e "26 de janeiro> de <2004" possui mais caracteres que "26 de janeiro". Apesar desse problema ser evitável de diferentes formas (por exemplo, especificando o que não casar: codice_47), a maioria das ferramentas permitem que um quantificador seja preguiçoso, ou não ganancioso, ao suceder o quantificador com um ponto de interrogação. No exemplo anterior, a alternativa seria codice_48. Seguem os quantificadores não gulosos: O PERL define algumas sequências de escape que servem como atalhos para certos metacaracteres: Além dos quantificadores preguiçosos e das novas sequências de escape, o Perl também adicionou uma forma nova de casamento de padrões que estendem a POSIX. São um conjunto de metacaracteres que seguem o padrão codice_49, listados abaixo: Padrões para linguagens não regulares. Diversas funcionalidades encontradas em bibliotecas atuais de expressões regulares provem um poder de expressão que excede as linguagens regulares. Por exemplo, a habilidade de agrupar subexpressões com parênteses e chamar novamente o valor casado na mesma expressão significa que o padrão pode casar cadeias de palavras repetidas como "papa" ou "WikiWiki"", os chamados quadrados na teoria de linguagens formais. O padrão para essas cadeias é codice_50. Entretanto, a linguagem de quadrados não é regular, nem livre de contexto. Casamento de padrões com um número indeterminado de referências anteriores, como suportado em ferramentas atuais, é NP-difícil. Entretanto, as ferramentas que fornecem tais construções ainda usam o termo expressões regulares para os padrões, o que leva a uma nomenclatura que difere da teoria das linguagens formais. Por essa razão, algumas pessoas usam o termo "regex" ou simplesmente "padrão" para descrever esse conceito mais abrangente. Implementações. Existem pelo menos dois algoritmos fundamentalmente diferentes entre si que decidem se e como uma expressão regular casa uma cadeia de caracteres. O mais antigo e mais rápido faz uso dum princípio da teoria de linguagens formais que permite a todas as máquinas de estado finito não determinísticas serem transformadas em máquinas de estado finito determinísticas. Geralmente chamado de DFA, o algoritmo realiza ou simula tal transformação e então executa a máquina determinística resultante na cadeia de caracteres, um símbolo de cada vez. Esse último processo tem complexidade linear relativa ao tamanho da cadeia de caracteres. Mais precisamente, uma cadeia de caracteres de tamanho "n" pode ser testada numa expressão regular de tamanho "m" no tempo "O"("formula_1") ou "O"("formula_2"), dependendo dos detalhes de implementação. Esse algoritmo é rápido, mas pode ser usado somente para casamentos e não para a nova chamada de grupos de captura, quantificação preguiçosa e diversas outras funcionalidades encontradas nas bibliotecas modernas de expressões regulares. Também é possível executar a máquina não determinística diretamente, construindo cada estado da máquina determinística quando necessário e então descartando-o no próximo passo. Isso evita a quantidade exponencial de memória necessária para a construção completa da máquina determinística, ainda que garantindo a busca em tempo linear. O outro algoritmo é casar o padrão com a cadeia de caracteres através de "backtracking". Geralmente chamado de NFA, Seu tempo de execução pode ser exponencial, o que pode acontecer em implementações simples no casamento de expressões como codice_51, que forçam o algoritmo a considerar um número exponencial de subcasos. Implementações modernas geralmente identificam tais casos, e aceleram e abortam a execução. Apesar dessas implementações com "backtracking" garantirem tempo exponencial no pior caso, elas fornecem mais flexibilidade e poder de expressão. Relacionamento com Unicode. Originalmente, as expressões regulares eram usadas com caracteres ASCII, mas várias implementações atuais suportam Unicode. Na maioria dos casos não há diferença entre conjuntos de caracteres, mas algumas questões são relevantes ao suportar Unicode. Uma delas é a codificação suportada, já que algumas implementações esperam UTF-8, enquanto outras podem esperar UTF-16 ou UTF-32. Outra questão é estender as funcionalidades disponíveis para ASCII no Unicode. Por exemplo, em implementações ASCII, conjuntos de caracteres na forma codice_52 são válidos para quaisquer "x" e "y" no intervalo [0x00,0x7F] desde que o código de "x" seja menor que o código de "y". A escolha natural seria permitir o mesmo em Unicode no intervalo de códigos [0,0x10FFFF], o que não é possível pois algumas implementações não permitem que conjuntos de caracteres ultrapassem os blocos de código disponíveis. Do ponto de vista dos detalhes técnicos do Unicode, também surgem questões. Como a normalização, pois, em Unicode, mais de um código pode representar o mesmo caractere. Por exemplo, o caractere "é" pode ser representado por U+0065 (letra latina "e" minúsculo) combinado com U+0301 (diacrítico "acento agudo"), mas também pode ser representado como U+00E9 (letra latina "e" com diacrítico "acento agudo"). Também há os códigos de controle Unicode, as marcas de ordem de byte e as marcas de direção de texto, que devem ser tratados separadamente. Uso. Expressões regulares são usadas por diversos editores de texto, utilitários e linguagens de programação para procurar e manipular texto baseado em padrões. Por exemplo, Perl e Tcl possuem suporte a expressões regulares nativamente. Diversos utilitários de distribuições Unix incluem o editor de texto ed, que popularizou o conceito de expressão regular, e o filtro grep. Outro uso é a validação de formatos de texto (validação de protocolos ou formatos digitais). Por exemplo, ao receber a entrada dum campo de formulário duma aplicação que supõe receber um endereço de "email", pode-se usar uma expressão regular para garantir que o que foi recebido de fato é um endereço de "email". Mais um uso é a implementação interna dum sistema de realce de sintaxe, como encontrado em ambientes de desenvolvimento integrado. Expressões regulares podem ser usadas para encontrar palavras reservadas, literais e outros tokens específicos, e para alterar a formatação do texto de acordo com o casamento feito. Um uso difundido de expressões regulares é a filtragem de informação em bancos de dados de texto. Por exemplo, num arquivo de texto contendo cadastros de pessoas e suas datas de aniversário como a seguir: Pode-se filtrar pessoas que nasceram num determinado ano, mês ou dia. Por exemplo, o uso do padrão codice_53 identifica o nome das pessoas que nasceram em outubro (mês 10). Para o cadastro acima seriam retornados dois grupos de captura, codice_54 contendo ""João Alberto" e codice_55 contendo "Carlos Silva". Explorando o exemplo anterior e o uso de validação de formatos digitais, é possível usar expressões regulares para validar as datas presentes no arquivo de texto de aniversários acima. O padrão codice_56 é usado para validar uma data entre 1900-01-01 e 2099-12-31. Atentar que a separação entre ano, mês e dia pode se dar através de hífen, espaço em branco, barra ou ponto. Mas deve-se usar o mesmo símbolo de separação entre ano e mês e entre mês e dia, o que é possível através da nova chamada do grupo de captura anterior (o trecho codice_55 do padrão). Atentar também que o padrão é incompleto na medida em que não diferencia a quantidade de dias em cada mês, o que resulta no casamento de até "2000-02-31"" (31 de fevereiro), incorreta de acordo com o calendário gregoriano.
756
Entretenimento
Entretenimento Entretenimento ou entretimento é qualquer ação, evento ou atividade com o fim de entreter e suscitar o interesse de uma audiência. É a presença de uma audiência que torna qualquer atividade privada de recreação ou lazer em entretenimento. A audiência pode ter um papel passivo, como quando se assiste a uma peça teatral, ópera, programa de televisão ou filme; ou um papel ativo, como no caso dos jogos. O entretenimento pode ser público ou privado e envolver uma atuação formal e pré-determinada, como no caso do teatro ou dos concertos, ou uma atuação espontânea, como no caso dos jogos. Muitas das formas de entretenimento são transversais ao longo da História e das culturas e evoluem em função das alterações culturais e tecnológicas. Os filmes e os jogos eletrônicos, por exemplo, embora façam uso de novos suportes e "media", continuam a narrar histórias e a fazer uso da música. Os festivais dedicados à música, cinema ou dança permitem o entretenimento de uma audiência ao longo de vários dias consecutivos. Algumas das atividades que outrora foram consideradas entretenimento, como as execuções públicas, foram sendo sucessivamente removidas da esfera pública. Outras atividades que ao longo da História foram competências essenciais de determinadas profissões, como o manejo de espadas ou o tiro com arco, são hoje desportos de competição, tornando-se ao mesmo tempo formas de entretenimento à medida que se tornam apelativos para uma audiência cada vez maior. O que um grupo ou indivíduo interpreta como entretenimento pode ser encarado como trabalho por outros. O entretenimento proporciona divertimento, satisfação pessoal e boa disposição. Em determinadas circunstâncias e contextos, o entretenimento tem adjacente um propósito sério, como no caso de celebrações, festividades religiosas ou sátiras. Como tal, existe a possibilidade de que o que aparenta ser entretenimento possa também ser uma forma de desenvolvimento cultural e intelectual. O apelo do entretenimento, a par com a sua capacidade de usar diferentes "media" e do seu potencial para adaptações criativas, tem assegurado a continuidade e longevidade de muitas formas, temas, imagens e estruturas sociais. Definição. O entretenimento é diferente de atividades como a educação ou o "marketing", embora essas atividades tenham aprendido a recorrer ao apelo do entretenimento como ferramenta auxiliar. A importância e o impacto do entretenimento é reconhecida no meio acadêmico e a sua crescente sofisticação tem influenciado a prática em campos tão diversos como a museologia. A psicologia determina que a função do entretenimento é a obtenção de gratificação pessoal ou coletiva. Normalmente, não se espera mais nenhum resultado ou benefício quantificável. O entretenimento tem mecanismos opostos à educação, a qual é concebida com a função de desenvolver as capacidades de compreensão ou de ajudar as pessoas na aprendizagem, e do "marketing", cuja função é aliciar as pessoas a comprar produtos. No entanto, a fronteira tem-se tornado ténue à medida que a educação procura incorporar elementos recreativos e o entretenimento e o "marketing" procuram incorporar elementos educativos. Estas simbioses são conhecidas pelos neologismos de "edutainment" ou "infotainment". No entanto, muitas situações em que se combina entretenimento com educação são tentativas sérias de conjugar as melhores valências de cada um. O entretenimento pode ir para além da simples gratificação e ser um veículo de transmissão de elementos culturais na audiência. Muitas das grandes questões filosóficas e existenciais podem proporcionar uma infinidade de narrativas, apresentadas na forma de histórias, argumentos de cinema ou teatro, poesia, literatura, dança, banda desenhada ou jogos. Entre as obras dramáticas que articulam questões filosóficas contam-se exemplos tão diversos como o influente Hamlet de Shakespeare, que explora temas como a traição, vingança, incesto, corrupção e moralidade, ou The Matrix, que explora a natureza do conhecimento. Os romances proporcionam igualmente um vasto leque de exploração de questões filosóficas ao mesmo tempo que entretêm os leitores. Um dos exemplos de uma obra criativa que apresenta questões filosóficas de forma entretida é "The Hitchhiker's Guide to the Galaxy"; inicialmente um programa de humor radiofónico, a história tornou-se tão popular que foi adaptada para a literatura, cinema, televisão, teatro, banda desenhada, "audiobook", jogos eletrónicos, e traduzida para várias línguas. Os temas apresentados vão desde o sentido da vida à ética do entretenimento, inteligência artificial, Deus ou métodos filosóficos. História. A narração de histórias desempenha um papel importante na maior parte das formas de entretenimento desde a pré-história, e cujo método simples ainda hoje é um comportamento cultural frequente. A mesma peça dramática pode ser apresentada num teatro ao ar livre, num "music hall", numa sala de cinema ou através de um dispositivo eletrónico pessoal, como um "tablet". A alteração do contexto histórico, cultural, tecnológico e económico influencia a escolha ou a preferência por determinados recintos de entretenimento, embora as características principais de cada um deles pouco se tenha alterado ao longo dos séculos. Desde a antiguidade que existem estruturas arquitetónicas dedicadas em exclusivo às formas de entretenimento, como teatros, auditórios e estádios. Um dos recintos mais notáveis é o Coliseu de Roma, onde eram apresentados ao público espetáculos, competições, corridas e desportos. Algumas formas de entretenimento tornaram-se controversas, tendo algumas sido proibidas. A caça de animais selvagens é ainda hoje vista por alguns como entretenimento, embora outras formas de entretenimento com recurso a animais se tenham tornado extremamente controversas. A caça desportiva, enquanto forma de entretenimento público e espetáculo, foi introduzida no Império Romano a partir de Cartago. Algumas das formas de entretenimento, sobretudo música e peças dramáticas, deram origem a inúmeras variantes de forma a responder a um vasto leque de preferências pessoais e expressões culturais. Muitas das formas de entretenimento estão incorporadas ou são apoiadas por outras formas. Por exemplo, muitas das peças dramáticas recorrem à música para realçar a sua expressividade. Outras formas incorporam jogos ou desporto de forma a serem mais atrativas. É relativamente comum que a origem de algumas formas de entretenimento tenham tido origem em atividades tidas como sérias ou necessárias (como a corrida ou o salto), que evoluem para competição e, consequentemente, para entretenimento. Os combates de gladiadores, populares durante a época Romana, são um bom exemplo de uma atividade que combina desporto, castigos corporais e entretenimento. Exemplos de entretenimento violento como este têm servido como argumento para a posição de que o entretenimento contemporâneo é menos violento do que no passado, apesar do recurso à violência como forma de entretenimento nos "media" modernos. Muito do equipamento para atividades outrora necessárias, como a pesca, foi alvo de inovações tecnológicas em função da sua função recreativa. Embora a maior parte das formas de entretenimento tenha sido constante ao longo da História, algumas formas bastante populares em épocas passadas já não são vistas como aceitáveis. Por exemplo, durante vários séculos a participação popular no julgamento e castigo de criminosos e proscritos, ou outras cerimónias de humilhação pública eram vistas como entretenimento. Mesmo a execução de penas capitais como o enforcamento e a decapitação, exibidas em público como medida de dissuacção, eram vistas em parte como entretenimento, chegando-se mesmo a optar por execuções com processos demorados, como o apedrejamento, de forma a prolongar o espetáculo público. Os castigos públicos enquanto entretenimento só cessaram no século XIX, fruto da crescente contestação na classe média. Infância. O entretenimento infantil centra-se em jogos e brincadeiras, e é fundamental na aprendizagem, desenvolvimento e formação de personalidade da criança. Os adultos ensinam e transmitem várias formas de entretenimento e muitas das atividades apelativas às crianças, como os fantoches, palhaços, pantominas ou banda desenhada são também apreciadas por adultos. A maior parte das formas de entretenimento pode ser adaptada para se ajustar ao interesse e capacidade das crianças. Durante o século XX, tornou-se evidente que o desenvolvimento psicológico das crianças se processa em estágios e que as suas capacidades são diferentes das dos adultos. Começam a surgir histórias e atividades desenvolvidas especificamente para uma audiência infantil, na forma de livros, filmes ou jogos. São implementados sistemas de classificação etária de forma a orientar melhor o público. Na atualidade, tal como acontece para os adultos, estão disponíveis várias formas de entretenimento para crianças através da internet, o que constitui uma alteração significativa em relação a épocas anteriores. A quantidade de tempo dispendida pelas crianças em entretenimento proporcionado pela televisão ou computadores, a par do assinalável colapso da relação da criança com o meio envolvente, tem sido alvo de diversas críticas pelo efeito negativo que acarreta a nível da imaginação, cognição e bem-estar psicológico.<ref name=http://www.guardian.co.uk/commentisfree/2012/nov/19/children-lose-contact-with-nature></ref> Formas. Música. A música é um componente fundamental em muitas formas de entretenimento e em vários artes performativas. É usada para realçar determinados aspectos de uma narrativa, é indispensável na dança (1) e na ópera, e é muito frequentemente incorporada em filmes e peças de teatro. A música é em si própria uma forma autónoma de entretenimento popular e universal. (2, 4, 5, 6, 7, 8, 9) De acordo com o ritmo, instrumentos, estilo e forma de atuação, a música pode ser dividida em vários géneros, como a música clássica, o jazz, "folk" (3, 5, 8) ou o rock (6, 9). Até ao século XX, as atuações musicais estavam ao alcance de apenas uma minoria capaz de pagar a atuação dos intérpretes. A introdução do registo em suportes pré-gravados, para venda ou difusão radiofónica, fez com que a música passasse a ser um bem de consumo, disponível de forma barata a milhões de pessoas. Todas as atuações musicais constituem uma forma de entretenimento, independentemente de serem ou não amplificadas (4, 6, 7, 9, 10) ou de serem interpretadas a solo (4, 6), em coro (2), orquestra (5, 8) ou conjunto (3). As atuações ao vivo são realizadas em recintos próprios, com tamanho variável, interiores ou exteriores e desde gratuitos a caros. Os diferentes tipos de audiência têm diferentes expectativas em relação aos intérpretes e ao seu próprio papel durante a atuação. Por exemplo, determinadas audiências preferem a audição em silêncio e são entretidas puramente pela excelência da música ou da interpretação (5, 8), enquanto que outro tipo de audiência recebe o entretenimento através do ambiente e participação coletiva (7, 9). Grande parte dos ouvintes é entretida pela audição em privado de música pré-gravada (10). Os instrumentos usados em entretenimento musical podem ser constituídos apenas pela voz (2, 6), serem apenas instrumentais (1, 3), ou serem alguma conjugação de ambos (4, 5, 7, 8). A audiência pode ser individual (10), móvel (3), pequena (1, 2) ou grande (6, 7, 8, 9). O canto é normalmente acompanhado por instrumentos, embora algumas formas usem apenas a voz. Formas. Algumas formas de entretenimento (excluem-se atividades comerciais): Locais. Alguns lugares também são considerados entretenimento, como os seguintes:
758
Engenharia eletrônica
Engenharia eletrônica A é uma subárea da Engenharia Elétrica que lida com grandezas elétricas de pequena amplitude e de elevadas frequências, os chamados sinais elétricos ou eletrônicos. A engenharia eletrônica cuida da energia elétrica sob os aspectos de computação, controle, e telecomunicação. O estudo da engenharia eletrônica fornece meios para o desenvolvimento de componentes, dispositivos, sistemas e equipamentos como: transistores, circuitos integrados e placas de circuito impresso. Nos Estados Unidos, assim como no Brasil, os cursos de engenharia eletrônica são em grande parte baseados nos conteúdos da engenharia elétrica. No Brasil seus requisitos são definidos em normas do MEC e pelo Conselho Federal de Engenharia e Agronomia (Confea/Crea). Parte dos cursos tem se voltado para o foco no desenvolvimento de produtos eletrônicos, se baseando fortemente em competências de projeto além dos conteúdos teóricos/técnicos. História. A engenharia eletrônica surgiu a partir do desenvolvimento tecnológico nas indústrias do telégrafo, no final do século XIX; e do rádio e telefone no início do século XX. A maior parte do desenvolvimento dessa disciplina ocorreu durante o período da segunda guerra mundial, com o advento do radar, do sonar, dos sistemas de comunicação e de outros sistemas com fins de aplicação bélica. Durante os anos que precederam a segunda guerra o assunto era conhecido como "engenharia de rádio" e apenas no final dos anos 50 o termo engenharia eletrônica começou a surgir. Em 1948 surgiu o transistor e em 1960 o circuito integrado (CI) viria a revolucionar a indústria eletrônica. Historicamente considerada mera subdivisão da engenharia elétrica, especialmente durante a "era da válvula", ganhou autonomia plena com o advento da "era do semicondutor", rapidamente sucedida pela era da miniaturização em larga escala. A história da Eletrônica no Brasil. A história da eletrônica brasileira surge na década de 20 do século XX, com a instalação das primeiras empresas de produtos eletrônicos: uma fabricante de rádios elétricos (marca Proteus), em 1923; a primeira indústria nacional de motores, a Motores Elétricos Brasil, em 1928; no ano seguinte, a GE, como fabricante de lâmpadas. Em 1940, as empresas do recém-criado setor eletroeletrônico chegavam a contar com cerca de cinco mil trabalhadores, aproximadamente 0,6% do total dos empregos da indústria de transformação. A partir de 1950, vigorou no Brasil uma política de industrialização por substituições de importação. Isso levou o país a apresentar uma taxa de crescimento média de 7,4% ao ano do PIB até 1980. Em específico, a expansão da indústria eletroeletrônica chegou a atingir uma taxa média de crescimento de 21% ao ano entre 1970 e 1974. O setor eletroeletrônico passou de 2,9%, em 1959, para 6,2%, em 1970, chegando a 10% de participação na indústria de transformação em 1978. O nível de ocupação da indústria alcançou um recorde de 90% em 1973. Subdivisões. A engenharia eletrônica liga-se atualmente a várias subdivisões e ramos de engenharia, em constante avanço tecnológico. Algumas das especialidades e áreas de estudos incluem: O curso. O curso de engenharia eletrônica é do tipo bacharelado e possui duração mínima de 5 anos, sendo oferecido também, na forma de pós graduação. Assim como todo curso de engenharia, possui foco nas ciências exatas, assim, dando ênfase em matérias como matemática, física, química e computação. Grande parte das universidades, possui algumas matérias como sendo essenciais, alguns exemplos são: circuitos elétricos, calculo, circuitos lógicos, eletrônica analógica e digital, física, algoritmos e estruturas de dados e programação embarcada, sendo grande parte das matérias, focadas em hardware. O Instituto Tecnológico de Aeronáutico (ITA), foi a primeira instituição de ensino a oferecer o curso no Brasil, em 1951, atualmente, diversas universidades brasileiras, particulares ou federais, oferecem o curso de engenharia eletrônica, sendo em alguns casos, chamado de engenharia elétrica com ênfase em eletrônica. O profissional. Uma vez formado, o engenheiro eletrônico está qualificado para lidar com sistemas eletrônicos de diversos tipos, planejando, projetando, instalando, operando e promovendo a manutenção. No mercado de trabalho, o profissional pode atuar na indústria realizando pesquisas, liderando e supervisionando equipes e obras. Pode, ainda, trabalhar diretamente com sistemas, desenvolvendo, fazendo estudos de viabilidade e projetando componentes e equipamentos. Dentre algumas funções do engenheiro eletrônico, estão: Por isso, é uma área que participa efetivamente do desenvolvimento de novas tecnologias. O bacharel em Engenharia Eletrônica também pode atuar em projetos e prestar assistência em circuitos ligados à eletrônica digital, que abrange microprocessadores e computadores. Competências do profissional. As novas diretrizes curriculares nacionais (DCN's) para os cursos de engenharia direcionam a formação dos novos profissionais em uma abordagem baseada em competência. As DCN's definem então 8 competências básicas para todos os engenheiros e requisita que cada instituição de ensino superior defina àquelas mais adequadas para o perfil do seu egresso. Uma das primeiras definições de competência disponíveis para a formação do profissional de engenharia eletrônica, em acordo com as novas DCN's e as atribuições do item 9 do CREA, é dada por 12 competências. Ao fim das descrições são apresentados os níveis esperados dos engenheiros segundo a Taxonomia Revisada de Bloom, entre parênteses. A carreira. No Brasil, os salários são em média de 7500 reais. As áreas de atuação são amplas e como exemplo estão: biomedicina, tecnologia de informação, telecomunicações, automação industrial, computação, automobilística, agrícola, microeletrônica, construção naval e até mesmo petróleo e gás. No exterior, países como Estados Unidos, China, Alemanha e japão são os que mais contratam profissionais da área.
759
Ecologia
Ecologia A ecologia abrange desde áreas como processos globais (Acima), estudos de habitats marinhos e terrestres (Meio) a interações interespecíficas como predação e polinização (Abaixo). Ecologia é a especialidade da biologia que estuda o meio ambiente e os seres vivos que vivem nele, ou seja, é o estudo científico da distribuição e abundância dos seres vivos e das interações que determinam a sua distribuição. As interações podem ser entre seres vivos e/ou com o meio ambiente. A palavra "Ökologie" deriva da junção dos termos gregos ""oikos", que significa casa, e "logos"", que quer dizer "estudo". Foi criada pelo cientista alemão Ernest Haeckel, em 1866, para designar a ciência que estuda as relações entre seres vivos e meio ambiente. No percurso de pouco mais de um século a ecologia transformou-se de modesta disciplina ligada ao campo da biologia para uma variedade de subdisciplinas, que se articularam constantemente, até chegar à base da mais volumosa obra de epistemologia da complexidade, iniciada por Edgar Morin com "Le paradigme perdu: la nature humaine" (O paradigma perdido: a natureza humana), de 1973. Em 1977 este mesmo autor iniciou uma série de 6 volumes sobre epistemologia (La Méthode), concluindo o sexto volume em 2005. Trata-se de uma obra que articula ciências da natureza e ciências sociais humanas com a filosofia. Ciência ampla e complexa, a Ecologia preocupa-se com o entendimento do funcionamento de toda a natureza. Assim como vários outros campos de estudo da Biologia, ela não é uma ciência isolada. Para entendê-la, é necessário, por exemplo, conhecer um pouco de Evolução, Genética, Biologia Molecular, Fisiologia e Anatomia. Como matéria pode ser dividida em Autoecologia (é um dos dois grandes ramos em que Schot dividiu a ecologia), Demoecologia e Sinecologia. Entretanto, diversos ramos têm surgido utilizando diversas áreas do conhecimento: Biologia da Conservação, Ecologia da Restauração, Ecologia Numérica, Ecologia Quantitativa, Ecologia Teórica, Macroecologia, Ecofisiologia, Agroecologia, Ecologia da Paisagem. Ainda pode-se dividir a Ecologia em Ecologia Vegetal e Animal e ainda em Ecologia Terrestre e Aquática. O meio ambiente afeta os seres vivos não só pelo espaço necessário à sua sobrevivência e reprodução, mas também às suas funções vitais, incluindo o seu comportamento, através do metabolismo. Por essa razão, o meio ambiente e a sua qualidade determinam o número de indivíduos e de espécies que podem viver no mesmo habitat. Por outro lado, os seres vivos também alteram permanentemente o meio ambiente em que vivem. O exemplo mais dramático de alteração do meio ambiente por organismos é a construção dos recifes de coral por minúsculos invertebrados, os pólipos coralinos. As relações entre os seres vivos do ecossistema também influencia na distribuição e abundância deles próprios. Como exemplo, incluem-se a competição pelo espaço, pelo alimento ou por parceiros para a reprodução, a predação de organismos por outros, a simbiose entre diferentes espécies que cooperam para a sua mútua sobrevivência, o comensalismo, o parasitismo e outros. A maior compreensão dos conceitos ecológicos e da verificação das alterações de vários ecossistemas pelo homem levou ao conceito da Ecologia Humana que estuda as relações entre o homem e a biosfera, principalmente do ponto de vista da manutenção da sua saúde, não só física, mas também social. Com o passar do tempo surgiram também os conceitos de conservação que se impuseram na atuação dos governos, quer através das ações de regulamentação do uso do ambiente natural e das suas espécies, quer através de várias organizações ambientalistas que promovem a disseminação do conhecimento sobre estas interações entre o homem e a biosfera. Há muitas aplicações práticas da ecologia, como a biologia da conservação, gestão de zonas úmidas, gestão de recursos naturais (agricultura, silvicultura e pesca), planejamento da cidade e aplicações na economia. Maurício Andrés Ribeiro, em sua trilogia intitulada Ecologizar, vol. 1, trata de ecologias e evolução: ele define e apresenta 15 formas de ecologia: ecologia ambiental, ecologia cósmica, ecologia energética, ecologia humana, ecologia mental e da consciência, ecologia cultural e informacional, ecologia do ser, ecologia profunda e ecologia transpessoal, ecologia política, ecologia social, ecologia econômica (também existe a economia ecológica), ecologia urbana, ecologia industrial, ecologia agrária e da paisagem, além da ecologia do cotidiano. História. O Início. A Ecologia tem uma complexa origem, em grande parte devido a sua natureza multidisciplinar. Os antigos filósofos da Grécia, incluindo Hipócrates e Aristóteles, foram os primeiros a registrar observações sobre história natural. No entanto, os filósofos da Grécia Antiga consideravam a vida como um elemento estático, não existindo a noção de adaptação. Tópicos mais familiares do contexto moderno, incluindo cadeias alimentares, regulação populacional e produtividade, não foram desenvolvidos antes de 1700. Os primeiros trabalhos foram do microscopista Antoni van Leeuwenhoek (1632–1723) e do botânico Richard Bradley(1688-1732). O biogeógrafo Alexander von Humboldt (1769–1859) foi outro pioneiro do pensamento ecológico, um dos primeiros a reconhecer gradientes ecológicos e fazer alusão às relações entre espécies e área. No início do século XX, a ecologia foi uma forma analítica de história natural. Seguindo a tradição de Aristóteles, a natureza descritiva da história natural examina a interação dos organismos com o seu meio ambiente e suas comunidades. Historiadores naturais, incluindo James Hutton e Jean-Baptiste de Lamarck, contribuíram com obras significativas que lançaram as bases das modernas ciências ecológicas. O termo "ecologia" é de origem mais antiga, de meados do século XIX, e foi escrito pelo biólogo alemão Ernst Haeckel no seu livro "Generelle Morphologie der Organismen" (1866). Haeckel foi um zoólogo, artista, escritor e professor de anatomia comparada. Ernst Haeckel (Esquerda) e Eugenius Warming (Direita), dois fundadores da ecologia. As opiniões divergem sobre quem foi o fundador da teoria ecológica moderna. Alguns marcam a definição de Haeckel como o início, outros atribuem a Eugenius Warming com a escrita de "Oecology of Plants: An Introduction to the Study of Plant Communities" (1895). A ecologia pode também ter começado com Carl Linnaeus, principal pesquisador da economia da natureza no início do século XVIII. Ele fundou um ramo de estudo ecológico que chamou de economia da natureza. Os trabalhos de Linnaeus influenciaram Darwin no "The Origin of Species" onde adota a frase de Linnaues "economia ou política da natureza". Linnaeus foi o primeiro a enquadrar "o equilíbrio da natureza", como uma hipótese testável. Haeckel, que admirava o trabalho de Darwin, definiu ecologia com base na economia da natureza, o que levou alguns a questionar se a ecologia é sinônimo dos conceitos de Linnaues para a economia da natureza. A síntese moderna da ecologia é uma ciência jovem, que substancial atenção formal no final do século XIX e tornando se ainda mais popular durante os movimentos ambientais da década de 1960, embora muitas observações, interpretações e descobertas relacionadas a ecologia estendem-se desde o início dos estudos da história natural. Por exemplo, o conceito de balanço ou regulação da natureza pode ser rastreado até Herodotos (morto em 425 ac.), que descreveu mutualismo no Rio Nilo, quando crocodilos abrem a boca permitindo escolopacídeos remover sanguessugas. Contribuições mais ampla para o desenvolvimento histórico das ciências ecológicas, Aristóteles é considerado um dos primeiros naturalistas que teve um papel influente no desenvolvimento filosófico das ciências ecológicas. Um dos alunos de Aristóteles, Teofrasto, fez observações ecológicas sobre plantas e postulava uma postura filosófica sobre as relações autônomas entre as plantas e seu ambiente, que está mais na linha com o pensamento ecológico moderno. Tanto Aristóteles e Teofrasto fizeram observações detalhadas sobre as migrações de plantas e animais, biogeografia, fisiologia e seus hábitos no que poderia ser considerado um análogo do nicho ecológico moderno. Hipócrates, outro filósofo grego, também é creditado com referência a temas ecológicos em seus primeiros desenvolvimentos. De Aristóteles a Darwin o mundo natural foi predominantemente considerado estático e sem mudanças desde criação original. Antes do livro "The Origin of Species" teve pouca valorização ou entendimento das dinâmicas relações entre os organismos e suas adaptações e modificações relacionadas ao meio ambiente. Enquanto Charles Darwin é o mais conhecido por seus trabalhos em evolução, ele é também um dos fundadores de ecologia de solo. Em "The Origin of Species" Darwin faz nota a o primeiro experimento ecológico publicado em 1816. Na ciência que antecederam a Darwin a noção de evolução das espécies foi ganhando apoio popular. Este paradigma científico mudou a maneira que os pesquisadores se aproximaram das ciências ecológicas. No século XX. Alguns sugerem que o primeiro texto ecológico ("Natural History of Selborne") foi publicado em 1789, por Gilbert White (1720–1793). O primeiro livro ecológico da América foi publicado em 1905 por Frederic Edward Clements. No livro, Clements passa a ideia que as comunidades de plantas são como superorganismos. Essa publicação lança o debate entre o holismo ecológico e individualismo que durou até a década de 1970. O conceito de Clements para superorganismo propõe que os ecossistemas progridem por um regulado e determinado estágio de desenvolvimento, análogo aos estágios de desenvolvimento de um organismo, cujas partes funcionam para manter a integridade do todo. O paradigma de Clements foi desafiado por Henry Gleason. De acordo com Gleason, comunidades ecológicas se desenvolvem a partir da associação única de organismos individuais. Essa mudança de percepção colocado o foco para as histórias de vida de organismos individuais e como isso se relaciona com o desenvolvimento de comunidades. A teoria de superorganismo de Clements não foi completamente rejeitada, mas alguns sugerem que ela foi uma aplicação além do limite do holismo. Holismo continua a ser uma parte crítica da fundamentação teórica contemporânea em estudos ecológicos. Foi primeiro introduzido em 1926 por uma polarizada figura histórica, um general da África do Sul chamado Jan Christian Smuts. Smuts foi inspirado pela teoria de superorganismo de Clements e desenvolveu e publicou o conceito de holismo, que contrasta com a visão política do seu pai sobre o Apartheid . Quase ao mesmo tempo, Charles Elton pioneiro no conceito de cadeias alimentares no livro "Animal Ecology". Elton definiu relações ecológicas usando conceitos de cadeias alimentares, ciclos de alimentos, o tamanho de alimentos, e descreveu as relações numéricas entre os diferentes grupos funcionais e suas relativas abundâncias. 'Ciclos alimentares' foram substituídos por 'teias tróficas `em posteriores textos ecológicos. A Ecologia desenvolveu-se em muitas nações, incluindo na Rússia com Vladimir Vernadsky que fundou o conceito de biosfera na década de 1920 ou Japão com Kinji Imanishi e seu conceito de harmonia na natureza e segregação de habitat na década de 1950. O reconhecimento científico ou a importância das contribuições para a ecologia de outras culturas é dificultada por barreiras linguísticas e de tradução. Níveis de organização, âmbito e escala da organização. Como ecologia lida sempre com ecossistemas em mudança, por isso, tempo e espaço devem ser levados em conta quando são descritos fenômenos ecológicos. No que diz respeito ao tempo, pode levar milhares de anos para um processo ecológico amadurecer. O tempo de vida de uma árvore, por exemplo, pode passar através de diferentes estágios sucessionais até atingir a maturidade de uma floresta. O processo ecológico ainda é estendido mais ao longo do tempo até a arvore cair e decompor. Ecossistemas são também classificados em diferentes escalas espaciais. A área de um ecossistema pode variar muito, de muito pequeno a muito vasto. Por exemplo, várias gerações de um pulgão e seus predadores podem existir sobre uma única folha, e dentro de cada um destes pulgões podem existir diversas comunidades de bactérias. A escalada do estudo deve ser muito ampla para estudar árvores de uma floresta, onde vivem pulgões e bactérias. Para entender o crescimento das arvores, por exemplo, o tipo de solo, umidade, inclinação do terreno, abertura do dossel e outras variáveis locais devem ser examinadas. Para entender a ecologia de uma floresta, complexos fatores locais, como clima também devem ser levados em conta. Estudos ecológicos de longo prazo promovem importantes registros para entender melhor os ecossistemas no espaço e no tempo. O International Long Term Ecological Network gerencia e faz intercambio de informação entre locais de pesquisas. O mais longo experimento existente é o Park Grass Experiment que início em 1856. Outro exemplo inclui o Hubbard Brook Experimental Forest em operação desde 1960. Em ecologia também é complicado o fato de que os padrões de pequena escala não necessariamente explicam os fenômenos de grande escala. Estes fenômenos operam em diferentes escalas no ambiente, que vão desde a escala molecular a escala planetaria, e requerem diferentes conjuntos de explicação. Para estruturar o estudo da ecologia em um quadro de entendimento o mundo biológico é conceitualmente organizado em uma estrutura hierárquica, variando de uma escala de genes, para células, tecidos, órgãos, organismos, espécies, até o nível de biosfera. Ecossistemas são primeiramente pesquisados em seus principais níveis de organização, incluindo (1)organismos, (2) populações e (3) comunidades. Ecólogos estudam ecossistemas por amostragem de um certo número de indivíduos que representam uma população. Os ecossistemas consistem nas comunidades que entre elas e com o meio ambiente. E em ecologia, comunidades são criadas por interação de populações de diferentes espécies de uma área. Biodiversidade. Biodiversidade é simplesmente a forma resumida para a diversidade biológica. Biodiversidade descreve todas as variantes da vida de genes a ecossistemas, e é uma área complexa que abrange todos os níveis biológicos de organização. Há muitos índices, maneiras para medir e representar a biodiversidade. Biodiversidade inclui diversidade de espécies, diversidade de ecossistemas, diversidade genética e os complexos processos que operam entre esses diversos níveis. Biodiversidade executa um importante papel na saúde ecológica, quanto na saúde dos humanos. Prevenindo ou priorizando a extinção das espécies é uma maneira de preservar a biodiversidade, nas populações, a diversidade genética entre elas e os processos ecológicos, como migração, que estão sendo ameaçados em escala global e desaparecendo rapidamente. Prioridades de conservação e técnicas de gestão requerem diferentes abordagens e considerações para abordar toda gama ecológica da biodiversidade. População e migração de espécies, por exemplo, são os mais sensíveis indicadores de serviços ecológicos que sustentam e contribuem para o capital natural e para o "bem estar" do ecossistema. O entendimento da biodiversidade tem uma aplicação pratica para o planejamento da conservação dos ecossistemas, para tomar decisões ecologicamente responsáveis nas gestão de empresas de consultoria, governos e empresas. Nicho Ecológico. O nicho ecológico é um conceito central na ecologia de organismos. São muitos as definições do nicho ecológico desde 1917, mas George Evelyn Hutchinson fez um avanço conceitual em 1957 e introduziu a definição mais amplamente aceita: "O nicho é o grupo de condições bioticas e abióticas nas quais uma espécie é capaz de persistir e manter estável o tamanho da população." O nicho ecológico é dividido em nicho fundamental e nicho efetivo. O nicho fundamental é o grupo de condições ambientais sobre qual uma espécie é apta a persistir. O nicho efetivo é o grupo de condições ambientais ótimas sobre a qual uma espécie é apta a persistir. Organismos tem traços fundamentais que são excepcionalmentes adaptados ao nicho ecológico. Um traço é uma propriedade mensurável do organismo que fortemente influencia sua performance. Padrões biogeográficos e escalas de distribuição são explicados e previstos através do conhecimento e compreensão das exigências do nicho da espécie. Por exemplo, a adaptação natural de cada espécie no seu nicho ecológico significa que ela é apta para excluir competitivamente outras espécies similarmente adaptada que tem uma escala geográfica de sobreposição. Isso é chamado de princípio de exclusão competitiva Importante do conceito do nicho é o habitat. O habitat é o ambiente sobre a qual uma espécies sabemos que ocorre e o tipo de comunidade que é formada como resultado. Por exemplo, habitat pode se referia a um ambiente aquático ou terrestre que pode ser categorizado como ecossistemas de montanha ou Alpes. Organismos são sujeitos a pressões ambientais, mas eles também podem modificar seus habitats. O feedback positivo entre organismos e seu ambiente pode modificar as condições em uma escala local ou global (Ver Hipótese Gaia) e muitas vezes até mesmo após a morte do organismo, como por exemplo deposição de esqueletos de sílica ou calcário por organismos marinhos. Este processo de engenharia de ecossistemas também pode ser chamado de construção de nicho. Engenheiro de ecossistemas são definidos como:”...organismos que diretamente ou indiretamente modulam a disponibilidade de recursos para outras espécies, causando mudanças nos estados físicos nos matérias bióticos ou abióticos. Assim eles modificam, mantem e criam habitats." O conceito de engenharia ecológica foi estimulado por uma nova apreciação do grau de influencia que os organismos tem no ecossistemas e no processo evolutivo. O conceito de construção de nicho destaca um prévio subvalorizado mecanismo de feedback na seleção natural transmitindo forças no nicho abiótico. Um exemplo de seleção natural através de engenharia de ecossistemas ocorre em nichos de insetos sociais, incluindo formigas, abelhas, vespas e cupins. Lá é uma emergência de homeostase na estrutura do nicho que regula, mantém e defende a fisiologia no interior da colônia. Montes de cupins, por exemplo, mantém uma temperatura interna constante através de chaminés de ar condicionado. A estrutura dos nichos é sujeita as forças da seleção natural. Além disso, o nicho pode sobreviver a sucessivas gerações, o que significa que os organismos herdam o material genético e um nicho, que foi construído antes do seu tempo. Ecologia de populações. A população é a unidade de analise da ecologia de populações. Uma população consiste nos indivíduos de uma mesma espécie que vivem, interagem e migram através do mesmo nicho e habitat . Uma primárias lei da ecologia de populações é a Teoria Populacional Malthusiana. Este modelo prevê que: "...uma população pode crescer (ou declinar) exponencialmente enquanto o ambiente experimentado por todos os indivíduos da população se mantém constante..." Esta premissa Malthusiana fornece a base para a formulação de teorias preditivas e testes que se seguem. Modelagens simples de populações usualmente começam com quatro variáveis incluído nascimento, morte, imigração e emigração. Modelos matemáticos são usados para calcular a mudança demográfica na população usando modelos nulos. Um modelo nulo é usado como uma hipótese nula para os testes estatísticos. A hipótese nula parte da pressuposto que processos aleatórios criam os padrões observados. Alternativamente o padrão observado difere significantemente do modelo aleatório e exige mais explicação. Modelos podem ser matematicamente complexos quando “...varias hipóteses competitivas são simultaneamente confrontadas com os dados." Um exemplo de um modelo introdutório de população descreve uma população fechada, como em uma ilha, onde a imigração e emigração não ocorre. Nestes modelos de ilha as taxas per capita de variação são descritos como: formula_1, onde "N" é o número total de indivíduos na população, "B" é o número de nascimentos, "D" é o número de mortos, "b" e "d" são as taxas per capita de nascimento e morte respectivamente, e "r" é a taxa per capita de mudança populacional. Esta formula pode ser lida como a taxa de mudança na população ("dN/dT") é igual aos nascimentos menos as mortes (B - D). Usando estas técnicas de modelagem, os modelo de crescimento populacional de Malthus`s foi mais tarde transformado em um modelo conhecido como a equação logística: formula_2, onde "N" é o número de indivíduos medidos como densidade de biomassa, "a" é a taxa per capita máxima de mudança, e "K" é a capacidade de suporte da população. A formula pode ser lida assim, a taxa de mudança na população ("dN/dT") é igual ao crescimento ("aN") que é limitado pela capacidade de suporte "(1-N/K)". A disciplina de ecologia de populações baseia-se estes modelos introdutórios para entender os processos demográficos em populações real e conduz testes de hipóteses estatísticos. O campo da ecologia populacional, muitas vezes utiliza os dados sobre história de vida e álgebra matricial para desenvolver matrizes de projeção em fecundidade e sobrevivência. Esta informação é usada para o gerenciamento de estoques da vida selvagem e fixação de quotas de colheita. As populações são também estudadas através do conceito de metapopulações. Ecologia de metapopulações. O conceito de metapopulação foi introduzido em 1969:"como uma população de populações que vai se extinguindo e recolonizando localmente." Ecologia de metapopulações é uma abordagem estatística que é frequentemente usada na biologia da conservação. A pesquisa com metapopulações simplifica a paisagem em manchas com diferentes níveis de qualidade. Como o modelo de seleçãor/K, o modelo de metapopulações pode ser usado para explicar a evolução da história de vida, como a estabilidade ecológica da metamorfose dos amfibios, que deslocam nos estágios de vida de manchas aquáticas para manchas terrestres. Na terminologia de metapopulação existem emigrantes (indivíduos que deixam um fragmento), imigrantes (indivíduos que se movem nos fragmentos) e os sítio (site) são classificados ou como fontes ou sumidouros. Um sítio (site) é um termo genérico que se refere a lugares onde as amostras das populações, tais como lagoas ou definidas áreas de amostragem em uma floresta. Sítios fontes são locais produtivos que geram uma oferta sazonal de organismos jovens que migram para outros fragmentos. Sítios sumidouros são locais improdutivos que só recebem os migrantes e estes vão se extinguir a menos que resgatados por um sítios fonte adjacentes ou as condições ambientais tornam-se mais favoráveis. Modelos de metapopulação examinar a dinâmica dos fragmentos ao longo do tempo para responder perguntas sobre ecologia espacial e demográfica. A ecologia de metapopulações é um processo dinâmico de extinção e colonização. Pequenos fragmentos de menor qualidade são mantidos ou resgatados por um fluxo sazonal de novos imigrantes. Uma estrutura de metapopulação dinâmica evolui de ano para ano, onde alguns fragmentos são sumidouros em anos secos e se tornam fontes de quando as condições são mais favoráveis. Ecologistas utilizam uma mistura de modelos de computador e estudos de campo para explicar a estrutura das metapopulações. Ecologia de comunidades. Ecologia de comunidades é uma subdisciplina da ecologia que estuda a distribuição, abundância, demografia e interações entre populações coexistentes. Um exemplo do um estudo na ecologia de comunidades medida da produção primária em uma área alagada em relação as taxas de decomposição em consumo. Isto requer o entendimento da conexão da comunidade entre plantas (produtores primários) e os decompositores (fungos e bactérias). ou a analise da dinâmica predador presa afetando a biomassa de anfíbios. Teias alimentares e níveis tróficos são dois modelos conceituais bastante utilizados para explicar a ligações entre espécies. Teias alimentares. Teias alimentares são um tipo de mapa conceitual que ilustra os caminhos ecológicos reais, usualmente começando com a energia solar sendo usado pelas plantas durante a fotossíntese. As plantas crescem acumulando carboidratos que são consumidos pelos herbívoros. Passo a passo as linhas ou relações são elaboradas até uma teia de vida ser ilustrada. Existem diferentes dimensões ecológicas que podem ser mapeados para criar teias alimentares mais complicadas, incluindo: composição de espécies (Tipo de espécies), riqueza de espécies (número de espécies), biomassa (o peso seco de plantas e animais), produtividade (taxa de conversão de energia e nutrientes em crescimento) e estabilidade (teias alimentares ao longo do tempo). Um diagrama ilustrando a composição da teia alimentar mostra como uma mudança em uma única espécies pode diretamente ou indiretamente influenciar muitas outras espécies. Estudos de microcosmos são usados para simplificar as pesquisas com teias alimentares em unidades semi isoladas como pequenas molas, logs decadentes, e experimentos de laboratório usando organismos que se reproduzem rapidamente, como as Daphnia alimentando-se de algas em ambientes controlados. Princípios adquiridos em teias alimentares de modelos experientais de microcosmos são usados para extrapolar pequenas cinceitos dinâmicos em grandes sistemas. Food-chain length is another way of describing food-webs as a measure of the number of species encountered as energy or nutrients move from the plants to top predators. Existem diferentes formas de cálculo de comprimento cadeia alimentar, dependendo do que os parâmetros da dinâmica da cadeia alimentar estão sendo considerados: conectância, energia ou interação. Em um simples exemplo de predador presa, um cervo é um passo removido em come plantas (comprimento de cadeia = 1) e um lobo que come o cervo é dois passos removido (comprimento de cadeia = 2). A quantidade relativa ou a força de influência que estes parâmetros são as questões acessadas da cadeia alimentar sobre: As condições Físicas e a Disponibilidade de Recursos. As condições e recursos são dois fatores que determinam qual será o habitat dos organismos. Condições, são características físicas e químicas do ambiente, um elemento importante na diferenciação de condições e recursos é que as condições não diminuem pelas atividades dos indivíduos, já os recursos são consumidos pelos seres vivos. A partir daí surge um fator determinante, há uma competição interespecífica ou intraespecífica para obtenção de determinado recurso. Dinâmica trófica. Links na teia alimentar primeiramente conectam relações alimentares entre espécies. Biodiversidade dentro do ecossistema pode se organizar em dimensões verticais e horizontais. A dimensão vertical representa as relações alimentares da base da cadeia alimentar até os predadores de topo. A dimensão horizontal representa a abundancia relativa ou biomassa de casa nível Quando a abundancia relativa ou biomassa de cada grupo alimentar é empilhada em seus respectivos grupos tróficos eles naturalmente formam uma espécie de ‘piramide de números’. Grupos funcionais são amplamente categorizados como autotróficos (ou produtores primários), heterotríficos (ou consumidores), e detritívoros (ou decompositores). Heterotrófagos podem ser subdivididos em diferentes grupos funcionais, incluindo: consumidores primários (herbívoros), consumidores secundários (predadores que consomem exclusivamente herbívoros) e consumidores terciários (predadores que consomem tanto herbívoros quanto outros predadores). Onívoros não se encaixam perfeitamente nessas categorias funcionais porque consomem tanto tecidos vegetais e tecidos animais. Tem sido sugerido, entretanto, que os onívoros têm uma maior influência funcional como predadores, porque em relação aos herbívoros são relativamente ineficientes na pastagem. Ecólogos coletam dados em níveis tróficos e teias alimentares para modelar estatisticamente e calcular parâmetros matemáticos, tais como aqueles usados em outros tipos de análise de rede, para estudar os padrões emergentes e propriedades compartilhadas entre os ecossistemas. O arranjo piramidal emergente de níveis tróficos com quantidades de transferência de energia diminuindo à medida que as espécies se tornam mais distantes da fonte de produção é um dos vários padrões que repetem entre os ecossistemas. O tamanho de cada nível trófico na pirâmide geralmente representa a biomassa, que pode ser medida como o peso seco dos organismos. Autótrofos podem ter a maior proporção mundial de biomassa, mas eles são rivalizados de perto ou mesmo superados pelos microrganismos. A decomposição da matéria orgânica morta, como folhas caindo no chão da floresta, se transforma em solo que a alimenta a produção de plantas. A soma total dos ecossistemas do planeta terra é chamado de pedosfera, onde é encontrada uma proporção muito grande da biodiversidade. Invertebrados que se alimentam e rasgam folhas maiores, por exemplo, criar pequenos pedaços que alimentam organismos menores na cadeia de alimentação. Coletivamente, estes são os detritívoros que regulam a formação do solo. As raízes das árvores, fungos, bactérias, minhocas, formigas, besouros, centopéias, mamíferos, aves, répteis e anfíbios todo o contribuem para criar a cadeia trófica da vida nos ecossistemas do solo. Como organismos se alimentam e deslocam fisicamente materiais para solos, este processo ecológico importante é chamado bioturbação. Biomassa de microrganismos do solo são influenciadas por feedback (retroalimentantação) na dinâmica trófica da superfície solar exposta. Estudos paleecológicos de solos colocam a origem da bioturbação a um tempo antes do período Cambriano. Outros eventos, como a evolução das árvores e anfíbios no período devoniano teve um papel significativo no desenvolvimento dos solos e trofismo ecológico. Grupos tróficos funcionais separam hierarquicamente em uma piramide trófica porque requerem adaptações especializadas para realizar fotossíntese ou predação, mas raramente são eles tem uma combinação de ambas habilidades funcionais. Isso explica por que adaptações funcionais em trofismo organizam diferentes espécies emergente em um grupo funcional. Níveis tróficos são parte de um holístico ou complexo sistema visto no ecossistema. Cada nível trófico contém espécies independentes que se agrupam, porque compartilham funções ecológicas comuns. Agrupamento de espécies funcionalmente similar em um sistema trófico dá uma imagem macroscópica do amplo design funcional. Links em uma teia alimentar ilustram diretas relações tróficas entre espécies, mas podem também efeitos indiretos que podem alterar a abundancia, distribuição ou biomassa do nível trófico. Por exemplo, predadores comendo herbívoros indiretamente influenciam a controle e regulação da produção primária nas plantas. Embora predadores não comem plantas diretamente, eles regulam a população de herbívoros que diretamente são ligados diretamente as plantas. A rede de relações de efeitos diretos e indiretos é clamada de cascata trófica. Cascata trófica são separadas em cascatas a nível de espécie, onde apenas um subconjunto da dinâmica da teia alimentar é impactado por uma mudança no número da população, e cascadas ao nível de comunidade, onde uma mudança no número da população pode ter um efeito dramático na teia alimentar inteira, como a distribuição de biomassa de plantas. Espécies chaves. Uma espécie chave é uma espécie que ocupa um papel particularmente forte ou central em uma teia alimentar. Uma espécie chave ocupa um papel desproporcional em manter processos ecológicos. A perda de uma espécie chave resulta na extinção de outras espécies e um efeito cascata alterando o dinâmica trófica e conexões na teia alimentar. Espécies chaves, como os engenheiros de ecossistemas, tem um papel estruturador, apesar de ter níveis relativamente baixos de representação da biomassa na pirâmide trófica. Lontras do mar ("Enhydra lutris") são um exemplo clássico de espécies chave porque limitam o densidade de ouriços que se alimentam de algas. Se as lontras são removidas do sistema, os ouriços pastam até que as algas marinha desaparecer e isso tem um efeito dramático na estrutura da comunidade. A caça de lontras do mar, por exemplo, é considerado em ter indiretamente levado a extinção do dugongo-de-steller ("Hydrodamalis gigas"). Enquanto o conceito de espécies chaves tem sido muito usado como uma ferramenta de conservação biológica, ele foi criticado por estar mal definido. Diferentes ecossistemas expressam diferentes complexidades e por isso é claro como aplicável que o modelo de espécies chave pode ser aplicado. Bioma e biosfera. Unidades ecológicas de organização são definidas através de referência de algumas magnitudes de espaço e tempo no planeta. Comunidades de organismos, por exemplo, são muitas vezes arbitrariamente definidas, mas os processos de vida interagem com os diferentes níveis e organizam em conjuntos mais complexos. Biomas, por exemplo, são uma grande unidade de organização que categorizam regiões de ecossistemas da Terra, de acordo com a fisionomia e composição da vegetação. Diferentes pesquisas tem aplicados diferentes métodos para definir limites continentais de domínios de biomas, por diferentes tipos de função da comunidade de vegetação, que são limitada na distribuição do clima, precipitação e outras variáveis ambientais. Exemplos de nomes de biomas incluem: florestas tropicais, florestas temperadas decíduas, taiga, tundra, desertos quentes e desertos polares. Outras pesquisas tem recentemente iniciado a categorizar outros tipos de biomas, como microbioma humano e oceânico. Para os microrganismos o corpo humano é o habitat e uma paisagem. O microbioma tem sido descoberto através de avanços na genética molecular, revelando uma desconhecida riqueza de microorganismos no planeta. O microbioma oceânico desempenha um significante papel na ecologia biogeoquímica dos oceanos. A maior escala de organização ecológica é a biosfera. A biosfera é a soma total dos ecossistemas do planeta. Relações ecológicas regulam o fluxo de energia, nutrientes e clima, todos subindo até a escala planetária. Por exemplo, a história dinâmica da composição de CO2 e O2 na atmosfera foi em grande parte por fluxos de gases biogênicos provenientes da respiração e fotossíntese, com níveis flutuando no tempo em relação a ecologia e evolução dos animais e plantas. Quando partes de subcomponetes são organizadas em um todo, muitas vezes propriedades emergentes descrevem a natureza do sistema. Teorias ecológicas tem sido usadas para explicar os fenômenos emergentes de auto regulação na escala planetária. Isso é conhecido como Hipótese Gaia. The Gaia hypothesis is an example of holism applied in ecological theory. A ecologia do planeta age como uma única unidade regulatória e holística chamada de hipótese Gaia. A hipótese Gaia afirma que existe um feedback emergente gerado pelo metabolismo dos organismos vivos que mantem a temperatura da Terra e condições da atmosfera dentro de uma estreita escala de tolerância auto regulável. Respostas dos animais à temperatura ambiental. A maioria dos seres vivos presentes nos mais diversos ambientes são ectodérmicos, ou seja, precisam de fontes externas de calor para regularização do seu metabolismo. Os endotérmicos por sua vez, necessitam de uma grande carga de energia para a manutenção da sua temperatura corporal já que, estes não regulam sua temperatura interna dependendo apenas do ambiente, porém os endotérmicos apresentam algumas vantagens quando se refere a mobilidade dos seus indivíduos, já que, estes não estão tão interligados ao ambiente, isso ajuda bastante na fuga dos predadores e também na obtenção de recursos, visto que essas espécies requerem uma grande quantidade de alimento para suprir suas necessidades. De acordo com a sazonalidade de determinados habitats, onde em um mesmo ano o ser vivo pode ficar exposto a temperaturas negativas em um período, e em outro à temperaturas bastante elevadas, surgiram-se ao longo do tempo vantagens evolutivas que permitiram a esses animais se adequarem ao clima predominante em um determinado momento, um exemplo desse avanço evolutivo é a raposa do ártico onde este apresenta uma pelagem espessa e branca (proteção e camuflagem) no inverno e fina e marrom no verão. Migração. A migração é um conceito de constante movimentação de massas de populações. Esses movimentos são incentivados pela busca de recursos tais como: água, alimento e/ou acasalamento, temperatura, e/ou para fugirem de inimigos que se instalaram no seu biótopo, normalmente em busca de melhores condições de vida. Geralmente a estadia dessas espécies migratórias nestes habitats são passageiras, já que, devido ao grande número de indivíduos, estes ambientes não são capazes de suprir as necessidades desse grupo por muito tempo, estimulando novas migrações, o que irá depender também da sazonalidade de determinada região. Tais fatos alteram a constituição gênica de uma população que adquire e desenvolvem novas características necessárias para a sobrevivência em determinados territórios. sites animal, migração.1 fot., color. In Britannica Escola Online. Web, 2013. Disponível em:, Acesso em: 13 de abril de 2013. Livro RIDLEY, Mark. Evolução. 3a. ed. Porto Alegre: ArtMed Editora, 2006. Ecologia e evolução. Ecologia e evolução são consideradas disciplinas irmãs, sendo ramos da ciência da vida. Seleção Natural, Historia de vida, desenvolvimentos, adaptação, populações, e herança estão presentes em teorias evolutivas e ecológicas. Morfologia, comportamento e/ou traços genéticos, por exemplo, podem ser mapeados em árvores evolutivas para estudar a desenvolvimento histórico da espécie e também organizar a informação em relação a adaptações ecológicas. Em outras palavras, adaptação é explicada em relação a origem histórica de traços e condições ecológicas e que está sujeita a forças da seleção natural. Nesse quadro, ferramentas analíticas de ecólogos e evolucionistas se sobrepõem para organizar, classificar e investigar a vida por meio de princípios sistemáticos comuns, como filogenéticos ou taxonômicos de Lineu As duas disciplinas frequentenmente aparecem juntas como no título do jornal "Trends in Ecology and Evolution". Não há uma fronteira nítida que separa a ecologia da evolução e que diferem suas áreas de aplicação. Ambas as disciplinas descobrem e explicam emergentes e únicos processos que operam em diferentes escalas espaciais e temporais da organização. Embora a fronteira entre a ecologia e evolução nem sempre é clara, é óbvio que os ecólogos estudam os fatores abióticos e bióticos que influenciam o processo evolutivo.
760
Embiruçu
Embiruçu
762
Educação
Educação A educação é uma atividade proposital direcionada para atingir determinados objetivos, como transmitir conhecimentos ou promover habilidades e traços de caráter. Esses objetivos podem incluir o desenvolvimento da compreensão, racionalidade, bondade e honestidade. Vários pesquisadores e filósofos pensam e enfatizam o papel do pensamento crítico para distinguir educação de doutrinação. Alguns teóricos exigem que a educação resulte em uma melhoria do aluno, enquanto outros preferem uma definição de valor neutro do termo. Em um sentido ligeiramente diferente, a educação também pode se referir, não ao processo, mas ao produto desse processo: os estados mentais e as disposições possuídas pelas pessoas educadas. A educação originou-se como a transmissão do patrimônio cultural de uma geração para outra. Hoje, os objetivos educacionais abrangem cada vez mais novas ideias, como a libertação dos alunos, habilidades necessárias para a sociedade moderna, empatia e habilidades vocacionais complexas. Os tipos de educação são comumente divididos em educação formal, não formal e informal. A educação formal ocorre em instituições de ensino e formação, geralmente é estruturada por metas e objetivos curriculares, e a aprendizagem é tipicamente orientada por um professor. Na maioria das regiões, a educação formal é obrigatória até uma certa idade e comumente dividida em etapas educacionais, como jardim de infância, escola primária e escola secundária. A educação não formal ocorre como complemento ou alternativa à educação formal. Pode ser estruturado de acordo com arranjos educacionais, mas de maneira mais flexível, e geralmente ocorre em ambientes baseados na comunidade, no local de trabalho ou na sociedade civil. Por fim, a educação informal ocorre no cotidiano, na família, qualquer experiência que tenha efeito formativo sobre o modo de pensar, sentir ou agir pode ser considerada educativa, não intencional ou intencional. Na prática, há um continuum do altamente formalizado ao altamente informal, e a aprendizagem informal pode ocorrer em todos os três cenários. Por exemplo, "homeschooling" pode ser classificado como não formal ou informal, dependendo da estrutura. Independentemente do cenário, os métodos educacionais incluem ensino, treinamento, contação de histórias, discussão e pesquisa direcionada. A metodologia de ensino chama-se "pedagogia". A educação é apoiada por uma variedade de diferentes filosofias, teorias e agendas de pesquisa empírica. Existem movimentos para reformas educacionais, como para melhorar a qualidade e eficiência da educação em direção à relevância na vida dos alunos e resolução eficiente de problemas na sociedade moderna ou futura em geral, ou por metodologias de educação baseadas em evidências. O direito à educação foi reconhecido por alguns governos e pelas Nações Unidas. As iniciativas globais visam alcançar o Objetivo de Desenvolvimento Sustentável 4, que promove educação de qualidade para todos. No Brasil. Níveis de ensino no Brasil. De acordo com a Lei de Diretrizes e Bases da Educação Nacional a educação no Brasil se divide em: Legislação brasileira. No Brasil, a educação é regulamentada pela Lei de Diretrizes e Bases da Educação Nacional, pelo Fundo de Manutenção e Desenvolvimento da Educação Básica e pelo Fundo de Manutenção e Desenvolvimento do Ensino Fundamental e de Valorização do Magistério. Plano de Desenvolvimento da Educação. A principal meta do Plano de Desenvolvimento da Educação (PDE) é uma educação básica de qualidade, para isso deve-se investir na educação profissional e na educação superior. Para isso se tornar realidade deve acontecer o envolvimento de todos: pais, alunos, professores e gestores, em busca da permanência do aluno na escola. Com o PDE o Ministério da Educação pretende mostrar tudo o que se passa dentro e fora da escola e realizar uma grande prestação de contas. As iniciativas do MEC devem chegar a sala de aula para beneficiar a criança e assim atingir a qualidade que se deseja para a educação brasileira. O PDE foi editado pelo Governo Federal, por premissas à visão sistêmica da educação, a sustentação da qualidade do ensino e a prioridade a educação básica. Em Portugal. Níveis de ensino em Portugal. Em Portugal o ensino curricular é um complemento ao ensino oficial. Legislação portuguesa. Em Portugal, a educação é regulamentada pela Lei de Bases do Sistema Educativo que estabelece o quadro geral do sistema educativo nacional. Plano educacional em Portugal. A nível institucional, a educação inicia-se num âmbito não obrigatório com o Pré-escolar, destinado a crianças com idades compreendidas entre os 3 anos e a entrada na escolaridade obrigatória. A escolaridade obrigatória denomina-se como "ensino regular", tem a duração de 12 anos, e compreende a idades dos 6 anos até aos 18 anos e organiza-se em três ciclos sequenciais. 1º ciclo: O ensino é global e visa o desenvolvimento de competências básicas em Língua Portuguesa, Matemática, Estudo do Meio e Expressão Plástica. Com a implementação da escola a tempo inteiro, através do alargamento do horário de funcionamento para um mínimo de oito horas diárias, as escolas promovem actividades de enriquecimento curricular, nomeadamente o ensino obrigatório do Inglês, o apoio ao estudo para todos os alunos, a actividade física e desportiva, o ensino da Música e de outras expressões artísticas e de outras línguas estrangeiras. O 1º ciclo funciona em regime de monodocência, com recurso a professores especializados em determinadas áreas. 2º ciclo: Está organizado por disciplinas e áreas de estudo pluridisciplinares. No 3º ciclo, o ensino está organizado por disciplinas. Os principais objectivos deste ciclo são o desenvolvimento de saberes e competências necessários à entrada na vida ativa ou ao prosseguimento de estudos. 3º ciclo: Funciona em regime de pluridocência, com professores especializados nas diferentes áreas disciplinares ou disciplinas. Aos alunos que completam com sucesso o 3º ciclo é atribuído o diploma do ensino básico. Ensino secundário: Está organizado segundo formas diferenciadas, orientadas quer para o prosseguimento de estudos quer para o mundo do trabalho. O currículo dos cursos de nível secundário tem um referencial de três anos lectivos e compreende quatro tipos de cursos: Para conclusão de qualquer curso de nível secundário os alunos estão sujeitos a uma avaliação sumativa interna. Para além dessa avaliação, os alunos dos cursos científico-humanísticos são também submetidos a uma avaliação sumativa externa, através da realização de exames nacionais, em determinadas disciplinas previstas na lei. Aos alunos que tenham completado este nível de ensino é atribuído um diploma de estudos secundários. Os cursos tecnológicos, artísticos especializados e profissionais conferem ainda um diploma de qualificação profissional de nível 4. Ensino Pós-secundário não superior Após a conclusão do ensino Secundário umas das opções que o sistema educacional português disponibiliza são os cursos de especialização tecnológica (CET) possibilitam percursos de formação especializada em diferentes áreas tecnológicas, permitindo a inserção no mundo do trabalho ou o prosseguimento de estudos de nível superior. A formação realizada nos CET é creditada no âmbito do curso superior em que o aluno seja admitido. A conclusão com aproveitamento de um curso de especialização tecnológica confere um diploma de especialização tecnológica (DET) e qualificação profissional de nível 5, podendo ainda dar acesso a um certificado de aptidão profissional (CAP). Educação e Formação de Jovens e Adultos A educação e formação de jovens e adultos oferece uma segunda oportunidade a indivíduos que abandonaram a escola precocemente ou que estão em risco de a abandonar, bem como àqueles que não tiveram oportunidade de a frequentar quando jovens e, ainda, aos que procuram a escola por questões de natureza profissional ou valorização pessoal, numa perspectiva de aprendizagem ao longo da vida. No sentido de proporcionar novas vias para aprender e progredir surgiu a Iniciativa "Novas Oportunidades" que define como um dos objectivos principais alargar o referencial mínimo de formação ao 12º ano de escolaridade e cuja estratégia assenta em dois pilares fundamentais: • Elevar a formação de base da população activa; • Tornar o ensino profissionalizante uma opção efectiva para os jovens. As diferentes modalidades de educação e formação de jovens e adultos permitem adquirir uma certificação escolar e/ou uma qualificação profissional, bem como o prosseguimento de estudos de nível pós-secundário não superior ou o ensino superior. A educação e formação de jovens e adultos compreendem as seguintes modalidades: • Sistema de Reconhecimento, Validação e Certificação de Competências (RVCC). Existe uma valorização e reconhecimentos das aprendizagens adquiridas ao longo da vida, por via formal, informal e não-formal, permitindo aos alunos obter uma dupla certificação académica e profissional. A formação adquirida permite o acesso a empregos mais qualificados e melhor perspectiva de formação ao longo da vida. Este Sistema tem lugar nos Centros Novas Oportunidades, disseminados por todo o país; • Cursos de Educação e Formação (CEF) para alunos a partir dos 15 anos. Os CEF são uma oportunidade para os jovens poderem concluir a escolaridade obrigatória, incentivando-os para o prosseguimento de estudos/formação, assim como para a aquisição de competências profissionais, através de soluções flexíveis, de acordo com os seus interesses e face às necessidades do mercado de trabalho. São destinados a jovens com idade igual ou superior a 15 anos e inferior a 23 anos, em risco de abandono escolar ou que já abandonaram. • Cursos de Educação e Formação de Adultos (EFA) e Formações Modulares. Possibilitam a aquisição de habilitações escolares e/ou competências profissionais, com vista a uma reinserção ou progressão no mercado de trabalho a jovens com idade igual ou superior a 18 anos, que pretendam completarmos o 9º ou 12º ano de escolaridade e desejem obter uma qualificação profissional de nível 2 ou 3. • "Acções de curta duração S@bER +" Destinadas a maiores de 18 anos, procura, através de formações de curta duração, motivar a população adulta a melhorar as suas qualificações escolares ou profissionais e a encontrar as respostas adequadas aos contínuos desafios que enfrenta. Apresentam uma estrutura curricular flexível e diferenciada em função dos interesses e das necessidades do público-alvo. Ensino Superior O ensino superior actualmente está estruturado de acordo com os princípios de Bolonha e visa a assegurar uma sólida preparação científica, cultural, artística e tecnológica que habilite para o exercício de actividades profissionais e culturais e para o desenvolvimento das capacidades de concepção, de inovação e de análise crítica. Em Portugal, organiza-se num sistema binário: o ensino universitário e o ensino politécnico, administrados por instituições do ensino superior públicas, privadas ou cooperativas.
764
Ensaístas
Ensaístas
765
Editor gráfico
Editor gráfico Editor gráfico, editor de foto ou editor de imagens é um programa de computador que tem como objetivo facilitar a alteração e criação de imagens digitais. Permite aplicar efeitos, fazer ajustes e correção nas imagens. Existem três tipos de editores para cada necessidade. São eles: Estes programas também possuem geralmente um vasto leque de filtros para exportação de arquivos. Alguns deles são BMP, JPG, GIF, TIFF, TGA, XPM, SVG, PostScript.
766
E-mail
E-mail (do inglês: "electronic-mail", abreviado "e-mail") é um método ou um sistema que permite compor, enviar e receber mensagens através de um sistema computacional online de comunicação de forma assíncrona. O termo "e-mail" é aplicado tanto aos sistemas que utilizam a Internet e que são baseados nos protocolos de mensagens POP3, IMAP e SMTP, como àqueles sistemas conhecidos como intranets, que permitem a troca de mensagens dentro de uma empresa ou organização e que são, normalmente, baseados em protocolos proprietários. O correio eletrônico é mais antigo que a internet, e foi uma ferramenta importante para sua criação, mas, na história moderna, os serviços de comunicação globais iniciaram no início da ARPANET. Padrões para codificação de mensagens de "e-mail" foram propostas em 1973 (RFC 561). A conversão da ARPANET à internet no início de 1980 produziu o núcleo dos serviços atuais. Um "e-mail" enviado antigamente era semelhante a uma mensagem de texto dos dias atuais. Ortografia. O correio eletrônico é, frequentemente, chamado pelo seu nome em inglês, mesmo em textos em português. Existem diversas grafias, que, ocasionalmente, provocam discussões entre os adeptos de cada forma: Também há variações na forma plural do termo. Em inglês americano, "email" é usado como um substantivo coletivo (como o termo correspondência para itens enviados pelo sistema postal), mas, no inglês britânico, é mais comumente usado como um substantivo comum, com a forma plural "emails". História. A história do correio postal e a primeira menção à transmissão de mensagens têm origem na Grécia antiga, em 190 a.C., quando um general da cidade de Atenas enviou um mensageiro para comunicar aos atenienses a vitória de seu exército sobre os Persas. É justamente daí que se origina a palavra "correio", do original "correr". Reza a história que o mensageiro de Atenas, Filípides, correu aproximadamente 42 quilômetros para levar a mensagem, e apenas balbuciou "Vitória" antes de cair morto de exaustão. Homenageou-se, posteriormente, essa distância como padrão das maratonas. Há registros, do século XV a.C., de redes postais entre egípcios e babilônicos, transmitidas por meio de tábuas de argila. É também dos egípcios que vem o registro do primeiro sistema de correio. O historiador Xenofonte escreveu: Já os romanos, para registrarem suas mensagens, utilizavam tábuas cobertas com cera quente (os "tabularis") ou pergaminhos e papiros. Essas informações eram trocadas continuamente entre Roma, seus exércitos e funcionários espalhados nos vastos territórios conquistados. No entanto, com a queda do Império Romano, os correios praticamente desapareceram. Muitos povos trocavam mensagens utilizando pombos-correios, grous e andorinhas. Esses pássaros eram pintados com cores de determinado significado, de acordo com um código estabelecido, e depois soltos. Ou tinham mensagens amarradas aos seus pés e seguiam uma rota pré-ensinada. O telégrafo, criado por Samuel Morse, que teve sua primeira transmissão em 1844, foi a primeira intervenção da eletricidade na mediação da comunicação entre pessoas. Em 1876, Alexander Graham Bell descreve sua primeira experiência bem-sucedida com o telefone. Outra forma de transmissão de mensagem é o fax. Apesar de ter sido inventado antes do telefone, só se popularizou em 1966, quando foi lançado o aparelho de fax operado em linha telefônica. O correio eletrônico é anterior ao surgimento da Internet. Os sistemas de "e-mail" foram uma ferramenta crucial para a criação da rede internacional de computadores. O primeiro sistema de troca de mensagens entre computadores que se tem notícia foi criado em 1965, e possibilitava a comunicação entre os múltiplos usuários de um computador do tipo "mainframe". Apesar da história ser um tanto obscura, acredita-se que os primeiros sistemas criados com tal funcionalidade foram o Q32 da SDC e o CTSS do MIT. O sistema eletrônico de mensagens transformou-se rapidamente em um ""e-Mail" em rede", permitindo que usuários situados em diferentes computadores trocassem mensagens. Também não é muito claro qual foi o primeiro sistema que suportou o "e-Mail" em rede. O sistema AUTODIN, em 1966, parece ter sido o primeiro a permitir que mensagens eletrônicas fossem transferidas entre computadores diferentes, mas é possível que o sistema SAGE tivesse a mesma funcionalidade algum tempo antes. A rede de computadores ARPANET fez uma grande contribuição para a evolução do "e-Mail". Existe um relato que indica a transferência de mensagens eletrônicas entre diferentes sistemas situados nesta rede logo após a sua criação, em 1969. A data de 29 de Outubro de 1969 é a da primeira mensagem enviada para computadores situados em locais distantes. O texto dessa primeira mensagem continha apenas duas letras e um ponto - "LO.". O investigador da Universidade da Califórnia em Los Angeles (UCLA) Leonard Kleinrock queria escrever "LOGIN", mas o sistema foi abaixo a meio da transmissão. A mensagem seguiu do computador do laboratório de Kleinrock na UCLA para o de Douglas Engelbart no Stanford Research Institute, utilizando como suporte a recém-criada rede da ARPA (Advanced Research Projects Agency). O programador Ray Tomlinson iniciou o uso do sinal @ para separar os nomes do usuário e da máquina no endereço de correio eletrônico em 1971. É considerado um dos inventores do e-mail, e foi de fato uma ferramenta crucial para criá-la, também criou outros programas parecidos com o "e-mail": SNDMSG e READMAIL. A primeira mensagem enviada por Ray Tomlinson não foi preservada; era uma mensagem anunciando a disponibilidade de um "e-Mail" em rede. A ARPANET aumentou significativamente a popularidade do correio eletrônico. Em Portugal. O Departamento de Informática da Universidade do Minho enviou pela primeira vez em Portugal um "e-mail" em 15 de agosto de 1986. O conteúdo do "e-mail" eram "pormenores técnicos sobre uma tecnologia que estava a dar os primeiros passos - a Internet". O receptor da mensagem foi a Universidade de Manchester, no Reino Unido. Tecnologia. Sistema de "e-mail". O envio e o recebimento de uma mensagem no formato "e-mail" é realizada através de um sistema de correio eletrônico, que é composto de programa de computador que possui a funcionalidade de cliente de "e-mail" e do servidor de "e-mail", que através de um endereço de correio eletrônico ("e-mail"), consegue transferir uma mensagem entre usuários. Estes sistemas utilizam os protocolos de Internet que permitem o tráfego de mensagens de um remetente para um ou mais destinatários que possuem dispositivos conectados à Internet. Características do e-mail. O formato na Internet para mensagens de "e-mail" é definido na CRF 2822 e uma série de outras RFCs (RFC 2045 até a RFC 2049) que são conhecidas como MIME. Mensagens de "e-mail" consistem basicamente de duas seções principais: Funcionalidades. Hoje, os grandes sítios da Internet criaram uma série de facilidades para o usuário. Note que essa variação é só uma facilidade e não um novo tipo de "e-mail". Entre estas podemos citar. "e-mail" restrito. Alguns sítios restringem alguns tipos de "e-mail". Esse tipo de restrição normalmente é usado a fim de evitar a atuação de um "spammer" ou divulgador não autorizado de mensagens em massa. Normalmente esse tipo de mensagem eletrônica é mais usado em empresas. "E-mail" com privacidade segura. Normalmente, é usado por autoridades e seu uso é controlado. Por medida de segurança, alguns organismos e entidades internacionais ou mesmo ligados a Governos categorizam o "e-mail" como: Os norte-americanos chegam ao cúmulo de dar níveis e subníveis a esse tipo de mensagem; Entretanto, vêm crescendo o uso da criação de chaves criptográficas pessoais (facilidade provida por aplicativos especializados), assegurando a privacidade das informações "de qualquer importância" de cada indivíduo. Tais chaves possuem uma grande flexibilidade, escalabilidade e confiabilidade. Algumas dicas de segurança: "E-mail" categorizado ou especial. Especial ou categorizado em níveis, que são de uso exclusivo dos provedores de Internet. Servem para testes e para verificar se funciona ou não o seu sistema anti-"spam" (contra as mensagens eletrônicas em massa). "E-mails" gratuitos e WebMail. Com a popularização da Internet através dos provedores gratuitos (cujos usuários ganhavam também uma caixa de correio eletrônico grátis), muitos sítios começaram a oferecer endereços de "e-mail" gratuitos desvinculados de qualquer outro serviço. Essas mensagens de "e-mail" podem ser lidas com o uso do próprio navegador, sem a necessidade de um programa específico, sendo por isso também chamados "webmail". Popularidade. O correio eletrônico tornou-se popular devido a sua grande facilidade em quebrar barreiras geográficas. Pessoas que estão em diferentes continentes podem se comunicar livremente (desde que possuam computadores ou qualquer outro dispositivo com tal funcionalidade conectados a Internet), enviando e recebendo mensagens a qualquer hora do dia e para qualquer parte do mundo. Observa-se que o correio eletrônico deixa de ser apenas um meio de troca de mensagens entre pessoas para se tornar um grande fator na produtividade das empresas. Grandes empresas estão, cada vez mais, usando o correio eletrônico para desempenhar papéis decisivos em suas negociações. Dentro disso, uma intranet pode ser estabelecida para tornar a comunicação de funcionários com outros grupos, tornando assim mais fácil o trabalho e eliminando mensagens em massa e outras mensagens indesejadas. A Campaign Monitor, produtora de um "software" de mesmo nome, tem medido a popularidade de clientes de "e-mail" e "webmail" entre as bilhões de mensagens enviadas pelo seu sistema. Esta amostra pode dar uma panorama geral dos programas ou plataformas de correio eletrônico mais utilizados atualmente. Em setembro de 2012, a medição apresentou os seguintes resultados: Outra tendência que se verifica é o crescimento da leitura de correio eletrônico em aparelhos móveis. A popularidade destes dispositivos também é corroborada pelo relatório citado. Áreas de aplicação. As aplicações de correio eletrônico normalmente oferecem ao usuário uma série de facilidades. A maior parte delas fornece um editor de textos embutido e a possibilidade do envio de arquivos anexados a correspondência. Além disso, a maioria das aplicações permite o envio de correspondências para um único destinatário ou o envio para mais de uma pessoa ou para um grupo de pessoas. Embora não tenham sido desenvolvidos como uma ferramenta de trabalho cooperativo, os serviços de correio eletrônico adaptaram-se muito bem ao ambiente de grupos de trabalho, se tornando indispensáveis nas organizações, agilizando processos, democratizando o acesso às informações e diminuindo os custos. Esta é uma das formas mais usadas para o estabelecimento de comunicações por meio do computador. Muitas organizações também usam o correio eletrônico como forma de troca de mensagens, mas, se quiserem usar recursos de "groupware", poderão incluí-los de forma simples e com baixo custo, com uma boa segurança. Problemas. A desvantagem está na falta de conhecimento da grande maioria dos internautas e, ainda, os "spammers" ou geradores de "spam", grandes remetentes de vírus. Como podemos ver em seguida: É aconselhável nunca abrir "e-mail" desconhecido, exceto se for de um site confiável, não sem antes observar os procedimentos de segurança.
767
Etimologia
Etimologia Etimologia (do grego antigo ἐτυμολογία, composto de ἔτυμος [verdadeiro, real] e -λογία [estudo]) é um campo de estudo da linguística que trata da história ou origem das palavras e da explicação do significado de palavras através da análise dos elementos que as constituem. Em outros termos, é o estudo da composição dos vocábulos e das regras de sua evolução histórica. Algumas palavras derivam de outras línguas, possivelmente de uma forma modificada (as palavras-fontes são chamadas étimos). Por meio de antigos textos e comparações com outras línguas, os etimologistas tentam reconstruir a história das palavras — quando eles entram em uma língua, quais as suas fontes, e como a suas formas e significados se modificaram. Os etimólogos também tentam reconstruir informações sobre línguas que são velhas demais para que uma informação direta (tal como a escrita) possa ser conhecida. Comparando-se palavras em línguas correlatas, pode-se aprender algo sobre suas línguas afins compartilhadas. Deste modo, foram encontrados radicais de palavras que podem ser rastreadas por todo o caminho de volta até a origem da família de línguas indo-europeias. A própria palavra etimologia vem do grego ἔτυμον (étimo, o verdadeiro significado de uma palavra, de 'étymos', verdadeiro) e λόγος (lógos, ciência, tratado). Exemplos. O estudo da origem das palavras pode, contudo, levar a armadilhas e a falácias etimológicas, que formam a pseudoetimologia ou a etimologia popular. Um exemplo, bastante discutido, é o da palavra cadáver que, segundo alguns autores, teria origem na inscrição latina "caro data vermibus" (carne dada aos vermes), que supostamente seria inscrita nos túmulos. Na verdade, não se encontrou, até hoje, nenhuma inscrição romana deste género. Hoje é defendido pelos etimologistas que a palavra deriva da raiz latina "cado", que significa "caído". A favor desta teoria está o facto de santo Isidoro de Sevilha referir que o corpo deixa de ser cadáver a partir do momento em que é sepultado.
768
Editor de som
Editor de som Um editor de som é um profissional criativo responsável por selecionar e montar gravações de som em preparação para a mixagem ou masterização de áudio final de um programa de televisão, filme, jogo eletrônico ou qualquer produção que envolva som gravado ou sintético.
770
Experiência de Miller e Urey
Experiência de Miller e Urey A experiência de Miller e Urey foi uma experiência científica concebida para testar a hipótese de Oparin e Haldane sobre a origem da vida. Segundo o experimento, as condições na Terra primitiva favoreciam a ocorrência de reações químicas que transformavam compostos inorgânicos em compostos orgânicos precursores da vida. Em 1953, Stanley L. Miller e Harold C. Urey da Universidade de Chicago realizaram uma experiência para testar a hipótese de Oparin e Haldane que ficou conhecida pelos nomes dos cientistas. Esta experiência tornou-se na experiência clássica sobre a origem da vida. Experiência. A experiência de Miller consistiu basicamente em simular as condições da Terra primitiva postuladas por Oparin e Haldane. Para isso, criou um sistema fechado, sem oxigênio gasoso, onde inseriu os principais gases atmosféricos, tais como hidrogênio, amônia, metano, além de vapor d'água. Através de descargas elétricas, e ciclos de aquecimento e condensação de água, obteve após algum tempo, diversas moléculas orgânicas (aminoácidos). Deste modo, conseguiu demonstrar experimentalmente que seria possível aparecerem moléculas orgânicas através de reações químicas na atmosfera utilizando compostos que poderiam estar nela presentes. Estas moléculas orgânicas são indispensáveis para o surgimento da vida. Comprovações. Reanálises publicadas em outubro de 2008 do material original da experiência, mostraram a presença de 22 aminoácidos ao contrário dos 5 publicados no artigo original. Antigos resultados mostram uma forte evidência de estas moléculas orgânicas específicas poderem ser sintetizadas de reagentes inorgânicos atmosféricos. Comprovando então a hipótese da vida heterotrófica. Química do experimento. A primeira etapa das reações químicas da mistura de gases deu origem ao cianeto de hidrogênio (HCN), formaldeido (CH2O) e outros compostos químicos como o acetileno, cianoacetileno, etc: O formaldeido, a amônia e o HCN reagiram entre si em um processo conhecido como Síntese de aminoácido de Strecker para formar aminoácidos e outras biomoléculas: Além disso, a água e o formaldeído reagiram pelo processo conhecido como Reação de Butlerov para produzir vários açúcares , tais como a ribose. As experiências mostraram que compostos orgânicos simples, proteínas e outras macromoléculas podem ser formados a partir de gases com a adição de energia. Aminoácidos identificados. Abaixo é a tabela de aminoácidos produzidos e identificados no "clássico" experimento de 1952, como publicado por Miller em 1953, the 2008 re-analysis of vials from the volcanic spark discharge experiment, and the 2010 re-analysis of vials from the H2S-rich spark discharge experiment.
771
Europa Ocidental
Europa Ocidental A Europa Ocidental ou Oeste Europeu é uma parte da Europa cujas fronteiras dependem da definição. Estas fronteiras, no entanto, estão sujeitas a consideráveis flutuações e sobreposições, o que dificulta a sua diferenciação. O conceito de Europa Ocidental também está associado à noção de Mundo Ocidental. Antes da Segunda Guerra Mundial e a Guerra Fria, o termo "Europa Ocidental" era muito usado para designar as partes da Europa que tinham raízes católicas ou protestantes. Foi nestes países que as culturas ocidentais nasceram e floresceram, acabando por disseminar-se por todo o mundo. Durante a Guerra Fria, quando a Europa Ocidental designava os países membros da NATO e sob influência norte-americana, o termo era frequentemente usado como contraponto ao Leste Europeu, que estava sob influência soviética. As fronteiras entre os países do Ocidente e do Leste estavam bem defendidas e patrulhadas, especialmente do lado oriental. A estas fronteiras dava-se também o nome de Cortina de Ferro. Segundo a Organização das Nações Unidas, utilizando o critério de divisão por regiões geográficas, a Europa ocidental atualmente compreenderia a Alemanha, a Áustria, a Bélgica, a França, Liechtenstein, Luxemburgo, Mónaco, os Países Baixos e a Suíça. Já para a Unesco, segundo critérios histórico-sócio-culturais, a Europa Ocidental compreenderia os atuais territórios da Alemanha, Andorra, Bélgica, Dinamarca, Espanha, Finlândia, França, Grécia, Islândia, Irlanda, Itália, Liechtenstein, Luxemburgo, Malta, Mónaco, Noruega, Países Baixos, Portugal, Reino Unido, São Marino, Suécia e Suíça. Note-se que, exceção à parte oriental da Alemanha (que foi reunificada em 1990), por qualquer dos 2 critérios (como pode-se observar nos mapas ao lado), estão excluídos do presente conceito de Europa Ocidental todos os países que, como acordado na Conferência de Ialta, caíram na zona de influência soviética, sendo governados por regimes comunistas durante a Guerra Fria, incluindo os que faziam então parte da não alinhada Iugoslávia. Definição. CIA. A CIA classifica sete países como pertencentes à "Europa Ocidental": A CIA também classifica três países como pertencentes ao "Sudoeste da Europa": ONU. O Grupo da Europa Ocidental é um dos vários grupos regionais não oficiais das Nações Unidas que atuam como blocos de votação e fóruns de negociação. Os blocos regionais de votação foram formados em 1961 para incentivar a votação em vários órgãos da ONU de diferentes grupos regionais. Os membros europeus do grupo são: Além disso, Austrália, Canadá, Israel e Nova Zelândia são membros do grupo, enquanto os Estados Unidos são observadores.