text
stringlengths
1
100k
summary
stringlengths
3
4.99k
dataset
stringclasses
11 values
L'astronomie est considérée comme la plus ancienne des sciences. L'archéologie révèle en effet que certaines civilisations de l'Âge du bronze, et peut-être du Néolithique, avaient déjà des connaissances en astronomie. Elles avaient compris le caractère périodique des équinoxes et sans doute leur relation avec le cycle des saisons, elles savaient également reconnaître certaines constellations. L'astronomie moderne doit son développement à celui des mathématiques depuis l'Antiquité grecque et à l'invention d'instruments d'observation à la fin du Moyen Âge. Si l'astronomie est pratiquée pendant plusieurs siècles parallèlement à l'astrologie, le siècle des Lumières et la redécouverte de la pensée grecque voient naître la distinction entre la raison et la foi, si bien que l'astrologie n'est plus pratiquée par les astronomes.Au Néolithique, tous les grands cercles mégalithiques sont en fait des observatoires astronomiques. Les plus connus sont NabtaLes systèmes les mieux connus sinon les plus développés sont :Toutes les observations se faisaient à l'œil nu puisque les Anciens étaient aidés dans cette tâche par l'absence de pollution industrielle et surtout lumineuse. C'est pour cette raison que la plupart des observations "à l'antique" seraient impossibles aujourd'hui. Les dessins de la Grotte de Lascaux sont en étude, on a pensé que les dessins servaient d'emplacements de constellations. Ces observations, parfois relativement simples en apparence (simple dessin de quatre ou cinqL'invention de l'astronomie remonte aux Chaldéens. À ses débuts, l'astronomie consiste simplement en l'observation et en la prédiction du mouvement des objets célestes visibles à l'œil nu. Ces différentes civilisations ont lègueront de nombreux apports et découvertes. En Mésopotamie, l'astronomie voit apparaître ses premiers fondements mathématiques. Le repérage des trajets des astres errants se fait d'abord sur trois voies parallèles à l'équateur. Puis, après les premières observations systématiques de la fin du millénaire (vers -1200), les trajets du Soleil et de la Lune sont mieux connus. Vers le apparaît la notion d'écliptique et plus tard encore uneSocrate considère l’astronomie comme futile, au contraire de l’Athènes antique : les anciens Grecs, dont Ératosthène, Eudoxe de Cnide, Apollonios, Hipparque et Ptolémée, construisent progressivement une théorie géocentrique très élaborée. Aristarque de Samos formule les bases d'une théorie héliocentrique. En ce qui concerne le Système solaire, grâce à la théorie des épicycles et à l'élaboration de tables fondées sur cette théorie, il est possible, dès l'époque alexandrine, de calculer de manière assez précise les mouvements des astres, y compris les éclipses lunaires et solaires. Concernant l'astronomie stellaire, ils apportent d'importantes contributions, notamment la définition du système de magnitude. L’"Almageste" de Ptolémée contient déjà une liste de quarante-huit constellations et.L'astronomie ne peut être étudiée sans l'apport d'autres sciences qui lui sont complémentaires et nécessaires : les mathématiques (géométrie, trigonométrie), ainsi que la philosophie. Elle sert au calcul du temps. Sur les sciences et l'éducation en général au Moyen Âge :L'astronomie indienne aurait culminé vers 500, avec l"Āryabhaṭīya", qui présente un système mathématique quasi-copernicien, dans lequel la Terre tourne sur son axe. Ce modèle considère le mouvement des planètes par rapport au Soleil. Pour s'orienter sur mer mais aussi dans le désert, les civilisations arabo-persanes ont besoin de données très précises. Dérivée des astronomies indienne et grecque, l'astronomie islamique culminera vers le. Boèce est le fondateur dès le du quadrivium, qui inclut l'arithmétique, la géométrie, la musique et l'astronomie. Après les invasions barbares, l'astronomie se développe relativement peu en Occident. Elle est par contre florissante dans le monde musulman à partir du. L'astronome persan al-Farghani (805-880) écrit beaucoup sur le mouvement desL'œuvre d'Al-Farghani est traduite en latin au, en même temps que bien d'autres traités arabes et que la philosophie d'Aristote. Dans le monde musulman, on peut citer :Pendant la Renaissance, Copernic propose un modèle héliocentrique du Système solaire ayant de nombreux points communs avec la thèse de Nasir ad-Din at-Tusi, avec le "De revolutionibus" publié en 1543 après sa mort. Près d'un siècle plus tard, cette idée est défendue, étendue et corrigée par Galilée et Kepler. Galilée imagine une lunette astronomique, en s'inspirant des travaux du hollandais Hans Lippershey (dont la lunette ne grossissait que trois fois et déformait les objets), pour améliorer ses observations. S'appuyant sur des relevésOn découvre que les étoiles sont des objets très lointains : l'étoile la plus proche du Système solaire, Proxima du Centaure, est à plus de quatre années-lumière. Avec l'introduction de la spectroscopie, on montre qu'elles sont similaires au Soleil, mais dans une grande gamme de températures, de masses et de tailles. L'existence de notre galaxie, la Voie lactée, en tant qu'ensemble distinct d'étoiles, n'est prouvée qu'au début du du fait de l'existence d'autres galaxies. Peu après, on découvre l'expansion de l'Univers, conséquence de la loi deÀ son début, durant l'Antiquité, l'astronomie consiste principalement en l'astrométrie, c'est-à-dire la mesure de la position dans le ciel des étoiles et des planètes. Plus tard, des travaux de Kepler et de Newton naît la mécanique céleste qui permet la prévision mathématique des mouvements des corps célestes sous l'action de la gravitation, en particulier les objets du Système solaire. La plus grande partie du travail dans ces deux disciplines (l'astrométrie et la mécanique céleste), auparavant effectué à la main, est maintenant fortement automatisée grâce aux ordinateurs et aux capteurs CCD, au point que maintenant elles sont rarement considérées comme des disciplines distinctes. Dorénavant, le mouvement et la position des objets peuvent être rapidement connus, si bien que l'astronomie moderne est beaucoup plus concernée par l'observation et la compréhension de la nature physique des objets célestes. Depuis le, l'astronomie professionnelle a tendance à se séparer en deux disciplines : "astronomie d'observation" et "astrophysique théorique". Bien que la plupart des astronomes utilisent les deux dans leurs recherches, du fait des différents talents nécessaires, les astronomes professionnels tendent à se spécialiser dans l'un ou l'autre de ces domaines. L'astronomie d'observation est concernée principalement par l'acquisition de données, ce qui comprend la construction et la maintenance des instruments et le traitement des résultats. L'astrophysique théorique s'intéresse à la recherche des implications observationnelles de différents modèles, c'est-à-dire qu'elle cherche à comprendre et à prédire les phénomènes observés. L"astrophysique" est la branche de l'astronomie qui détermine les phénomènes physiques déduits par l'observation des astres. Actuellement, les astronomes ont tous une formation poussée en astrophysique et leurs observations sont presque toujours étudiées dans un contexte astrophysique. En revanche, il existe un certain nombre de chercheurs et chercheuses qui étudient exclusivement l'astrophysique. Le travail des astrophysiciens est d'analyser des données d'observations astronomiques et d'en déduire des phénomènes physiques. Les domaines d'études de l'astronomie sont aussi classés en deux autres catégories :L'étoile la plus étudiée est le Soleil, une petite étoile typique de la séquence principale de type spectral G2V et vieille d'environ 4,6 milliards d'années. Le Soleil n'est pas considéré comme une étoile variable, mais il subit des changements périodiques de son activité, ce qui peut être vu grâce aux taches solaires. Ce cycle solaire de fluctuation du nombre de taches dure 11 ans. Les taches solaires sont des régions plus froides que la normale qui sont associées à une activité magnétique intense. La luminosité du Soleil a régulièrement augmenté au cours de sa vie. Aujourd'hui, il est en effet 40 % plus brillant qu'au moment où il est devenu une étoile de la séquence principale. Le Soleil a également subi des changements périodiques de luminosité ayantCe domaine de la planétologie s'intéresse à l'ensemble des planètes, des lunes, des planètes naines, des comètes, des astéroïdes, et des autres corps orbitant autour du soleil ; ainsi qu'aux exoplanètes. Le Système solaire a été relativement bien étudié, d'abord à l'aide de télescopes puis aux moyens de sondes. Cela a fourni une bonne compréhension globale de la formation et de l'évolution de ce système planétaire, bien qu'un grand nombre de découvertes soient encore à accomplir. Le Système solaire est subdivisé en cinq parties : le Soleil, les planètes internes, la ceinture d'astéroïdes, les planètes externes et le nuage d'Oort. Les planètes internes sont toutes telluriques, il s'agit de Mercure, Vénus, la Terre, et Mars. Les planètes externes, des géantes gazeuses, sont Jupiter, Saturne, Uranus et Neptune. Derrière Neptune se trouve la ceinture de Kuiper, et finalement,L'étude des étoiles et de l'évolution stellaire est fondamentale pour notre compréhension de l'univers. L'astrophysique des étoiles a été déterminée grâce à l'observation et à la compréhension théorique ainsi que par des simulations informatiques. Une étoile se forme dans des régions denses de poussières et de gaz, connues sous le nom de nuages moléculaires géants. Lorsqu'ils sont déstabilisés, les fragments peuvent s'effondrer sous l'influence de la gravité pour former une protoétoile. Une région suffisamment dense et chaude provoquera une fusion nucléaire, créant ainsi une étoile de la séquence principale. Presque tous les éléments plus lourds que l'hydrogène et l'hélium ont été créés dans le noyau des étoiles. Les caractéristiques de l'étoile résultant dépendent d'abord de sa masse de départ. Plus l'étoile est massive, plus sa luminosité est importante et plus elle videra le stock d'hydrogène présent dans son noyau rapidement. AuLe Système solaire orbite au sein de la Voie lactée, une galaxie spirale barrée qui est un membre important du Groupe local. C'est une masse tournante formée de gaz, d'étoiles et d'autres objets maintenus ensemble par une attraction gravitationnelle mutuelle. Étant donné que la Terre est située dans un bras extérieur poussiéreux, il y a une grande partie de la Voie lactée que l'on ne peut pas voir. Au centre de la Voie lactée se trouve le noyau, un bulbe de forme étirée qui d'après de nombreux astronomes abriterait un trou noir supermassif en son centre gravitationnel. Celui-ci est entouré de quatre bras spiraux majeurs démarrant du noyau. C'est une région active de la galaxie qui contient beaucoup d'étoiles jeunes appartenant à laL'étude des objets situés en dehors de notre galaxie est une branche de l'astronomie concernée par la formation et l'évolution des galaxies ; leur morphologie et classification ; l'examen des galaxies actives ; ainsi que par les groupes et amas de galaxies. Ces derniers sont importants pour la compréhension des structures à grande échelle de l'Univers. La plupart des galaxies sont organisées en formes distinctes, ce qui permet d'établir un schéma de classification. Elles sont communément divisées en galaxies spirales, elliptiques et irrégulières. Comme son nom l'indique, une galaxie elliptique a la forme d'une ellipse. Ses étoiles se déplacent sur une orbite choisie au hasard sans aucune direction préférée. Ces galaxies ne contiennent que peu ou pas de gaz interstellaire, peu de régions de formation d'étoiles, et généralement des étoiles âgées. On trouve généralement des étoiles dans les noyaux d'amas galactiques qui peuvent se former à partir de la fusion de plus grandes galaxies. Une galaxie spirale est organisée comme un disque plat en rotation, avec généralementLa cosmologie (du grec κοσμος, « monde, univers » et λογος, « mot, étude ») pourrait être considérée comme l'étude de l'Univers comme étant un tout. Les observations de la structure de l'Univers à grande échelle, une branche appelée cosmologie physique, a donné une profonde connaissance de la formation et de l'évolution du cosmos. La théorie bien acceptée du Big Bang est fondamentale à la cosmologie moderne qui dit que l'univers a commencé comme un simple point et qu'il s'est ensuite agrandi durant 13,7 milliards d'années jusqu'à son état actuel. Le concept du Big Bang peut être retracé jusqu'à la découverte du fond diffus cosmologique en 1965. Dans ce processus d'expansion, l'univers a connu plusieurs stades d'évolution. Dans les tout premiers temps, nos théories actuelles montrent une inflation cosmique extrêmement rapide, ce qui a homogénéisé les conditions de départ. Ensuite, la nucléosynthèse primordiale a produitEn astronomie, l'information provient principalement de la détection et de l'analyse de la lumière visible ou d'une autre onde électromagnétique. L'astronomie d'observation peut être divisée selon les régions observées du spectre électromagnétique. Certaines parties du spectre peuvent être observées depuis la surface de la Terre, alors que d'autres sont seulement observables à de hautes altitudes voire dans l'espace. Des informations spécifiques sur ces sous-branches sont données ci-dessous.La radioastronomie étudie les radiations d'une longueur d'onde supérieure au millimètre. La radioastronomie est différente des autres formes d'observations astronomiques dans la mesure où les ondes radio sont traitées davantage comme des ondes plutôt que comme des photons discrets. Il est plus facile de mesurer l'amplitude et la phase des ondes radio que celles de longueurs d'onde plus courtes. BienL'astronomie infrarouge s'occupe de la détection et de l'analyse du rayonnement infrarouge (longueurs d'onde plus longues de celle de la lumière rouge). Excepté pour les longueurs d'onde situées près de la lumière visible, le rayonnement infrarouge est fortement absorbé par l'atmosphère ; d'autre-part, celle-ci produit des émissions d'infrarouge significatives. Par conséquent,D'un point de vue historique, l'astronomie optique, également appelée "astronomie de la lumière visible", est la plus ancienne forme d'astronomie. À l'origine, les images optiques étaient dessinées à la main. À la fin du et durant une bonne partie du, les images furent faites en utilisant un équipement photographique. Les images modernes sont produites grâce à des détecteurs digitaux, particulièrement les caméras CCD. Bien que la lumière visible s'étende elle-même approximativement deL'astronomie en ultraviolets fait référence aux observations aux longueurs d'onde correspondant à l'ultraviolet, c'est-à-dire entre ~ 100 et (). La lumière de ces longueurs est absorbée par l'atmosphère de la Terre, les observations de ces longueurs d'onde se font donc depuis la haute atmosphère ou depuis l'espace. L'astronomie à ultraviolets est plus indiquée pourL'astronomie en rayons X consiste en l'étude des objets astronomiques à des longueurs d'onde correspondant aux rayons X, autrement dit allant d'environ (). Typiquement, les objets émettent des rayons X comme des émissions synchrotron (produit par des électrons oscillant autour des lignes d'un champ magnétique), des émissions thermiques provenant de gaz fins (appelé rayonnement continu de freinage) quiL'astronomie des rayons gamma concerne les plus petites longueurs d'onde du spectre électromagnétique. Les rayons gamma peuvent être directement observées par des satellites tels que le Compton Gamma-Ray Observatory. Les rémanents de supernovae, les pulsars,L’astronomie gravitationnelle, ou "astronomie des ondes gravitationnelles", est la branche de l'astronomie qui observe les objets célestes grâce aux ondes gravitationnelles, soit de faibles perturbations de l'espace-temps se propageant dans l'espace etL’astronomie des neutrinos est une branche de l'astronomie cherchant à étudier les objets célestes capables de produire des neutrinos de très hautes énergies (de l'ordre de quelques centaines de TeV à plusieurs PeV).L'astronomie et l'astrophysique ont développé d'importantsLes astronomes amateurs observent une variété d'objets célestes, au moyen d'un équipement qu'ils construisent parfois eux-mêmes. Les cibles les plus communes pour un astronome amateur sont la Lune, les planètes, les étoiles, les comètes, les essaims météoritiques, ainsi que les objets du ciel profond que sont les amas stellaires, les galaxies et les nébuleuses. Une branche de l'astronomie amateur est l'astrophotographie, consistant à photographier le ciel nocturne. Une partie des amateurs aime se spécialiser dans l'observation d'un type d'objet particulier. La plupart des amateurs observent le ciel aux longueurs d’onde visibles, mais une minorité travaille avec des rayonnements hors du spectre visible. Cela comprend l'utilisation de filtres infrarouges sur des télescopes conventionnels, ou l'utilisation de radiotélescopes. Le pionnier de la radioastronomie amateur était Karl Jansky qui a commencé à observer le ciel en ondes radio dans les années 1930. Un certain nombre d'amateurs utilisent soit des télescopes fabriqués de leurs mains, soit des télescopes qui ont été construits à l'origine pour la recherche astronomique mais qui leur sont maintenant ouverts (par exemple le ). Une certaine frange de l'astronomie amateur continue de faire progresser l'astronomie. En fait, il s'agit de l'une des seules sciences où les amateurs peuvent contribuer de manière significative. Ceux-ci peuvent effectuer les calculs d'occultation qui servent à préciser les orbites des planètes mineures. Ils peuvent aussi découvrir des comètes, effectuer des observations régulières d'étoiles doubles ou multiples. Les avancées en technologie numérique ont permis aux amateurs de faire des progrès impressionnants dans le domaine de l'astrophotographie.
L’astronomie est la science de l’observation des astres, cherchant à expliquer leur origine, leur évolution, ainsi que leurs propriétés physiques et chimiques. Avec plus de d’histoire, les origines de l’astronomie remontent au-delà de l’Antiquité dans les pratiques religieuses préhistoriques. L’astronomie est l’une des rares sciences où les amateurs jouent encore un rôle actif. Elle est pratiquée à titre de loisir par un large public d’astronomes amateurs.
xwikis
L'origine du mot est anglaise, "tourist", qui trouve son étymologie dans le mot français "tour" (voyage circulaire). Il désigne au le voyage que font les jeunes de l'aristocratie britannique sur le continent européen pour rejoindre la ville de Rome. Il est tout d'abord un adjectif, puis devient un substantif. Le mot "tourist" apparaît en Angleterre en 1800. Trois ans plus tard, il est utilisé dans la langue française, pour lequel, le "Littré" donne dans ses différentes éditions du la définition suivante : Pierre Larousse donne une version moins négative avec sa définition, dans son "Dictionnaire Universel du ". Le mot semble se populariser à partir de 1816 et Stendhal contribue à son usage avec "Mémoires d'un touriste", publié en 1838. L'usage du mot "tourisme" est, lui, plus tardif et il faut attendre la fin du siècle pour que les dictionnaires lui donnent une définition. Le "Supplément Larousse" donne ainsi une ébauche de définition dans son édition de 1877 : « Tourisme, habitude de touriste ».Bien que la notion de « tourisme » soit récente, le sociologue du tourisme Rachid Amirou note des analogies de comportement plus anciens, par exemple l'attrait de la mer pour les Romains ou encore avec les pèlerinages médiévaux. Il étudie également comment, depuis le s'est opposée la notion méliorative du « voyageur » à celle, péjorative, du tourisme de masse et de quelle manière s'est construit un imaginaire touristique (par exemple l'île et le fantasme construit culturellement du « paradis perdu ») avec les dérives que cela peut engendrer (comme la mise en valeur d'une authenticité qui serait surtout une assignation identitaire àLes termes « tourisme » et « touriste » furent utilisés officiellement pour la première fois par la Société des Nations pour dénommer les gens qui voyageaient à l'étranger pour des périodes de plus de 24 heures. Mais l'industrie du tourisme est bien plus ancienne que cela. Pour qu'il y ait tourisme, quatre paramètres essentiels doivent être réunis : Le tourisme moderne apparaît avec ce que l'on appelait le Grand Tour, un voyage traditionnel en Europe (en particulier en Allemagne et en Italie), entrepris principalement par des jeunes hommes nobles européens. En 1624, le jeune prince de Pologne, Ladislas Sigismond Vasa, fils aîné et héritier de Sigismond III, entreprit un voyage à travers l'Europe, comme c'était le cas chez la noblesse polonaise. Il a parcouru lesLe tourisme de masse ne commença à se développer que lorsque les moyens de transport eurent progressé et que le nombre de gens bénéficiant de temps libre eut augmenté. L'invention du chemin de fer et le développement du réseau ferré au ont abouti à la croissance de villes au bord de la mer facilement accessible pour les citadins britanniques... Blackpool a été créé par la construction d'une ligne en direction de Fleetwood et quelques stations ont été promues par les sociétés de chemin de fer- Morecambe par Midland Railway et Cleethorpes par Great Central Railway. D'autres stations ont inclus Scarborough dans le Yorkshire, pour les habitants Leeds et Bradford ; Weston-super-Mare dans le Somerset, accueillant les habitants de Bristol ; et Skegness, été fréquenté par lesUn exemple de développement d'un tourisme dans les colonies est le cas des Indes néerlandaises. Entre 1890 et 1910, les publications de guides de voyage se multiplient. Le gouvernement colonial comprend le profit qu'il peut tirer de cet intérêt, et construit des relais d'étape à travers l'île de Java, les "pasanggrahan". Entre 1900 et 1930, le tourisme par des Européens à Java connaît un essor remarquable. À Batavia, capitale de la colonie, un "Travellers' Official Information Bureau" publie des guides vantant les charmes des « Indes orientales ». Le fabricant de pneumatiques Goodyear publie des cartes. De prestigieux hôtels sont construits à travers l'île. Ce développement est rendu possible par l'amélioration des liaisons maritimes entre Batavia et Singapour, principale colonie britannique dans la région et déjà un port important. Un autre exemple est le tourisme colonial français : création de la stationLa seconde moitié du est marquée par les fameux quatre S du modèle touristique, Sea, Sun, Sand, Sex (la Mer, le Soleil, le Sable, le Sexe), idée qui a été popularisée de façon satirique par le film "Les Bronzés". Des évolutions se manifestent dans cette seconde moitié du. Le touriste n'est plus seulement « toute personne en déplacement hors de son environnement habituel pour une durée d'au moins une nuitée et d'un an au plus» (définition de l'Organisation mondiale du tourisme) ; c'est un ensemble beaucoup plus vaste d'activités, de pratiques extrêmement variées. Si en France jusqu'en 1936 il était l'apanage de classes sociales aisées, avec l'instauration des congés payés, il a connu un essor tout autre ; la masse des travailleurs et de leurs familles pouvant ainsi enfin se déplacer pour leur agrément. Le développement du tourisme de masse en France a lieuLe tourisme créatif existe, comme forme de tourisme culturel, depuis les origines mêmes du tourisme. Ses racines européennes renvoient au Grand Tour qu'effectuaient les jeunes aristocrates européens dans le but de découvrir d'autres cultures en réalisant des voyages basés sur l'expérience. Plus récemment le tourisme créatif a été reconnu comme tel par Crispin Raymond et Greg Richards, qui, en tant que membre de ATLAS - Association for Tourism and Leisure Education ont dirigé un grand nombre de projets et études pour la Commission Européenne. Le tourisme créatif réunit de plus en plus d’adeptes dans le monde, désireux de réaliser une activité artistique et créative qui leur permette de découvrir la culture de leur lieu de séjour en vivant des moments privilégiés avec ses habitants. L’engouement croissant des touristes pour cette nouvelle façon de découvrir une culture intéresse particulièrement les responsables territoriaux et les opérateurs, sensibles à la possibilité d’attirer un tourisme de qualité tout en mettant en valeur le patrimoine immatériel (ateliers d’artisanat, stages de cuisine, etc.) et en optimisant l’utilisation des infrastructures existantes (via par exemple la location de salles et auditorium).Le tourisme est également lié au monde du travail par le biais du tourisme d'affaires et par celui des pratiques appelées en anglais « "incentive" ». Le premier concerne toute l'offre touristique (divertissement, découverte) qui entoure les voyages d'affaires, les congrès, les séminaires, les salons - et la France est encore pour quelques années la première destination mondiale des salons et congrès. Le second (« "incentive" ») consiste en des voyages organisés pour le personnel d'une entreprise (en français : voyage de stimulation). Il peut comprendre des épreuves sportives ou ludiques, mais aussi des activités culturelles, en complément de séminaires ou de réunions. On observe que les pratiques se diversifient, s'entrecroisent, créant autant de niches pour les producteurs du tourisme. Une clientèle ne se définit plus par une pratique unique, une pratique ne définit plus un seul profil de clientèle. En République populaire de Chine, le tourisme et la consommation touristique ont fortement augmenté : en 2003, on estime que plus de 100 millions de Chinois ont parcouru et visité leur pays, en dehors des voyages pour motif familial. Ce nombre a atteint 130 millions en 2008, alors que 46 millions de Chinois sont allés à l'étranger.L'avènement de l'e-tourisme est à l'origine de la désintermédiation et la consolidation du secteur du tourisme (dématérialisation du billet papier en billet électronique, développement de grandes plateformes de distribution, etc.). InternetApparu plus récemment, le tourisme sombre (ou noir) (de l'anglais "dark tourism") consiste à visiter des endroits évoquant souffrance, mort et peur : le camp d’extermination d’Auschwitz, l'île de Gorée, la centrale de Tchernobyl.Le tourisme se présente sous diverses formes avec notamment le tourisme balnéaire, sports d'hiver ou encore tourisme vert, voire selon des thématiques comme le tourisme d'affaires, culturel, sexuel, de mémoire, de naissance ou encore l'écotourisme. Au niveau du tourisme mondial, la moitié des touristes internationauxUn aménagement est l’ensemble des constructions humaines aménagées pour faciliter la vie d’une collectivité. Exemples : routes, port,Le tourisme est un des phénomènes les plus marquants depuis le milieu du. En 1950, quelque 25 millions de touristes franchissent une frontière internationale. Ils passent à 500 millions dans les années 1990. La barre du milliard est franchie en 2012. L'Organisation mondiale du tourisme (OMT) annonce un nouveauPar arrivées de touristes internationaux Par présence de touristes internationaux Après avoir chuté de 3,9 % en 2010 (« pire année depuis 60 ans » selon Taleb Rifai, secrétaire général de l'Organisation mondiale du tourisme), le nombre de touristes dans le monde a progressé de 6,6 % en 2011, 5 % en 2012 et 4 % en 2013, année qui voit le nombre de touristes dansLes recettes du tourisme international engrangées par les destinations à travers le monde enregistrent une croissance spectaculaire depuis le milieu du, passant de 2 milliards de dollars en 1950, à 104 milliards en 1980, puis à 495 milliards en 2000 et 1260 milliards en 2015. Selon l'OMT, le tourisme international et interne représenteSelon l'Organisation mondiale du tourisme, les dix paysLe classement des dix villes les plus visitées au monde est établi selon les statistiques fournies par les services officiels de chaque ville. Il comprend à la fois le tourisme de loisir et le tourisme d'affaire (ce dernier constituant par exemple entre 40 et 50 % des arrivées parisiennes). Les méthodologies sont susceptibles de différer (nombre de touristes internationaux enregistrés dans les hôtels et/ou autres types d'hébergement, nombreLe tourisme est une activité économique majeure permettant aux régions où se localise le développement d'obtenir une source de revenus importants. Toutefois, le développement des différentes activités et infrastructures engendre également des problèmes que l'on qualifie parfois d'effet « pervers » dans les différentes littératures. En effet, des auteurs ou des observateurs accusent ainsi régulièrement les activités touristiques d'être responsables de la destruction des modes de vie traditionnels ou de surconsommation des ressources locales (énergies, eau, etc.), de participer à l'augmentation des différents coûts, à une forme de spéculation foncière, à la destruction de l'environnement.Le tourisme a différentes conséquences économiques sur les différents pays. Premièrement, il apporte un certain revenu aux gouvernements des pays ciblés, mais il participe également au développement de certaines industries, notamment dans le secteur de la restauration et de l'hôtellerie. La tendance courant dans les déplacements touristiques est des pays riches vers les plus pauvres puisque c'est chez lesLe tourisme peut créer des effets « collatéraux » sociaux-culturels (perte d'identité, acculturation, prostitution, folklorisation des sociétés traditionnelles, « consommation des mœurs »...). Il peut aussi créer une dynamique de pouvoir entre la personne qui regarde et la personne (touriste) qui est regardéeLe tourisme frappe l'environnement, et est à son tour touché par la dégradation de la nature. Le tourisme vert et les touristes en général recherchent notamment des environnements et une biodiversité préservée ou de qualité. Mais il est actuellementL'empreinte écologique individuelle des touristes croît rapidement, de même que le nombre de touristes circulant dans le monde (exemple : doublement en France de 1964 à 2004, passant de 200 à plus de 400 millions de touristes/an). Certaines formes de tourisme ont une empreinte énergétique et climatique particulièrement élevée (transports aériens, grandes croisières, etc.). À titre d'exemple, une étude a montré qu'en 2006, rien que le transport des touristes français a produit 6 % des émissions de gaz à effet de serre (GES) du pays. 5 % des touristes ont émis 50 % du total des émissions liées au tourisme (rien qu'en se transportant sur leur lieu de vacances), et 10 % des touristesOutre le transport des touristes, leurs achats et leur alimentation qui ont les impacts climatiques les plus élevés, le nautisme motorisé, la chasse, le quad, la motoneige, la "pêche au gros", les safaris, la plongée sous-marine, ou même le surf ainsi que certains modes de logements (hôtels de luxe, climatisation, etc.) peuvent encore fortement augmenter les conséquences écologiques et énergétiques du tourisme, ainsi que sa contribution à l'effet de serre. En France une étude a montré que la minorité de touristes séjournant dans des hôtels trois étoiles et plus ou dans des clubsElle est devenue considérable : en 2017 il est responsable de 8 % du total des émissions de gaz à effet de serre des humains. Elle est due aux transports et aux activités sur place, aux touristes eux-mêmes ainsi qu'aux professionnels du tourisme. Les déplacements intérieurs sont les plus coûteux en émission. Les États insulaires, dits "destinations exotiques" dans le milieu touristique, comme les Maldives ou Chypre, sont fortement pénalisés de ce point de vue.Deux types de produits éditoriaux concernent le tourisme : les guides de tourisme et les magazines et revues spécialisées. Ce panorama de l'édition touristique ne serait pas complet si on omettait l'offre gratuite qui a deux sources principales : Outre leur gratuité, elles présentent l'inconvénient d'être limitées géographiquement dans le premier cas ou d'être limitées à une offre constituée et peu informative pour d'autres usages que ce à quoi la destine le tour opérateur dans le second cas. En définitive, elles ne sont pas concurrentielles avec la production éditoriale marchande.Les objets principaux des guides de voyage sont : La plus ancienne et la plus fortement établie est celle consacrée à la restauration et à l'hôtellerie (avec par exemple en France les guides : Michelin « rouge », Gault-Millau, Bottin Gourmand ; Touring Editore, Slow Food Editore, Le Guide de l'Expresso, La Guida Michelin en Italie ; Der Michelin Führer en Allemagne et en Autriche ; les guides Michelin Benelux, Europe main cities, Espana-Portugal, Great Britain & Ireland, London, Portugal, Suisse/Schweiz/Svizzera).Les guides de tourisme sont utilisés traditionnellement pendant le voyage, d'où pour beaucoup une taille adaptable à la boîte à gants de l'automobile. Un certain nombre de guides (les mêmes que les précédents ou d'autres) ont une fonction préparatoire au voyage, ou encore une fonction de souvenir. DansLa plupart des éditeurs de guides touristiques amorcent en ce moment un virage vers les supports électroniques en ligne dans la dynamique du e-tourisme, tout en n'abandonnant pas le papier qui a pour lui d'être itinérant, quoique pesant, et qui présente de plus l'inconvénient majeur d'être obsolète quasiment dès sa parution, notamment pour les renseignements pratiques. Le guide sur support électronique, notamment en ligne, a pour lui d'être mis à jour instantanément. Il est particulièrement adapté à un public de niche, qui prépare activement son voyage, qui recherche des informations fiables et qui dispose d'outils informatiques et télématiques. L'édition de guides touristiques s'intéresse de plus en plus aux nouveaux supports, notamment mobiles. Un bel exemple sur support électronique est proposé par l'éditeur australien Lonely Planet (qui édite encore principalement sur support papier) dont le site francophone reçoit par mois en 2001, (il faut préciser que son site anglophone reçoit prèsDans le tourisme, les magazines sont nombreux. Chaque éditeur choisit un axe éditorial spécifique. Il peut s'agir des voyages et de la photographie, de la nature ou encore de la culture et de l'histoire. Depuis quelques années, l'axe régional a été également exploré avec des magazines dédiés à certaines régions françaises. On ne peut négliger les revues thématiques qui consacrent des rubriques entières aux voyages comme cela est le cas pour des magazinesEntre le premier janvier 2013 et le 31 décembre 2015, 3121 touristes ont été reporté tués par la presse. Les principales activité recensées dans ces accidents sont les activités nautiques (1035 tués); le transport non aérien (875 tués); le transport aérien (490 tués) ou les activités de terrain (167 tués).
Le mot tourisme désigne le fait de voyager pour son plaisir hors de ses lieux de vie habituels, et d'y résider de façon temporaire, mais aussi un secteur économique qui comprend en plus de l'hôtellerie l'ensemble des activités liées à la satisfaction et aux déplacements des touristes.
xwikis
Étymologiquement, le mot français "philosophie" dérive du grec ancien φιλοσοφία, composé de φιλεῖν, « aimer » et σοφία, « la sagesse, le savoir », c'est-à-dire littéralement : "l’amour de la sagesse" ou "l’amour du savoir". Selon le philosophe Roger-Pol Droit, À noter que le mot φιλοσοφία fait effectivement partie du lexique du grec ancien, où l'on trouve des usages attestés dès l'Antiquité. Il s’agit donc d’une sémantique de construction, comme pour le terme "utopie", néologisme couramment forgé dans la langue française. Les termes φιλόσοφος ("philosophos") et φιλοσοφεῖν ("philosophein") apparaissent en quelques occurrences chez les penseurs présocratiques Héraclite, Antiphon, Gorgias et Pythagore, mais aussi chez d'autres penseurs comme Thucydide ou Hérodote, contemporains de Socrate. En la matière, un écho d’Héraclide du Pont révélerait que le premierLa philosophie s’est comprise très tôt comme une manière de vivre et non pas uniquement comme une réflexion théorique. Dit autrement : être philosophe, c’est aussi vivre et agir d’une certaine façon et non pas seulement se confronter à des questions abstraites. L’étymologie du terme « philosophie » indique bien que le philosophe est celui qui tend vers la sagesse, qui cherche à vivre comme il le faut et plus particulièrement qui recherche le bonheur. La philosophie, entendue comme mode de vie, met l'accent sur la mise en application dans sa propre vie des résultats de la réflexion philosophique. L’idée que la philosophie est une manière de vivre a aussi pu amener certains philosophes à imaginer que, pour cette raison, ils devaient guider les autres et les aider à mener correctement leurs existences. La philosophie, d’éthique personnelle, pouvait se faire projet collectif voire politique. Ces ambitions « collectives » de la philosophie prennent différentes formes. Une véritable communauté de vie pouvait se constituer autour d'un philosophe. Ceci explique en partie la naissance dans l’Antiquité d’écoles philosophiques (autour d’Épicure, de Platon ou d’Aristote par exemple). Depuis les présocratiques et surtout à partir de Socrate, toute une tradition a défendu cette conception de la philosophie comme un mode de vie. Citons entre autres les Stoïciens, Platon, Aristote, Épicure, Descartes, Spinoza, Sartre ou Russell. Mais ces derniers sont loin d’exclure l’idée que le philosophe s’intéresse à des problèmes théoriques. La « sagesse », ou plus exactement la "sophia", que veut posséder le philosophe est aussi un savoir et une connaissance. Le philosophe, dans la lignée de la tradition fondée par Socrate, sait comment il doit vivre ; il peut justifier ses choix et son mode de vie. Socrate par exemple, dans les dialogues présocratiques de Platon, exige de ses interlocuteurs qu’ils soient à même de donner le "logos" de leur jugementLa philosophie contemporaine occidentale, issue d’une tradition multiple, se présente sous des formes variées : tradition herméneutique et postkantienne en Allemagne, philosophie analytique dans les pays anglophones et dans une grande partie de l’Europe, tradition phénoménologique en Europe continentale. Certains remettent fortement en cause la tradition philosophique et ses présupposés telle la philosophie féministe, la déconstruction de Derrida ou de Heidegger. Ces courants forment autant de pratiques différentes et d'opinions divergentes sur la nature de la philosophie, qui interdisent de donner une définition unique acceptable par tous. S'il y a aujourd'hui plusieurs traditions philosophiques, aucune ne peut prétendre résumer l'activité philosophique à elle seule, ni décrire l'activité philosophique de façon consensuelle. Les difficultés à définir la philosophie sont en outre de nature "épistémologique", car il est difficile de délimiter rigoureusement méthodes, thèmes et objets de la philosophie. Historiquement, elle aOn peut dans une première approche, délimiter en creux un certain nombre de méthodes et de principes heuristiques qui caractérisent au moins en partie la philosophie.D'une part la philosophie ne recourt pas à la méthode expérimentale. La philosophie, en effet, à la différence de la physique, de la chimie ou de la biologie, n'a jamais vraiment intégré le processus d’expérimentation dans son outillage heuristique. Ceci est évident pour la philosophie antique et médiévale qui ne connaissait pas l'expérimentation. Même les grands philosophes qui se sont illustrés comme scientifiques (Descartes, Pascal, Leibniz pour ne citer qu'eux) ont toujours distingué leur travail dans le domaine scientifique et dans le domaine philosophique. Certains philosophes comme Kant ou Wittgenstein ont même vu dans l’absence d’expérimentation en philosophie une caractéristique épistémologique essentielle de cette discipline et ont refusé toute confusion avec les sciencesMalgré les difficultés que comporte cette entreprise, il est possible de distinguer certaines grandes caractéristiques positives de la méthode philosophique. La philosophie se comprend comme un travail critique. C'est une de ses définitions les plus courantes. Cette critique n’est cependant jamais purement et simplement négative. Elle a pour but de créer de nouvelles certitudes et de corriger les fausses évidences, les illusions et erreurs du sens commun ou de la philosophie elle-même. Socrate, par exemple, interrogeait ses contemporains et les sophistes afin de leur montrer leurs contradictions et leur incapacité à justifier ce qui leur semblait évident. Descartes est à l'époque moderne le meilleur représentant de cette conception de la philosophie, car, selon lui, seul un doute radical et général pouvait être le fondement d'une pensée parfaitement rigoureuse et indubitable. La philosophie est souvent caractérisée comme un travail sur les concepts et notions, un travail de création de concepts permettant de comprendre le réel, de distinguer les objets les uns des autres et de les analyser, mais aussi un travail d'analyse des concepts et de leurs ambiguïtés. Elle a très tôt reconnu les problèmes que posent les ambiguïtés du langage. De nos jours la philosophie analytique donne elle aussi une grande place à ce problème. En outre, à la différence des sciences,La philosophie est loin d’être un domaine de connaissances bien délimité au sens où les problèmes auxquels elle se confronte sont d’une extrême variété. Elle étudie de nombreux objets, certains proches, c'est pourquoi sa subdivision en différentes branches est problématique et relève de l'arbitraire. De plus, si des pans entiers de la philosophie sont apparus au, certains domaines se sont détachés très nettement de la philosophie à l'époque moderne. La physique, par exemple, était considérée comme appartenant àSi la philosophie a une longue histoire, il convient de distinguer la pratique de la philosophie de l'étude simple des doctrines passées. Parfois atténuée, voire effacée, cette distinction est pourtant cruciale. Nombre de penseurs en appellent aux philosophies antérieures pour les appuyer, s'en inspirer, ou encore les critiquer : il y a là un appel à l'histoire et à un fond culturel commun, mais ça ne fait pas de la philosophie une discipline historique. La pratique philosophique n'étant pas uniquement une glose sur la philosophie des époques précédentes, il faut la distinguer de l'histoire de la philosophie. "L’histoire de la philosophie" consiste à tenter de reconstruire, de comprendre, d’interpréter, voire de critiquer, les positions et thèses de penseurs comme Platon, Thomas d’Aquin, Hegel, etc. Il s'agit moins d'évaluer la pertinence philosophique ou l'intérêt actuel de ces philosophes que de savoir ce qu'ils ont vraiment dit, et de restituer leurs pensées dans leurs contextes d'apparition. Ce travail d'étude porte également sur des courants philosophiques (le scepticisme antique, le néokantisme), ou des questions débattues au cours de l’histoire (le dualisme de l’âme et du corps, la querelle des universaux) appartiennent elles aussi à l’histoire de la philosophie.La philosophie grecque a connu trois grandes périodes : La philosophie grecque se caractérise par le fait qu'elle est dominée par l'éthique, par la question « comment bien vivre? » et plus particulièrement par celles de la vertu et du bonheur. L'importance de ce thème apparaît évidente à la lecture des dialogues de Platon, des textes d'Aristote, des Stoïciens ou d'Épicure. La conséquence de cette tendance est que la philosophie était comprise comme une façon de vivre et non pas uniquement comme un discours théorique (même si ce dernier ne saurait être ignoré, naturellement) ce qui est particulièrement frappant chez un Socrate, un Diogène ou chez les Stoïciens. Les deux autres grands domaines de la recherche des penseurs antiques sont d'une part la cosmologie et la physique (ce qu'on a longtemps nommé "philosophie naturelle"), d'autre part la théorie de la connaissance parfois liée à la logique. Ainsi, la question fondamentale qui occupait les philosophes présocratiques était la question du principe de toute chose. Au travers d'un mélange d'observations empiriques et de spéculations, ils tentèrent de comprendre la nature et ses phénomènes. Ainsi, le premier philosophe connu, Thalès,Les Romains, dominant petit à petit le contour de la mer Méditerranée (la "Mare nostrum"), s'approprient ensuite l'héritage grec des différents courants philosophiques. Certains auteurs romains nous ont légué à travers le temps des principes et concepts de philosophie grecque qui aujourd'hui manquent par faute de textes originaux ou de copies : c'est le cas de Lucrèce (Ier siècle av. J.-C.), avec son œuvre poétique "De rerum natura", explicitant l'épicurisme (seules trois lettres d'Épicure nous sont parvenues), malgré le rejet de la poésie par les Épicuriens. Il est en effet probable qu'il ait eu sous les yeux des traités aujourd'hui perdus. Nous devons probablement à Cicéron, philosophe de première importance, d'avoir sauvé le poème de Lucrèce. Premier écrivain ayant rédigé des ouvrages philosophiques en latin, Cicéron ne peut être rattaché à aucune école, faisant preuve d'éclectisme, mais il a toutefois largement contribué à répandre la philosophie stoïcienne et épicurienne dans le monde romain. Les Stoïciens sont représentés par deux grands hommes de pouvoirLa philosophie médiévale d'Occident et du Proche-Orient sont issues du même courant. Ce sont les penseurs musulmans et chrétiens, puis entre musulmans eux-mêmes, qui en cherchant des arguments convaincants vont faire appel à la philosophie antique. Du Moyen-Orient, principalement musulman, vont naître plusieurs écoles de pensée et de méthode qui seront reprises plus tard en Occident, alors que les sociétés musulmanes finiront par étouffer les idées originales nées durant cette période. La philosophie médiévale en Occident est caractérisée par la rencontre du Christianisme et de la philosophie. La philosophie médiévale est une philosophie chrétienne, à la fois dans son intention et par ses représentants qui sont presque tous des clercs. Un thème fondamental constant est à partir de là aussi le rapport entre la foi et la raison. Mais ceci ne signifie pas que la pensée se manifeste désormais selon une unité dogmatique. Le conflit des directions philosophiques entre elles d'une part et les condamnations de thèses par les autorités ecclésiastiques d'autre part, montrent bien que la pensée se déploie sur des voies très autonomes et divergentes. Malgré sa grande diversité et sa longue période de développement, elle se manifeste cependant une certaine unité dans la présentation des questions philosophiques : discussion des auteurs du passé, confrontation avec les Saintes Écritures et les textes des Pères de l'Église, afin d'examiner toutes les facettes d'un même problème, dont à la fin l'auteur proposait la résolution. La première période coïncide avec l'Antiquité : la Patristique (du au environ) est caractérisée par les efforts des Pères de l'Église ("patres") pour édifier la doctrinePar « philosophie moderne », il faut entendre les courants philosophiques qui se développent au cours de ce que les historiens appellent l'Époque moderne (1492-1789). Globalement, on peut distinguer la philosophie humaniste de la Renaissance et celle des Lumières.L’Humanisme est un courant de pensée qui apparaît pendant la Renaissance. Il consiste à valoriser l’Humanité, à la placer au centre de son univers. Dans cette optique, le principe de base de cette théorie est que la personne humaine est en possession de capacités intellectuelles potentiellement illimitées. La quête du savoir et la maîtrise des diverses disciplines sont nécessaires au bon usage de ces facultés. Il prône la vulgarisation de tous les savoirs, même religieux : pour certains humanistes, la parole divine doit être accessible à toute personne, quelles que soient ses origines, sa langueElle est, d'une part, l'héritière de la pensée antique en bien des points. Descartes, Spinoza, Leibniz ou Hume (pour ne citer qu'eux). et leur ont notamment emprunté leur vocabulaire. Mais d'autre part, les Modernes ont souvent compris leur propre travail comme une de ce que les philosophes de l'Antiquité avaient déjà accompli, ce qui les conduisit parfois à s'opposer à ces derniers. Cette tentative « d'améliorer » la philosophie antique apparaît clairement dans la philosophie politique, une des grandes caractéristiques de la philosophie moderne étant en effet d'avoir renouvelé celle-ci. Machiavel ou Hobbes ont tous deux voulu fonder la philosophie politique comme science, en la séparant nettement de l'éthique (alors que cette dernière et la politique étaient inséparables chez les trois grands penseurs de l’Antiquité qu'étaient Socrate, Platon et Aristote). En outre, aussi bien Spinoza et Hobbes que Machiavel ont cherché à fonder la philosophie politique sur l'étude de la personne humaine telle qu'elle "est" — et non telle qu'elle "devrait être" comme le faisaient les Anciens. Mais la philosophie moderne, au sens où nous l'avons délimitée, comprend aussi, dès la fin du, la philosophie des Lumières et le libéralisme : Locke, Rousseau, Diderot, Voltaire entre autres. Le mot « philosophe » y prend le sens nouveau de « membre du parti philosophique » au fur et à mesure que se dessine une philosophie politique qui privilégie la démocratie, la tolérance et la souveraineté du peuple, que ceLa philosophie du se divise en des directions si différentes qu'elles ne se laissent pas ramener à un seul et unique concept. Elle comprend la philosophie romantique, l'Idéalisme allemand, le positivisme, la pensée socialiste et matérialiste de Marx, Feuerbach ou Proudhon, le pragmatisme ainsi que nombre de penseurs difficiles à classer tels Schopenhauer, Nietzsche et Kierkegaard ou encore plus tard Chestov. Une partie de la philosophie et surtout de la philosophie allemande se comprend comme un dialogue critique mais aussi constructif avec la pensée kantienne : ce fut le cas de l'Idéalisme allemand, de Schopenhauer et de Nietzsche. Le but avoué étant de reprendre ce qui semblait le plus intéressant dans la philosophie de Kant et de la débarrasser de ce qui semblait être des restes d'une métaphysique dépassée. Les courants philosophiques marqués par l'empirisme ont pris une autre direction comme le positivisme de Comte qui voulait dépasser la pensée métaphysique uniquement au moyen des sciences empiriques c'est-à-dire sans recourir aux explications métaphysiques. En Angleterre Bentham et Mill développèrent l'utilitarismeLa philosophie du se caractérise elle aussi par une importante variété de doctrines, dominées globalement par deux grandes familles de pensée : la philosophie analytique et la phénoménologie. La philosophie analytique, philosophie dominante de la seconde moitié de ce siècle, qui prend racines en Allemagne avec Frege, en Autriche avec Moritz Schlick et Rudolf Carnap, au Royaume-Uni avec Russell et Whitehead, et en Pologne avec l'École de Lvov-Varsovie (Tarski, Kotarbiński, Leśniewski, Łukasiewicz), est majoritaire dans l'ensemble des pays anglophones et dans une grande partie de l'Europe (Autriche, Allemagne, Pologne, Suisse, pays scandinaves, etc.). Elle se caractérise par un usage important de la logique mathématique et plus généralement par une grande attention portée au langage comme source d'illusions et de paralogismes. Elle a abouti à une reprise d'ensemble de nombreux problèmes philosophiques traditionnels tels que la nature de l'esprit et ses rapports au corps (voir philosophie de l'esprit), les problèmes relatifs à la nature de l'action (voir philosophie de l'action), l'essence et la fonction du langage naturel et formel (cf. la philosophie du langage et la philosophie de la logique). Ses représentants les plus importants sont Russell, Frege, Whitehead, Wittgenstein, Tarski, Leśniewski, Łukasiewicz, Ajdukiewicz, Davidson, Kenny, Austin, Searle, Ryle, Hintikka, Vuillemin. L'autre grande tradition philosophique du est la phénoménologie, fondée par Husserl, dont les successeurs sont Heidegger, Sartre, Merleau-Ponty, Ingarden, Stein, Patočka, Ricœur ou Levinas. Pour Husserl, la phénoménologie est la science des phénomènes, c'est-à-dire la science des « vécus » de la conscience, s'opposant en cela au réalisme naïf (ou « attitude naturelle ») qui prétend faire la science des objets du monde extérieur. Il s'agit d'une science apriorique, ou « eidétique », c'est-à-dire d'une science qui décrit les "essences" des vécus de la conscience. Elle aura ainsi pour objets, entre autres, la connaissance (Husserl), l'imagination (Sartre), la perception (Merleau-Ponty), l'existence humaine (Heidegger), la volonté (Ricœur). Le début du marque également le début de la psychanalyse, fondée par Freud, qui apporte une conception nouvelle de l'homme, contredisant la représentation traditionnelle de la conscience humaine : la psychanalyse fournit en effet un modèle théorique du psychisme humain impliquant la domination de l'inconscient sur la conscience, ainsi qu'une méthode d'investigation de ce dernier. Freud dit lui-même de sa discipline qu'elle constitue la troisième blessure narcissique de l'humanité. Même si Freud était un médecinLa philosophie chinoise diffère radicalement de la philosophie grecque, tellement que l'on peut s'interroger sur l'association des termes de l'expression « philosophie chinoise ». Dès l'origine les chemins divergent, se rejoignant seulement au : les formes linguistiques sont très différentes (la linguistique chinoise n'est pas basée sur le "logos", au contraire du grec ancien) ; la pensée chinoise s'appuie plus volontiers sur l'analyse que sur la synthèse ; sur la résolution des problèmes que sur la définition des concepts ; sur l'exemplarité que sur la démonstration ; sur la fluidité de l'esprit que sur la solidité des arguments. La pensée chinoise est donc intéressante dans le sens où elle nous permet de découvrir des entrées originales, inconnues pour la philosophie occidentale.Le confucianisme est la voie principale de la philosophie chinoise et n'a connu que de rares mises à l'écart. Toute éducation se fondait en premier lieu sur les livres formant le « Canon confucianiste » : dont le "Shi Jing" ou "Livre des Poèmes", le "Yi Jing" ou "Livre des Mutations", les "Annales de Lu", les "Entretiens de Confucius" et le livre de "Mencius". Presque toute la production savante en Chine peut s'interpréter commeLe néo-confucianisme désigne un développement tardif et éloigné du confucianisme, mais possède des racines autres que celle du confucianisme. Il commença son développement sous la dynastie des Song et parvint à sa plus grande expansion sous celle des Ming. On en retrouveLe taoïsme, une religion, une philosophie? Le terme « taoïsme » recouvre des textes, des auteurs, des croyances et pratiques, et même des phénomènes historiques qui ont pu se réclamer les uns des autres, répartis sur ans d’histoire. La catégorie « Taoïsme » est née sous la dynastie Han (200 av. J.-C. à 200), bien après la rédaction des premiers textes, du besoin de classer les fonds des bibliothèques princières et impériales. "Dào jiā" () ou "dào jiào" (), « école taoïste », distingue à l’époque une des écoles philosophiques de la période des Royaumes combattants (500 av. J.-C. à 220 av. J.-C.). École est ici à entendre dans son sens grec, voire pythagoricien, d’une communauté de pensée s’adonnant aussi à une vie philosophique ; n'y voir qu’un courant intellectuel est un anachronisme moderne. Mais cette école ne fut sans doute que virtuelle, car ses auteurs, dans la mesure où ils ont vraiment existé, ne se connaissaient pas forcément, et certains textes sont attribués à"Xuanxue" , "Hsuan Hsue" ou néo-taoïsme désigne un courant de pensée philosophique et culturel chinois. Celui-ci s'est créé lors du démantèlement de l'empire Han, au de notre ère. Les philosophes de ce courant ont développé une interprétation métaphysique cohérente du Dao De Jing, du Zhuangzi et du Yi Jing, dans laquelle le "dao",Sous cette désignation, on retrouve quantité de doctrines, avec, entre autres :La philosophie japonaise (en japonais , "Nihon tetsugaku") se situe dans le prolongement de la philosophie chinoise, le plus généralement par l'importation, "via" la Corée, de la culture chinoise durant le Moyen Âge. Le Japon s'est en effet approprié le Bouddhisme et le Confucianisme. La religion traditionnelle nippone, le Shintoïsme,On définit classiquement deux sortes de philosophies indiennes : les philosophies "āstika" (आस्तिक en devanāgarī), qui suivent les "Veda" (hindouisme...) et les philosophies "nāstika" (नास्तिक) que sont le jaïnisme, le bouddhisme et le "Cārvāka", qui les rejettent. Pour ces dernières, on se reportera aux articles qui les concernent.On distingue traditionnellement six écoles orthodoxes que sont le Mīmāṃsā, le Nyāya, le Sāṃkhya, le Vaiśeṣika, le Vedānta et le Yoga de Patañjali. Ces écoles sont aussi connues sous le terme sanskrit "darśana" qui signifie « point de vue doctrinal ».On distingue traditionnellement trois écoles non orthodoxes que sont le jaïnisme, le bouddhisme et le Cārvāka.Il existe d'antiques relations entre les "Veda" indiennes et les "Avesta" mèdes. Les deux principales familles philosophiques traditionnelles indo-iraniennes étaient déterminées par deux différences fondamentales : dans leurs implications sur la position de l'être humain dansS'il faut dire que l'expression a posé un problème du même acabit que celui constaté avec l'expression « philosophie chinoise », il faut reconnaître que le débat sur la philosophie africaine a beaucoup évolué ces dernières décennies. Le terme de « philosophie africaine » est donc utilisé de différentes manières par différents philosophes. Bien qu'une majorité de philosophes africains étudient dans des domaines tels que la métaphysique, l'épistémologie, la morale et la philosophie politique, une question qui accapare nombre d'entre eux se situe sur la nature de la philosophie africaine elle-même. Un des points centraux du désaccord est sur le terme « africain » : désigne-t-il le contenu de la philosophie ou l'identité des philosophes? La philosophie africaine puise à la fois dans l'héritage traditionnel du continent, notamment dans l'enseignement de l'Égypte pharaonique, et dans l’héritage de la philosophie occidentale.
La philosophie, du grec ancien "φιλοσοφία" (composé de "φιλεῖν", "philein" : « aimer » ; et de "σοφία", "sophia" : « sagesse » ou « savoir »), signifiant littéralement « amour de la sagesse », est une démarche de réflexion critique et de questionnement sur le monde, la connaissance et l'existence humaine. Elle existe depuis l'Antiquité en Occident et en Orient, à travers la figure du philosophe, non seulement en tant qu'activité rationnelle mais aussi comme mode de vie. L'histoire de la philosophie permet d'appréhender son évolution.
xwikis
Le terme biologie est formé par la composition des deux mots grecs "bios" (βιος) en français « vie » et "logos" (λογος) qui signifie « discours, parole ». Ce néologisme est créé à la fin du et au début du et de façon indépendante : Tout ce qui est généralement commun aux végétaux et aux animaux comme toutes les facultés qui sont propres à chacun de ces êtres sans exception, doit constituer l'unique et vaste objet d'une science particulière qui n'est pas encore fondée, qui n'a même pas de nom, et à laquelle je donnerai le nom de biologie. Chez Lamarck on trouve, pour la première fois, une conception de l'être vivant qui reconnaît son originalité comparativement aux objets inanimés sans pour autant la faire déroger aux lois de la physique, contrairement à ce qu'avaient tendance à faire les vitalistes et les fixistes. Le même Lamarck, bien avant de donner des cours de biologie en 1819, sépare dans son ouvrage "Hydrogéologie", paru également en 1802, la physique terrestre en trois parties : Les savants allemands, à l'appel de Treviranus, lancent les méticuleux inventaires de la flore et de la faune, réalisés par ceux qui, respectivement, se nommeront botanistes et zoologistes. Vers le milieu du, un intérêt pour les fonctions du vivant oriente la recherche biologique vers la physiologie.L'objet de la biologie est l'être vivant et la vie dans son ensemble et son fonctionnement. Mais qu'est-ce qu'un être vivant? En quoi se différencie-t-il des objets inanimés et des machines? Et qu'est-ce que la vie? À ces questions, les biologistes n'ont actuellement pas de réponse précise qui fasse l'unanimité dans la communauté scientifique. Certains d'entre eux, et non des moindres, pensent même que ces questions sont sans objet. Ainsi Claude Bernard, dans la première des "Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux" (1878), déclare explicitement que l'on n'a pas à définir a priori la notion de vie, car la biologie doit être une science expérimentale ; ce serait là une définition a priori et. En conséquence, et. La biologie semble être restée fidèle à cette conception, puisqu'elle continue à ne pas précisément définir la notion de vie pour se limiter à l'analyse de « choses naturelles » ou parfois en partie créées par l'humain (via la sélection puis le génie génétique) que le sens commun lui désigne comme vivants. Cette analyse permet de mettre en évidence un certain nombre de caractères communs à ces objets d'étude, et ainsi d'appliquer ce qualificatif de vivant à d'autres objets présentant les mêmes caractères. Cette méthode, exclusivement analytique et expérimentale, a considérablement renforcé l'efficacité et la scientificité du travail du biologiste, comparativement aux conceptions souvent spéculatives d'avant Claude Bernard. Elle a cependant amené une « physicalisation » telle que l'on a parfois l'impression que, pour rendre scientifique la biologie, il a fallu nier toute spécificité à son objet. De fait, certains biologistes en viennent à déclarer que, ou plus exactement qu'elle serait un processus physico-chimique parmi d'autres. Le premier d’entre eux est probablement Albert Szent-Györgyi, prix Nobel de médecine en 1937, qui a déclaré : Le plus connu est François Jacob : Plus récemment, c'est aussi la position d'Henri Atlan : Cette dernière citation illustre la confusion entre l"'étude de la vie" et celle de la "matière des êtres vivants", où transparaît la tentation de réduire la biologie à la seule biologie moléculaire en niant au vivant, grâce au nivellement que permet la chimie, toute spécificité qui ne soit pas une simple différence physico-chimique. Autrement dit, il est tentant, en réduisant la biologie à la biologie moléculaire, de ne différencier le vivant de l'inanimé que par les critères par lesquels la biologie moléculaire se différencie du reste de la chimie. Cette négation de la spécificité du vivant vient d'une conception où l'on n'admet aucune discontinuité entre vivant et inanimé pour conserver un univers cohérent et unifié. On y admet donc une gradation progressive entre l'inanimé et le vivant, tant dans les formes actuelles (les virus, censés être à la limite du vivant et de l'inanimé) que dans l'apparition de la vie sur Terre (cette apparition y est comprise comme une phase prébiotique progressive sans discontinuité marquée). En fait, cette négation de la spécificité du vivant, qui se veut matérialiste, confond simplement le matérialisme épistémologique et les sciences de la matière. Les sciences, y compris la biologie, se doivent d'être matérialistes, personne ne dira le contraire. Mais doivent-elles pour autant n'être que des sciences de la matière? La physique est depuis longtemps la science modèle pour toutes les autres, à tel point qu'on a fini par la confondre avec l'idéal du matérialisme épistémologique. Parler de la notion de vie, de la spécificité de l'être vivant, c'est, en biologie, s'exposer à se voir qualifier de vitaliste, voire d'animiste, car qui s'écarte un peu de la physico-chimie est censé sortir du matérialisme épistémologique. Si bien qu'aujourd'hui on a l'impression que ce que vise la biologie n'est pas tant l'étude de la vie (ou de l'être vivant dans ce qu'il a de spécifique relativement à l'objet inanimé) que sa pure et simple négation, le nivellement et l'unification de l'univers par la physico-chimie. Comme si, pour unifier, il valait mieux nier les solutions de continuité que les comprendre. Une autre approche est plus "systémique" ainsi résumée par Jacob (1970) : ; c'est une des base de l'écologie scientifique et de son « approche écosystémique ». Le problème de la spécificité de l'être vivant n'est donc pas encore réglé par la biologie moderne qui ainsi n'a donc aucune définition claire et explicite de son objet. Ce problème est seulement occulté de diverses manières, qui toutes tendent à ramener, faute de mieux, la conception de Descartes de l'être vivant comme plus ou moins semblable à une machine très complexe. Rares sont les biologistes qui s'inscrivent en faux contre cette approximation en avançant une conception du vivant plus précise et proche de la réalité. Un certain nombre de travaux en biologie théorique visent cependant à dépasser ces limitations, tels que ceux de Francisco Varela, Robert Rosen ou Stuart Kauffman. L'enjeu est alors souvent la différence entre biologie et physique.La première théorie de l'évolution du vivant a été avancée par Jean-Baptiste Lamarck dans son ouvrage "Philosophie Zoologique" en 1809. Comme son titre l'indique, elle se présente sous la forme d'un système philosophique, bien qu'elle pose les bases essentielles pour la compréhension des êtres vivants et de leur évolution. Cinquante ans plus tard, en 1859, avec la parution de "L'Origine des espèces", Charles Darwin propose une explication scientifique de l'évolution, sous la forme d'un mécanisme simple, avec le principe de sélection naturelle. Avec le temps, la théorie originelle de Darwin a été affinée avec les résultats des expériences et observations que les biologistes ont effectuées. La théorie faisant actuellement consensus est celle de la théorie synthétique de l'évolution, appelée aussi néo-darwinisme. Le caractère évolutionniste de la vie a pendant très longtemps été discuté et est même encore mis en doute par certaines personnes en dehors de la communauté scientifique, mais aucune de ces objections à la théorie de l'évolution n'est scientifiquement fondée. La communauté scientifique a depuis très largement admis l'évolutionnisme de la vie comme un fait démontré par l'expérience et l'observation à maintes reprises notamment par :Si la biologie est si vaste, c'est en raison de l'extrême diversité du vivant qui se présente sous tellement de formes que l'on peut avoir du mal à discerner des points communs. Une hiérarchisation du vivant a tout de même été réalisée, qui est le domaine de la systématique et de la taxinomie. Tous les êtres vivants sont classés en trois domaines :Bien qu'étant différentes, toutes les formes de vie partagent des caractères communs. Ce qui porte à croire que la vie sur Terre a pour origine une seule et même forme de vie, désignée sous l'acronyme de LUCA (pour l'), qui serait apparue sur Terre il y a au moins 2,5 milliards d'années. Les principaux caractères universels du vivant sont :En raison du caractère extrêmement vaste du sujet, l'étude de la biologie nécessite un morcellement en domaines d'études. Une approche un peu « réductrice » mais ayant l'avantage de clarifier les thèmes consiste à définir des niveaux d'organisation. Dans un souci de parvenir à une compréhension plus globale de la biologie, des ponts se sont naturellement créés entre les différentes disciplines. Permet l'exploration de différents sujets originaux comme la biologie moléculaire, la biotechnologie, la toxicologie, la science biomédicale, etc.Les domaines étudiant la structure du vivant sont à l'échelle de l'atome pour la biologie moléculaire et de la cellule pour la biologie cellulaire. Le domaine de la biologie moléculaire étudie les composés de bases du vivant, comme l'ADN et les protéines. Pendant longtemps, on a cru que les lois de la chimie régissant le vivant étaient différentes de celles pour la matière inanimée. Mais depuis la synthèse de nombreux composés organiques, il est clairement admis que les lois chimiques sont les mêmes que pour la matière inorganique. Aucune force vitale n'insuffle la vie à la matière comme on le pensait avant avec la théorie vitaliste. La mise au point du microscope avec lequel Robert Hooke a découvert les cellules en 1665 a marqué la naissance de la biologie cellulaire et celle d'un monde alors insoupçonné. Cette découverte et les nombreuses qui ont suivi ont permis d'expliquer certains phénomènes comme ce que l'on qualifiait à l'époque de génération spontanée. C'est à cette échelle que l'on rencontre les premiers organismes vivants.Prise au sens structurelle et fonctionnelle, la biologie recouvre également l'ensemble des disciplines, classiques et modernes, qui étudient des structures comme les tissus avec l'histologie ou les organes avec l'anatomie. La physiologie quant à elle étudie les principes mécaniques, physiques et biochimiques des organismes vivants et est séparée en deux branches : la physiologie végétale et la physiologie animale.L'extrême diversité du vivant n'empêche en rien le groupement en entités ou taxons (Taxinomie), leurs relations les uns par rapport aux autres et leur classement (systématique).Les interactions des êtres vivants entre eux et les liens les unissant avec leur environnement est le domaine de l'écologie. L'éthologie quant à elle étudie le comportement animal dans le milieu naturel.Les Sciences de la Vie comprennent de nombreuses disciplines et sous-disciplines plus ou moins reliées entre elles et parfois imbriquées. Ces disciplines sont organisées soit par niveau d'observation, soit par approche méthodologique, soit par type d'organisme étudié.Les applications des découvertes en biologie sont nombreuses et très présentes dans le quotidien de l'être humain. Les avancées importantes de ces dernières décennies en médecine ont principalement pour origine les découvertes sur le fonctionnement du corps humain. Le domaine pharmaceutique profite également des avancées en chimie organique. Plus récemment, la découverte de la structure de l'ADN et une meilleure compréhension de l'hérédité ont permis de modifier finement les êtres vivants et trouvent des applications dans les domaines agricole et agro-alimentaire. La biologie peut également avoir des applications en criminologie. Dans la Revue française de criminologie et de droit pénal, Laurent Lemasson présente trois corrélations entre biologie et criminalité mises en évidence par différents chercheurs: la présence des gènes MAOA et HTR2B chez une part importante de criminels ; un fonctionnement anormal des régions frontales et temporales du cerveau ; enfin un état de sous-excitation physiologique chez les criminels multirécidivistes.Depuis le développement de la biologie moléculaire et de la physiologie cellulaire dans la seconde partie du, les progrès de la biologie sont devenus quotidiens et ont un impact énorme sur la société : compréhension des mécanismes moléculaires de plusieurs centaines de maladies, amélioration des traitements contre le cancer, compréhension des mécanismes neurologiques, amélioration des traitements des maladies mentales et dépistage de tares génétiques "in utero". Une meilleure compréhension de l'évolution moléculaire, substrat physique à l'évolution des espèces, permet de transposer aux humains les découvertes faites sur les animaux, y compris des vers comme "C. elegans" ou la mouche drosophile, dont on a montré que les mécanismes moléculaires de segmentation du corps au cours de l'embryogenèse sont identiques à ceux de l'humain, et, de manière générale, à tout le vivant métazoaire. Toutefois, les progrès très rapides de la biologie suscitent parfois des interrogations philosophiques, de vives inquiétudes, voire une forte opposition de certaines associations ou organisations non gouvernementales (ONG). Citons notamment : le clonage, les organismes génétiquement modifiés (OGM), le séquençage, et les problèmes de propriété intellectuelle qui en découlent.
La biologie (du grec "bios" « la vie » et "logos", « discours ») est la science du vivant. Elle recouvre une partie des sciences de la nature et de l'histoire naturelle des êtres vivants.
xwikis
Trois étymologies sont fréquemment citées, maisL'art d'employer ou de trier, préparer, purifier, de transformer les substances séchées mises sous forme de poudres, qu'elles proviennent du désert ou de vallées sèches, a donné naissance à des codifications savantes. Initialement d'abord essentiellement minérales. Mais les plantes éphémères et les arbres pérennes du désert, et leurs extraits gommeux ou liquides nécessaires aux onguents, ont été très vite assimilés à celles-ci, par reconnaissance de l'influence des terres et des roches. Outre la connaissance du cycle de l'eau et des transports sédimentaires, la maîtrise progressive des métaux et des terres, les Égyptiens de l'Antiquité connaissent beaucoup de choses. Parmi elles, le plâtre, le verre, la potasse, les vernis, le papier (papyrus durci à l'amidon), l'encens, une vaste gamme de couleurs minérales ou pigments, de remèdes et de produits cosmétiques Plus encore que les huiles à onction ou les bains d'eaux ou de boues relaxants ou guérisseurs, la chimie se présente comme un savoir sacré qui permet la survie. Par exemple par l'art sophistiqué d'embaumer ou par le placement des corps des plus humbles dans un endroit sec. L"'artAu cours des siècles, ce savoir empirique oscille entre art sacré et pratique profane. Il s'est préservé comme l'atteste le vocable "chimia" des scolastiques en 1356, mais savoir et savoir-faire sont souvent segmentés à l'extrême. Parfois, il est amélioré dans le monde paysan, artisan ou minier avant de devenir une science expérimentale, la chimie, au cours des troisième et quatrième décennies du. Au même titre que la physique, le prodigieux essor de la pensée et de la modélisation mécanistes, font naître la chimie sous forme de science expérimentale et descriptive. Riche de promesses, la chimie reste essentiellement qualitative et bute sur le retourL'étude de la matière a naturellement conduit les premiers chimistes des années 1620-1650 à modéliser sa composition, puisant librement, mais non sans méfiance dans une abondante tradition antique. À la suite de Van Helmont, ces adeptes mécanistes de la contingence maîtrisent déjà la notion de gaz, tiennent compte du facteur de la température et parviennent à expliquer sommairement la pression de vapeur d'un corps et les mélanges miscibles des fluides. John Dalton, persévérant expérimentateur, continuateur de la première lignée mécaniste partiellement abandonnée, a le premier essayé de donner une définition moderne de la notion d'atome. L'atome constitue une particule fondamentale ou une combinaison de plusieurs d'entre elles. En 1811, Amedeo Avogadro affirme que le volume d'un gaz quelconque à pression et température constante contient le même nombre de particules, qu'il dénomme molécules intégrantes ou constituantes. L'obstination de nombreux chimistes souvent incompris, tel Berzelius en pionnier de l'électrovalence dès 1812, a servi pour réaffirmer la possibilité d'une modélisation à la fois mécaniste et géométrique par le biais d'une architecture atomique. Auguste Laurent, proposant pour des séries homologues de molécules organiques un même squelette constituéAu, l'essor des mesures physiques a facilité aux chimistes la caractérisation des composés avec lesquels ils travaillent. Auparavant, la réaction chimique et un nombre restreint de techniques physico-chimiques s'imposaient en ultime recours pour détecter ou caractériser une molécule. Maintenant, il existe diverses méthodes de mesures. Parmi elles, la chromatographie, la spectrométrie électromagnétique (infrarouge, lumière visible ou UV), la masse, de résonance magnétique nucléaire. Sans oublier aussi d'inclure les microscopies électroniques et autresLa chimie est divisée en plusieurs spécialités expérimentales et théoriques à l'instar de la physique et de la biologie, avec lesquelles elle partage parfois des espaces d'investigations communs ou proches. La recherche et l'enseignement en chimie sont organisés en disciplines qui peuvent partager des domaines communs : Liste d'autres domaines spécialisés ou d'interface : Ces interfaces mouvantes ne facilitent pas la délimitation de la chimie. L'évolution de laUn élément est une entité immatérielle dénuée de propriétés physiques ou chimiques. Il constitue un couple formé d'un symbole et d'un numéro atomique (numéro d'ordre dans le tableau périodique des éléments) qui caractérise les atomes, molécules, ions, nucléides isotopes d'une espèce chimique donnée.L'atome d'une espèce chimique représente une entité matérielle. L'atome est formé d'un noyau atomique contenant des nucléons, en particulier d'un nombre Z de charge électrique élémentaire positive du noyau qui maintient autour de lui un nombre d'électrons, charge négative équilibrant la charge positive du noyau. Il possède un rayon, une structure géométrique, ainsi que des propriétés chimiques et physico-chimiques spécifiques relevant de ce cortège électronique. Un atome constitue la plus petite partie d'un corps simple pouvant se combiner chimiquement avec une autre. Généralement constitué d'un noyau composé de protons et de neutrons autour desquels orbitent des électrons, sa taille caractéristique se compte en dixième de nanomètre (nm), soit 10 m. La théorie atomiste, qui soutient l'idée d'une matière composée de « grains » indivisibles (contre l'idée d'une matière indéfiniment sécable), est connue depuis l'antiquité, et fut en particulier défendue par Démocrite, philosophe de la Grèce antique. ElleUne molécule constitue un assemblage précis d'atomes, domaine défini et structuré dans l'espace et le temps par des liaisons chimiques fortes. Une molécule polyatomique se comporte essentiellementLa liaison chimique impliquant la présence d'électrons liés à un ou plusieurs noyaux explique la réalité moléculaire. Plus précisément, elle assure la stabilité des molécules et, dans le cas d'un assemblage complexe, la cohésionUn corps pur incarne un corps généralement macroscopique constitué au niveau moléculaire d'une seule espèce chimique. Sa composition chimique, son organisation sous forme de gaz, liquide, solide amorphe ou réseaux cristallins, et sesUn composé chimique désigne l'espèce chimique d'un corps composé. Un corps pur est caractérisé par sa formule chimique, écriture symbolique plus ou moins complexe et détaillée, de sa composition chimique. La masseUn ion représente un atome qui a perdu ou gagné un ou plusieurs électrons. Il s'agit un cation simple lorsque son cortège électronique a été privéLes complexes sont des édifices formés par un élément central et des ligands. L'élément central, souvent un ion métallique avec un complexe pouvant être chargé. L'étude des complexes métalliques relève de la chimie organométallique ou de la chimie de coordination suivant la nature de l'atome lié au métal (respectivement, un carbone, ou un autre atome). Les complexes revêtent une grande importance en chimie des solutions, en catalyse et en chimie bioinorganique.Dans les conditions habituelles au laboratoire, le nombre d'entités chimiques participant à une réaction est très élevé : pour une masse de l'ordre de la dizaine de grammes de matière, Il se rapproche de 10. Les chimistes utilisent communément une unité numérique, la mole, qui est représentée par la lettre minuscule « "n" ». La grandeur associée à la mole constitue la quantité de matière. Une mole d'une entitéL'aspect expérimental reste central en chimie, ceci aussi bien du point de vue historique que pour la pratique actuelle de cette science ainsi que deUne réaction chimique constitue la transformation d’une ou de plusieurs espèces chimiques en d'autres espèces chimiques. Elle implique l'apparition ou la disparition d'au moins une liaison chimique ou un échange d'électron. La réaction qui possède des caractéristiques thermiques nécessite ou fait apparaître différentes formes d’énergie en rapport avec l'énergie de liaison chimique.Une solution se présente par un mélange homogène formé par un solvant en proportion majoritaire et d'un ou plusieurs solutés dans une phase homogène. Les réactions chimiques ont souvent lieu en solution. La solubilité représente la capacité d'un corps à entrer en solution dans un milieu donné. Par exemple, un sel cristallin comme le chlorure de sodium NaCl ou sel de cuisine possède une limite de solubilité dans l'eau : d'eau à et à. Cela signifie qu'à partir de cette teneur limite, le sel précipite ou se dépose sous forme solide. Il y a alors de séparation de phase. La miscibilité constitue la capacité d'un corps à se mélanger avec un autre en formant une seule phase. Le gaz ammoniac se mélange facilement àUne réaction d'oxydoréduction constitue un échange d’électrons entre différentes espèces chimiques.Les réactions acides-bases en solution sont basées aussi sur des couples d'espèces chimiques. L'acidité et la basicité peuvent être calculées ou mesurées par la concentration des espèces chimiques en solution, qui prend une forme acide ou basique. SvanteUne synthèse chimique se décrit comme un enchaînement de réactions chimiques mis en œuvre de façon volontaire par un chimiste pour l'obtention d'un ou de plusieurs produits, parfois avec isolation de composés intermédiaires. Réaliser la synthèse d’un composé chimique, permet d'obtenir ce composé à partir d’autres composés chimiques grâce à des réactions chimiques. La planification de l'enchaînement des réactions afin de maximiser l'efficacité de la synthèse (nombre d'étapes, rendement, simplicité des réactions, considérations toxicologiques et environnementales) se nomme la stratégie de synthèse. La chimie organique représente principalement une chimie de synthèse, on parle alors de synthèse organique. Des aspects synthétiques importants se retrouvent également en chimie inorganique et en chimie des polymères.La chimie, science expérimentale et descriptive, prenant un essor remarquable à l'époque industrielle tout enLe laboratoire, souvent le meilleur endroit de formation à cette science expérimentale, nécessite des moyens coûteux, une lourde surveillance et une organisation souvent disproportionnée pour un usage souvent trivial.La chimie est introduite dès le Cycle 3 primaire (CE2, CM1, CM2) dans le cadre de l'enseignement des Sciences expérimentales et Technologies (B.O. 2011). Ces premières notions (par exemple unités de mesure, mélanges, solutions, les différents états de la matière et les changements d'états...) sont introduites dans le cadre d'activités essentiellement expérimentales et de résolution de problèmes concrets, issus pour la plupart de la vie quotidienne, en lien avec les autres matières de la formation (Sciences de la Vie et de la Terre, Physique, Technologie, Informatique...). Ici le but n'est pas forcément l'accumulation de connaissances, mais plutôt l'initiation à la résolution de problèmes et l'éveil de la curiosité de l'élève, celui-ci étant en général confronté à une situation concrète, en autonomie, à partir de supports variésEn 2009 au Québec, les cours de chimie et de physique constituent des options que peut prendre l'élève de cinquième secondaire. Cela pousse plus loin le cours de « sciences et technologie » qu'il a été obligé de suivre durant les dernières années de son secondaire. EnEn 2009 en Suisse, la chimie est enseignée au gymnase dès la dixième année de scolarité. Les universités deL'industrie chimique se développe continûment à la fin du Siècle des Lumières. Si la métallurgie n'est pas oubliée, le progrès reste partout observable. Le fer-blanc devient un produit commun entre 1770 et 1780. Après 1780, en plus des métaux, elle mêle des fabrications millénaires à des innovations récentes. Ces fabrications constituent les acides et la « soude », l'ammoniac, le dichlore et les chlorures décolorants, le phosphore et ses dérivés, les savons et acides gras, le dihydrogène, l'« éther », l'éthylène, l'alcool de vin, l'acide acétique. À tout cela s'ajoute surtout de nombreux sels et une multitude de dérivés organiques et minéraux préparés ou recueillis dans un cadre traditionnel. Elle prend un essor prodigieux au et participe pleinement aux fortes mutations de la révolution industrielle. Le gaz d'éclairage, produit de la distillation de la houille ou charbon gras, lance l'immense essor de la carbochimie. La découverte de métaux, leurs préparations au laboratoire, puis au stade industriel, comme l'aluminium et les métaux alcalins et alcalino-terreux, témoignent de la vigueur de la science très proche de l'industrie. En 1981,La chimie œuvre partout dans la nature, les corps vivants, les choses de la vie quotidienne sans que l'observateur attentif et disposant de puissants multiplicateurs sensoriels puisse correctement l'imaginer ou le modéliser. Un chimiste représente dès l'origine un expert des bilans matière et énergie et il sait intuitivement qu'il devrait prendre en compte tous les milieux et les acteurs microbiologiques, végétaux, animaux et humains. Lui en laisse-t-on les moyens?Citons quelques applications. D'abord la mesure. L'analyse précise de solutions diluées dans un solvant, contenant des molécules solubles plus ou moins complexes, constitue le fruit de longues mises au point analytiques, aujourd'hui très vite réalisées et banales, comme en chimie des solutions aqueuses. Pensons aux analyses banalisées de l'eau du robinet reconnue potable ou des eaux minérales du commerce. Les (bio)chimistes spécialistes des eaux présente un rôle de surveillance des eaux naturelles et de leurs qualités ou toxicités éventuelles. Le recours à la désinfection chimique de l'eau du robinet avant consommation pourrait être modéré en réalisant des progrès substantiels. En fin d'usage, la maîtrise des procédés chimiques et biologiques permet le traitement des eaux usées dans les stations d'épuration. Ensuite l'usage. La chimie la plus simple peutLa découverte et la synthèse de médicaments qui contribuent à l'augmentation de l'espérance de vie enregistrée depuis la fin de la révolution industrielle dans les pays développés sont aussi à l'actif des techniques de la chimie. Mais la médicalisation massive d'une population entraîne d'irréductibles problèmes de pollutions, car les molécules ou leurs produits sommaires de dégradations se retrouvent dans les eaux usées. Dans le domaine « Santé-environnement », la chimie constitue une source de problème par certains polluants qu'elle crée ou contribue à diffuser dans l'environnement, en particulier les produits chimiquesAu niveau international, la convention de Rotterdam, administrée par l'ONU (PNUD, FAO) a été adoptée par 165 pays en 1998 pour mieux assurer la santé des personnes etLe chimiste apparaît souvent en personnage caricatural de la littérature, de la bande dessinée et surtout du cinéma. Ces savants échevelés ou docteurs désopilants, à la fois et confusément biologistes, chimistes et physiciens, constituent des êtres sourds au monde vrai ou perdus hors du laboratoire et de l'étude ; à moins de remonter le temps, d'aller dans un autre monde ou sur la Lune, à l'image du professeur Tournesol. Ils interviennent surtout de façon intermittente, par leur action, tantôt décisive tantôt inquiétante, car elle oriente la fiction. Dans un registre comique, alliant de façon classique la chimie et l'amour, citons le film "Docteur Jerry et Mister Love" avec Jerry Lewis (1963), et Jean Lefebvre jouant le rôle d'Eugène Ballanchon dans "Le Fou du labo 4" de Jacques Besnard (1967).La représentation littéraire du chimiste dans de nombreuses œuvres constitue une grande différente de la réalité. Il est considéré comme un savant venu d'ailleurs qui vit hors du temps. Le chimiste se présente alors en demi-sorcier, image issue de l'ancien alchimiste, qui joue avec des forces obscures qu'il ne maîtrise pas afin de rivaliser avec la nature. La chimie est souvent associée avec l'occulte alors qu'elle représente une
La chimie est une science de la nature qui étudie la matière et ses transformations, et plus précisément : La taille des entités chimiques varie de simples atomes ou molécules nanométriques aux édifices moléculaires de plusieurs dizaines de milliers d'atomes dans les macromolécules, l'ADN ou protéine de la matière vivante ("infra")micrométrique, jusqu'à des dimensions parfois macroscopiques des cristaux. En incluant l'électron libre (qui intervient dans les réactions radicalaires), les dimensions de principaux domaines d'application se situent dans son ensemble entre le femtomètre () et le micromètre ().
xwikis
Le mot fut introduit par IBM France en 1955 après que François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret. Avec Christian de Waldner, alors président d'IBM France, ils demandèrent au professeur Perret, de suggérer un. En 1911, une description de la machine analytique de Babbage utilisait le mot ordonnateur pour en décrire son organe moteur:. Le professeur proposa un mot composé centré autour d'ordonnateur : celui qui met en ordre et qui avait aussi la notion d'ordre ecclésiastique dans l'église catholique (ordinant). Il suggéra plus précisément « ordinatrice électronique », le féminin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot.Selon Bernard Cohen, auteur de l'ouvrage intitulé "Howard Aiken: Portrait of a computer pioneer",Sans une définition stricte il est impossible d'identifier la machine qui devint le premier ordinateur, mais il faut remarquer certaines des étapes fondamentales qui vont du développement du concept de la machine à calculer programmable par Charles Babbage en 1837 au premier développement de l'ère de l'informatique cent ans plus tard. En 1834, Charles Babbage commence à développer une machine à calculer programmable, sa machine analytique. Il pense la programmer grâce à un cylindre à picots comme dans les automates de Vaucanson, mais, deux ans plus tard, il remplace ce cylindre par la lecture de cartes Jacquard, et ainsi crée une machine à calculer infiniment programmable. En 1843, Ada Lovelace écrit le premier programme informatique pour calculer les nombres de Bernoulli, pour la machine analytique qui ne sera jamais construite. Henry Babbage construit une version extrêmement simplifiée de "l'unité centrale" de la « machine analytique » de son père et l'utilise en 1906, pour calculer et imprimer automatiquement les quarante premiers multiples du nombre Pi avec une précision de vingt-neuf décimales, démontrant sans ambiguïté que le principe de la machine analytique était viable et réalisable. En 1886, sa plus grande contribution fut de donner un ensemble mécanique de démonstration d'une des machines de son père à l'université Harvard. C'est cinquante ans plus tard, après avoir entendu la présentation de Howard Aiken sur son super calculateur, qu'un technicien de Harvard, Carmello Lanza, lui fit savoir qu'une machine similaire avait déjà été développée et qu'il lui montra l'ensemble mécanique de démonstration donné par Henry Babbage qui se trouvait dans un des greniers de l'université ; c'est ainsi qu'il découvrit les travaux de Babbage et qu'il les incorpora dans la machine qu'il présenta à IBM en 1937. C'était la troisième fois qu'il essayait de trouver un sponsor pour le développement de sa machine car son projet avait déjà été rejeté deux fois avant l'intégration des travaux de Babbage dans l'architecture de sa machine (une fois par la "Monroe Calculating Company" et une fois par l'université Harvard). Leonardo Torres Quevedo remplaça toutes les fonctions mécaniques de Babbage par des fonctions électromécaniques (addition, soustraction, multiplication et division mais aussi la lecture de cartes et les mémoires). En 1914 et en 1920, Il construisit deux "machines analytiques", non programmable, extrêmement simplifiées mais qui montraient que des relais électromécaniques pouvaient être utilisés dans une machine à calculer qu'elle soit programmable ou non. Sa machine de 1914 avait une petite mémoire électromécanique et son arithmomètre de 1920, qu'il développa pour célébrer le centième anniversaire de l'invention de l'arithmomètre, était commandé par une machine à écrire qui était aussi utilisée pour imprimer ses résultats. Percy Ludgate améliora et simplifia les fonctions mécaniques de Babbage mais ne construisit pas de machine. Et enfin, Louis Couffignal essaya au début des années 1930, de construire une machine analytique, mais sans succès. C'est cent ans après la conceptualisation de l'ordinateur par Charles Babbage que le premier projet basé sur l'architecture de sa machine analytique aboutira. En effet, c'est en 1937 qu'Howard Aiken présenta à IBM un projet de machine à calculer programmable qui sera le premier projet qui finira par une machine qui puisse être, et qui sera utilisée, et dont les caractéristiques en font presque un ordinateur moderne. Et donc, bien que le premier ordinateur ne sera jamais déterminé à l’unanimité, "le début de l'ère de l'informatique moderne" peut être considéré comme la présentation d'Aiken à IBM, en 1937, qui aboutira par l'ASCC.Les machines à calculer jouèrent un rôle primordial dans le développement des ordinateurs pour deux raisons tout à fait indépendantes. D'une part, pour leurs origines : c'est pendant le développement d'une "machine à calculer automatique" à imprimante qu'en 1834 Charles Babbage commença à imaginer sa machine analytique, l’ancêtre des ordinateurs. C’était une machine à calculer programmée par la lecture de cartes perforées (inspirées du Métier Jacquard), avec un lecteur de cartes pour les données et un pour les programmes, avec des mémoires, un calculateur central et des imprimantes et qui inspirera le développement des premiers ordinateurs à partir de 1937 ; ce qui nous amènera aux "mainframes" des années 1960. D'autre part, leur propagation se fit grâce à la commercialisation en 1971 du premier microprocesseur, l'Intel 4004, qui fut inventé pendant le développement d'une machine à calculer électronique pour la compagnie japonaise Busicom, qui est à l'origine de l'explosion de la micro-informatique à partir de 1975 et qui réside au cœur de tous les ordinateurs actuels quelles que soient leurs tailles ou fonctions (bien que seulement 2 % des microprocesseurs produits chaque année soient utilisés comme unités centrales d'ordinateur, les 98 % restant sont utilisés dans la construction de voitures, de robots ménagers, de montres, de caméras de surveillance...).Outre les avancées observées dans l'industrie du textile et celles de l'électronique, les avancées de la mécanographie à la fin du, pour achever les recensements aux États-Unis, la mécanisation de la cryptographie au début du, pour chiffrer puis déchiffrer automatiquement des messages, le développement des réseaux téléphoniques (à base de relais électromécaniques), sont aussi à prendre en compte pour comprendre l'avènement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprètent des programmes qui -eux- calculent. Pour le monde des idées, avant l'invention de ces nouvelles machines, l'élément fondateur de la science informatique est en 1936, la publication de l'article "On Computable Numbers with an Application to the Entscheidungsproblem" par Alan Turing qui allait déplacer le centre de préoccupation de certains scientifiques (mathématiciens et logiciens) de l'époque, du sujet de la calculabilité (ou décidabilité) ouvert par Hilbert, malmené par Godël, éclairci par Church, vers le sujet de la mécanisation du calcul (ou calculabilité effective). Dans ce texte de 36 pages, Turing expose une machine théorique capable d'effectuer tout calcul ; il démontre que cette machine est aussi puissante, au niveau du calcul, que tout être humain. Autrement dit, un problème mathématique possède une solution, si et seulement si, il existe une machine de Turing capable de résoudre ce problème. Par la suite, il expose une machine de Turing universelle apte à reproduire toute machine de Turing, il s'agit des concepts d'ordinateur, de programmation et de programme. Il termine en démontrant qu'il existe au moins un problème mathématique formellement insoluble, le problème de l'arrêt. Peu avant la Seconde Guerre mondiale, apparurent les premières calculatrices électromécaniques, construites selon les idées d'Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.La fin des années 1930 virent, pour la première fois dans l'histoire de l'informatique, le début de la construction de deux "machines à calculer programmables". Elles utilisaient des relais et étaient programmées par la lecture de rouleaux perforés et donc, pour certains, étaient déjà des ordinateurs. Elles ne furent mises en service qu'au début des années 1940, faisant ainsi de 1940 la première décennie dans laquelle on trouve des ordinateurs et des machines à calculer programmables totalement fonctionnels. C'est d'abord en 1937 que Howard Aiken, qui avait réalisé que la machine analytique de Babbage était le type de machine à calculer qu'il voulait développer, proposa à IBM de la créer et de la construire ; après une étude de faisabilité, Thomas J. Watson accepta de la construire en 1939 ; elle fut testée en 1943 dans les locaux d'IBM et fut donnée et déménagée à l'université Harvard en 1944, changeant son nom de ASCC à Harvard Mark I ou Mark I. Mais c'est aussi Konrad Zuse qui commença le développement de son Zuse 3, en secret, en 1939, et qui le finira en 1941. Parce que le Zuse 3 resta inconnu du grand public jusqu’après la fin de la Seconde Guerre mondiale (sauf des services secrets américains qui le détruisirent dans un bombardement en 1943), ses solutions très inventives ne furent pas utilisées dans les efforts communs mondiaux de développement de l’ordinateur.Six machines furent construites durant ces. Elles furent toutes décrites, au moins une fois, dans la multitude de livres de l'histoire de l'informatique, comme étant le premier ordinateur ; aucune autre machine, construite ultérieurement, ne fut décrit comme telle. Ces six "précurseurs" peuvent être divisées en trois groupes bien spécifiques : De ces six machines, seulement quatre furent connues de leurs contemporains, les deux autres, le Colosse et le Z3, utilisées dans l'effort de guerre, ne furent découvertes qu'après la fin de la Seconde Guerre mondiale, et donc ne participèrent pas au développement communautaire mondial des ordinateurs. Seulement deux de ces machines furent utilisées dans les années 1950, l'ASCC/Mark I et l'ENIAC, et chacune fut éventuellement modifiée pour en faire une machine Turing-complet. En est publié un article fondateur de John von Neumann donnant les bases de l'architecture utilisée dans la quasi-totalité des ordinateurs depuis lors. Dans cet article, von Neumann veut concevoir un programme enregistré et programmé dans la machine. La première machine correspondant à cette architecture, dite depuis architecture de von Neumann est une machine expérimentale la Small-Scale Experimental Machine (SSEM ou "baby") construite à Manchester en juillet 1948. En août 1949 la première machine fonctionnelle, fondée sur les bases de von Neumann fut l'EDVAC.Cette chronologie demande qu'un ordinateur soit électronique et donc elle commence, en 1946, avec l'ENIAC qui, au départ, était programmé avec des interrupteurs et par le positionnement de fils sur un commutateur, comme sur un ancien standard téléphonique. Les ordinateurs de cette période sont énormes avec des dizaines de milliers de tubes à vide. L'ENIAC faisait de long, de haut et pesait. Ces machines n’étaient pas du tout fiables, par exemple, en 1952, dix-neuf mille tubes furent remplacés sur l'ENIAC, soit plus de tubes qu'il n'en contient. De nouveau, le titre de premier ordinateur commercialisé dépend de la définition utilisée ; trois ordinateurs sont souvent cités. En premier, le BINAC, conçu par la Eckert–Mauchly Computer Corporation et livré à la Northrop Corporation en 1949 qui, après sa livraison, ne fut jamais fonctionnel. En deuxième, le Ferranti Mark I, dont le prototype avait été développé par l'université de Manchester, fut amélioré et construit en un exemplaire par la société Ferranti et revendu à l'université de Manchester en. Et en dernier, UNIVAC I, conçu par la « Eckert–Mauchly Computer Corporation », dont le premier fut vendu à l'United States Census Bureau le. Une vingtaine de machines furent produites et vendues entre 1951 et 1954.Les circuits intégrés réduisirent la taille et le prix des ordinateurs considérablement. Les moyennes entreprises pouvaient maintenant acheter ce genre de machines. Les circuits intégrés permettent de concevoir une informatique plus décentralisée les constructeurs souhaitant concurrencer le géant IBM. Le microprocesseur fut inventé en 1969 par Ted Hoff d'Intel pendant le développement d'une calculatrice pour la firme japonaise Busicom. Intel commercialisera le 4004 fin 1971. Ted Hoff avait copié l'architecture du PDP-8, le premier mini-ordinateur, et c'est grâce à la technologie de circuits intégrés LSI "(large scale integration)", qui permettait de mettre quelques milliers de transistors sur une puce qu'il put miniaturiser les fonctions d'un ordinateur en un seul circuit intégré. La fonction première du microprocesseur était de contrôler son environnement. Il lisait des interrupteurs, les touches d'un clavier et il agissait en exécutant les opérations requises (addition, multiplication, etc.) et en affichant les résultats. Le premier ordinateur personnel fut décrit dans le livre d'Edmund Berkeley, "Giant brain, or machines that think", en 1949, et sa construction fut décrite dans une série d'articles du magazine "Radio-Electronics" à partir du numéro d'. En 1972, une société française développe le "Micral", premier micro-ordinateur à être basé sur le microprocesseur 8008. Mais l’ordinateur qui créa l'industrie de l'ordinateur personnel est l'Altair 8800 qui fut décrit pour la première fois dans le magazine "Radio-Electronics" de. Bill Gates, Paul Allen, Steve Wozniak et Steve Jobs (ordre chronologique) firent tous leurs débuts dans la micro-informatique sur ce produit moins de six mois après son introduction.Les ordinateurs furent d'abord utilisés pour le calcul (en nombres entiers d'abord, puis flottants). On ne peut cependant les assimiler à de simples calculateurs, du fait de la possibilité quasi infinie de lancer d'autres programmes en fonction du résultat de calculs, ou de capteurs internes ou externes (température, inclinaison, orientation), ou de toute action de l'opérateur ou de son environnement. Cette création d'un néologisme fut à l'origine de traductions multiples des expressions "supercomputer", superordinateur ou supercalculateur. L'expérience a appris à distinguer dans un ordinateur deux aspects, dont le second avait été au départ sous-estimé : Le logiciel - et son complément les "services" (formation, maintenance...) - forme depuis le milieu des années 1980 l’essentiel des coûts d'équipement informatique, le matériel n’y ayant qu'une part minoritaire.Parmi toutes les machines inventées par l'Homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant : Organe d'entrée, organe de traitement de l'information et organe de sortie. Chez l'humain, les organes d'entrée sont les organes sensoriels, l'organe de traitement est le cerveau dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les muscles. Pour les ordinateurs modernes, les organes d'entrée sont le clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD Les techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 1970. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des instructions et des données, y compris dans les caches. L’architecture de von Neumann décomposait l’ordinateur en quatre parties distinctes :L’unité arithmétique et logique ou UAL est l’élément qui réalise les opérations élémentaires (additions, soustractions...), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les "calculs" de l’ordinateur. L’unité de contrôle prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher. L'unité de contrôle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Elle gère la plupart des exécutions des instructions dans l'ordinateur.Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c'est la même mémoire qui est utilisée pour les deux fonctions. Dans les calculateurs massivement parallèles, on admet même que des instructions de programmes soient substituées à d’autres en cours d’opération lorsque cela se traduit par une plus grande efficacité. Cette pratique était jadis courante, mais les impératifs de lisibilité du génie logiciel l'ont fait régresser, hormis dans ce cas particulier, depuis plusieurs décennies. Cette mémoire peut être réécrite autant de fois que nécessaire. La taille de chacun des blocs de mémoire ainsi que la technologie utilisée ont varié selon les coûts et les besoins : 8 bits pour les télécommunications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par être trouvé autour de l’octet comme unité adressable et d’instructions sur format de 4 ou. Dans tous les cas de figure, l'octet reste adressable, ce qui simplifie l'écriture des programmes. Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur. Ces dispositifs sont très importants, du clavier à l’écran. La carte réseau permet par exemple de relier les ordinateurs en réseau informatique, dont le plus grand est Internet. Le point commun entre tous les périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre compréhensible par l’utilisateur.Ces différentes parties sont reliées par trois bus, le bus d'adresse, le bus de données et le bus de commande. Un bus est un groupement d'un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Le bus d'adresse transporte les adresses générées par l'UCT (Unité Centrale de Traitement) pour sélectionner une case mémoire ou un registre interne de l'un des blocs. Le nombre de bits véhiculés par ce bus dépend de la quantité de mémoire qui doit être adressée. Le bus de données transporte les données échangées entre les différents éléments du système. Le bus de contrôle transporte les différents signaux de synchronisation nécessaires au fonctionnement du système : signal de lecture (RD), signal d'écriture (WR), signal de sélection (CS : Chip Select).La miniaturisation permet d’intégrer l’UAL et l’unité de contrôle au sein d’un même circuit intégré connu sous le nom de microprocesseur. Typiquement, la mémoire est située sur des circuits intégrés "proches" du processeur, une partie de cette mémoire, la mémoire cache, pouvant être située sur le même circuit intégré que l’UAL. L’ensemble est, sur la plupart des architectures, complété d’une horloge qui cadence le processeur. Bien sûr, on souhaite qu'elle soit le plus rapide possible, mais on ne peut pas augmenter sans limites sa vitesse pour deux raisons : La tendance a été à partir de 2004 de regrouper plusieurs UAL dans le même processeur, voire plusieurs processeurs dans la même puce. En effet, la miniaturisation progressive (voir Loi de Moore) le permet sans grand changement de coût. Une autre tendance, depuis 2006 chez ARM, est aux microprocesseurs sans horloge : la moitié de la dissipation thermique est en effet due aux signaux d'horloge quand le microprocesseur fonctionne ; de plus, un microprocesseur sans horloge a une consommation presque nulle quand il ne fonctionne pas : le seul signal d'horloge nécessaire est alors celui destiné au rafraîchissement des mémoires. Cet atout est important pour les modèles portables. Le principal écart fonctionnel aujourd’hui par rapport au modèle de von Neumann est la présence sur certaines architectures de deux antémémoires différentes : une pour les instructions et une pour les données (alors que le modèle de von Neumann spécifiait une mémoire commune pour les deux). La raison de cet écart est que la modification par un programme de ses propres instructions est aujourd’hui considérée (sauf sur les machines hautement parallèles) comme une pratique à proscrire. Dès lors, si le contenu du cache de données doit être récrit en mémoire principale quand il est modifié, on sait que celui du cache d’instructions n’aura jamais à l’être, d’où simplification des circuits et gain de performance.Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matériel sait juste exécuter un nombre limité d’instructions bien définies. Des instructions typiques comprises par un ordinateur sont par exemple : La plupart des instructions se composent de deux zones : l’une indiquant quoi faire, nommée code opération, et l’autre indiquant où le faire, nommée "opérande". Au sein de l’ordinateur, les instructions correspondent à des codes - le code pour une copie étant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son "langage machine", langage qui est une succession de chiffres binaires, car les instructions et données qui sont comprises par le processeur ("CPU") sont constituées uniquement de et de : En général, ce type de langage n'est pas utilisé car on lui préfère ce que l’on appelle un langage de haut niveau qui est ensuite transformé en langage binaire par un programme spécial (interpréteur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilés compréhensibles par l'ordinateur dans son langage natif. Certains langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont très proches de celles de l’ordinateur. Les programmes écrits dans ces langages sont ainsi très dépendants de la plate-forme pour laquelle ils ont été développés. Le langage C, beaucoup plus facile à relire que l’assembleur, permet de produire plus facilement des programmes..Les logiciels informatiques sont des listes (généralement longues) d’instructions exécutables par un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuées pour certaines de manière répétitive. De nos jours, un ordinateur personnel exécute plusieurs milliards d’instructions par seconde. Depuis le milieu des années 1960, des ordinateurs exécutent plusieurs programmes simultanément. Cette possibilité est appelée multitâche. C’est le cas de tous les ordinateurs aujourd’hui. En réalité, chaque cœur de processeur n’exécute qu’un programme à la fois, passant d’un programme à l’autre chaque fois que nécessaire. Si la rapidité du processeur est suffisamment grande par rapport au nombre de tâches à exécuter, l’utilisateur aura l’impression d’une exécution simultanée des programmes. Les priorités associées aux différents programmes sont, en général, gérées par le système d'exploitation. Le système d’exploitation est le programme central qui contient les programmes de base nécessaires au bon fonctionnement des applications de l’ordinateur. Le système d’exploitation alloue les ressources physiques de l’ordinateur (temps processeur, mémoire...) aux différents programmes en cours d’exécution. Il fournit aussi des outils aux logiciels (comme les pilotes) afin de leur faciliter l’utilisation des différents périphériques sans avoir à en connaître les détails physiques.
Un ordinateur est un système de traitement de l'information programmable tel que défini par Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l'une après l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données déterminées par une mémoire morte d'amorçage. Des tests et des sauts conditionnels permettent de passer à l'instruction suivante et donc d'agir différemment en fonction des données ou des nécessités du moment ou de l'environnement.
xwikis
Le terme « physique » vient du grec ("ê physikê") adopté dans le monde gréco-romain, signifiant « connaissance de la nature ». La "physika" ou "physica" gréco-romaine est étymologiquement ce qui se rapporte à la nature ou précisément le savoir harmonieux et cyclique sur la nature dénommée. Dans un sens général et ancien, la physique désigne la connaissance de la nature qui se perpétue en restant essentiellement la même avec le retour des saisons ou des générations vivantes. L'ouvrage "Physica" d'Aristote (384-322) reprend cette terminologie. Le terme ancien est perpétué par la tradition de la philosophie antique. Selon Platon, la physique est l'une des trois parties de l'enseignement de la philosophie, aux côtés de l'éthique et de la logique. Selon son élève Aristote, la philosophie se divise en philosophie théorétique, philosophie pratique et philosophie poétique ; la physique est une des trois parties de la philosophie théorétique, aux côtés de la mathématique et de la théologie. Aristote écrit un livre sur "La Physique". Ce qui échappe à la triple catégorisation et ne peut être catalogué dans la physique est dévolu à la métaphysique, c'est-à-dire ce qui va au-delà de la physique. Au, le mot savant physique est attesté en ancien français sous la double forme "fusique" dès 1130 ou "fisique". Il a un double sens : À la fin du "quattrocento" (ou ), il apparaît en tant qu'adjectif. Loys Garbin le cite dans son vocabulaire latin-français publié à Genève en 1487, où il désigne « ce qui se rapporte à la nature » mais le substantif s'affirme comme "science des choses naturelles". L'adjectif reste d'emploi rare avant le. Le mot physique désigne alors les « connaissances concernant les causes naturelles », son étude apporte l'expression « philosophie naturelle » selon un corpus universitaire gardé par Isaac Newton, auteur des "principes mathématiques de philosophie naturelle". C'est le sens de René Descartes et de ses élèves Jacques Rohault et Régis. Elle correspond alors aux sciences naturelles ou encore à la philosophie naturelle. Des chaires de philosophie naturelle sont établies dans certaines universités, notamment au Royaume-Uni (Oxford, Édimbourg, etc.). À Paris, on compte par exemple une chaire de philosophie naturelle au collège de Clermont, occupée notamment par Ignace-Gaston Pardies. Maxwell occupe quelque temps une semblable chaire à Édimbourg où l'enseignement reste un fourre-tout indigeste. Au, la physique désigne clairement en français la science expérimentale. La signification ancienne de cette physique ne convient plus aux actuelles sciences exactes que sont la physique, la chimie et la biologie, cette dernière étant la plus tardive héritière directe des sciences naturelles.Le mot physique prend son sens moderne, plus restreint et mieux défini que le sens originel, au début du avec Galilée. Selon lui, les lois de la nature s'écrivent en langage mathématique. Les principes d'inertie et de relativité ainsi que les lois découvertes semblent contredire le sens commun. L'élève de Galilée, Evangelista Torricelli, montre que la science ne se contente pas de calculer des trajectoires balistiques, mais elle peut aussi expliquer des phénomènes singuliers qu'on lui soumet et mettre au point des techniques. Les fontainiers de Florence ne parvenaient pas à hisser par une seule puissante pompe aspirante l'eau de l'Arno à des hauteurs dépassant trente-deux pieds, soit une dizaine de mètres. Torricelli, consulté par ses maîtres artisans dépités, constate avec eux le fait troublant, mais en procédant par expérience, il découvre le vide et détermine les capacités maximales d'élévation d'une batterie de pompes. À l'université de Paris, l'aristotélisme fournit un classement des natures et causes des phénomènes observés, et ordonne la Nature de manière rigoureuse dans les cours de philosophie naturelle jusque dans les années 1690, à partir desquelles il est progressivement remplacé par un cartésianisme sophistiqué, notamment grâce à l'ouverture du collège des Quatre-Nations et les cours d'Edme Pourchot. Les pionniers de la modélisation scientifique parmi lesquels le Français Descartes et nombre d'hydrauliciens et savants expérimentateurs des Pays-Bas ou d'Angleterre contribuent à diffuser les bases de cette physique mathématisée qui atteint son apogée en Angleterre avec Isaac Newton. Dans la première édition du "Dictionnaire de l'Académie française", datant de 1694, le nom « physique » est désigné comme la « science qui a pour objet la connaissance des choses naturelles, ex : "La physique fait partie de la philosophie";"la physique est nécessaire à un médecin" ». L'adjectif « physique » est défini, en outre, comme signifiant « naturel, ex : "l'impossibilité physique s'oppose à l'impossibilité morale" ». Ce n'est que dans sa sixième édition (1832-1835) que le sens moderne de « physique » apparaît, le terme est défini comme la « science qui a pour objet les propriétés accidentelles ou permanentes des corps matériels, lorsqu'on les étudie sans les décomposer chimiquement. ». Enfin dans sa huitième édition (1932-1935), la physique est définie comme la « science qui observe et groupe les phénomènes du monde matériel, en vue de dégager les lois qui les régissent.» "Le Littré" donne des définitions apparemment précises. En tant qu'adjectif, il définit les phénomènes physiques comme « ceux qui ont lieu entre les corps visibles, à des distances appréciables, et qui n'en changent pas les caractères » et les propriétés physiques, comme « qualités naturelles des corps qui sont perceptibles aux sens, telles que l'état solide ou gazeux, la forme, la couleur, l'odeur, la saveur, la densité, etc. ». Les sciences physiques sont définies comme « celles qui étudient les caractères naturels des corps, les forces qui agissent sur eux et les phénomènes qui en résultent ». En tant que nom, la physique est définie comme « science du mouvement et des actions réciproques des corps, en tant que ces actions ne sont pas de composition et de décomposition, ce qui est le propre de la chimie ». La notion actuelle de science en tant qu'« ensemble ou système de connaissances sur une matière » date seulement du. Avant cette époque, le mot « science » signifiait simplement (science et savoir ont la même étymologie) et la notion de scientifique n'existait pas. À l'inverse, le terme désigne dans son sens ancien « l'étude des principes et des causes, ou le système des notions générales sur l'ensemble des choses », les sciences naturelles étaient donc le résultat de la philosophie naturelle (voir l'exemple du titre de la revue "Philosophical Transactions"). L'expression « sciences physiques » désigne actuellement l'ensemble formé par la physique (dans son sens moderne) et la chimie, cette expression prend son sens actuel en France au début du, en même temps que le mot « science » prend le sens d'« ensemble formé par les sciences mathématiques, physiques et naturelles ». Auparavant, l’expression « sciences physiques » était un simple synonyme de l'expression « sciences naturelles ».La recherche en physique contemporaine se divise en diverses disciplines qui étudient différents aspects du monde physique.Bien que la physique s'intéresse à une grande variété de systèmes, certaines théories ne peuvent être rattachées qu'à la physique dans son ensemble et non à l'un de ses domaines. Chacune est supposée juste, dans un certain domaine de validité ou d'applicabilité. Par exemple, la théorie de la mécanique classique décrit fidèlement le mouvement d'un objet, pourvu que Les théories anciennes, comme la mécanique newtonienne, ont évolué engendrant des sujets de recherche originaux notamment dans l'étude des phénomènes complexes (exemple : la théorie du chaos). Leurs principes fondamentaux constituent la base de toute recherche en physique et tout étudiant en physique, quelle que soit sa spécialité, est censé acquérir les bases de chacune d'entre elles.Les physiciens observent, mesurent et modélisent le comportement et les interactions de la matière à travers l'espace et le temps de façon à faire émerger des lois générales quantitatives. Le temps — défini par la durée, l'intervalle et la construction corrélative d'échelles — et l'espace — ensemble des lieux où s'opère le mouvement et où l'être ou l'amas matériel, c'est-à-dire la particule, la molécule ou le grain, le corps de matière... ou encore l'opérateur se positionnent à un instant donné — sont des faits réels constatés, transformés en entités mathématiques abstraites et physiques mesurables pour être intégrées logiquement dans le schéma scientifique. Ce n'est qu'à partir de ces constructions qu'il est possible d'élaborer des notions secondaires à valeurs explicatives. Ainsi l'énergie, une description d'états abstraite, un champ de force ou une dimension fractale peuvent caractériser des « phénomènes physiques » variés. La métrologie est ainsi une branche intermédiaire capitale de la physique. Une théorie ou un modèle — appelé schéma une fois patiemment étayé par de solides expériences et vérifié jusqu'en ses ultimes conséquences logiques est un ensemble conceptuel formalisé mathématiquement, dans lequel des paramètres physiques qu'on suppose indépendants (charge, énergie et temps, par exemple) sont exprimés sous forme de variables ("q", "E" et "t") et mesurés avec des unités appropriées (coulomb, joule et seconde). La théorie relie ces variables par une ou plusieurs équations (par exemple, E=mc). Ces relations permettent de prédire de façon quantitative le résultat d'expériences. Une expérience est un protocole matériel permettant de mesurer certains phénomènes dont la théorie donne une représentation conceptuelle. Il est illusoire d'isoler une expérience de la théorie associée. Le physicien ne mesure évidemment pas des choses au hasard ; il faut qu'il ait à l'esprit l'univers conceptuel d'une théorie. Aristote n'a jamais pensé calculer le temps que met une pierre lâchée pour atteindre le sol, simplement parce que sa conception du monde sublunaire n'envisageait pas une telle quantification. Cette expérience a dû attendre Galilée pour être faite. Un autre exemple d'expérience dictée nettement par un cadre conceptuel théorique est la découverte des quarks dans le cadre de la physique des particules. Le physicien des particules Gell-Mann a remarqué que les particules soumises à la force forte se répartissaient suivant une structure mathématique élégante, mais que trois positions fondamentales (au sens mathématique de la théorie des représentations) de cette structure n'étaient pas réalisées. Il postula donc l'existence de particules plus fondamentales (au sens physique) que les protons et les neutrons. Des expériences permirent par la suite, en suivant cette théorie, de mettre en évidence leur existence. Inversement, des expériences fines ou nouvelles ne coïncident pas ou se heurtent avec la théorie. Elles peuvent :La culture de la recherche en physique présente une différence notable avec celle des autres sciences en ce qui concerne la séparation entre théorie et expérience. Depuis le, la majorité des physiciens sont spécialisés soit en physique théorique, soit en physique expérimentale. En revanche, presque tous les théoriciens renommés en chimie ou en biologie sont également des expérimentateurs. La simulation numérique occupe une place très importante dans la recherche en physique et ce depuis les débuts de l'informatique. Elle permet en effet la résolution approchée de problèmes mathématiques qui ne peuvent pas être traités analytiquement. Beaucoup de théoriciens sont aussi des numériciens.L'histoire de la physique semble montrer qu'il est illusoire de penser que l'on finira par trouver un corpus fini d'équations qu'on ne pourra jamais contredire par expérience. Chaque théorie acceptée à une époque finit par révéler ses limites, et est intégrée dans une théorie plus large. La théorie newtonienne de la gravitation est valide dans des conditions où les vitesses sont petites et que les masses mises en jeu sont faibles, mais lorsque les vitesses approchent la vitesse de la lumière ou que les masses (ou de façon équivalente en relativité, les énergies) deviennent importantes, elle doit céder la place à la relativité générale. Par ailleurs, celle-ci est incompatible avec la mécanique quantique lorsque l'échelle d'étude est microscopique et dans des conditions d'énergie très grande (par exemple au moment du Big Bang ou au voisinage d'une singularité à l'intérieur d'un trou noir). La physique théorique trouve donc ses limites dans la mesure où son renouveau permanent vient de l'impossibilité d'atteindre un état de connaissance parfait et sans faille du réel. De nombreux philosophes, dont Emmanuel Kant, ont mis en garde contre toute croyance qui viserait à penser que la connaissance humaine des phénomènes peut coïncider avec le réel, s'il existe. La physique ne décrit pas le monde, ses conclusions ne portent pas sur le monde lui-même, mais sur le modèle qu'on déduit des quelques paramètres étudiés. Elle est une science exacte en ce que la base des hypothèses et des paramètres considérés conduisent de façon exacte aux conclusions tirées. La conception moderne de la physique, en particulier depuis la découverte de la mécanique quantique, ne se donne généralement plus comme objectif ultime de déterminer les causes premières des lois physiques, mais seulement d'en expliquer le "comment" dans une approche positiviste. On pourra aussi retenir l'idée d'Albert Einstein sur le travail du physicien : faire de la physique, c'est comme émettre des théories sur le fonctionnement d'une montre sans jamais pouvoir l'ouvrir.La physique possède une dimension esthétique. En effet, les théoriciens recherchent presque systématiquement à simplifier, unifier et symétriser les théories. Cela se fait par la réduction du nombre de constantes fondamentales (la constante G de la gravitation a intégré sous un même univers gravitationnel les mondes sublunaire et supralunaire), par la réunion de cadres conceptuels auparavant distincts (la théorie de Maxwell a unifié magnétisme et électricité, l'interaction électrofaible a unifié l'électrodynamique quantique avec l'interaction faible et ainsi de suite jusqu’à la construction du modèle standard de la physique des particules). La recherche des symétries dans la théorie, outre le fait que par le théorème de Noether elles produisent spontanément des constantes du mouvement, est des équations et de motivation des physiciens et, depuis le,. Du point de vue expérimental, la simplification est un principe de pragmatisme. La mise au point d'une expérience requiert la maîtrise d'un grand nombre de paramètres physiques afin de créer des conditions expérimentales précises et reproductibles. La plupart des situations dans la nature se présentent spontanément comme confuses et irrégulières. Ainsi, l'arc-en-ciel, (qui cause un fort étonnement chez le profane), ne peut s'expliquer que par la compréhension de nombreux phénomènes appartenant à des domaines disjoints du corpus physique. Les concepts de la physique sont longs à acquérir, même pour les physiciens. Une préparation du dispositif expérimental permet donc la manifestation d'un phénomène aussi simple et reproductible que possible. Cette exigence expérimentale donne parfois un aspect artificiel à la physique, ce qui peut nuire, malheureusement, à son enseignement auprès du jeune public. Paradoxalement rien ne semble aussi éloigné du cours de la nature qu'une expérience de physique, et pourtant seule la simplification est recherchée. Au cours de l'histoire, des théories complexes et peu élégantes d'un point de vue mathématique peuvent être très efficaces et dominer des théories beaucoup plus simples. L"'Almageste "de Ptolémée, basé sur une figure géométrique simple, le cercle, comportait un grand nombre de constantes dont dépendait la théorie, tout en ayant permis avec peu d'erreur de comprendre le ciel pendant plus de mille ans. Le modèle standard décrivant les particules élémentaires comporte également une trentaine de paramètres arbitraires, et pourtant. Pourtant les physiciens s'accorde à penser que cette théorie sera sublimée et intégrée un jour dans une théorie plus simple et plus élégante, de la même manière que le système ptoléméen a disparu au profit de la théorie képlérienne, puis newtonienne.La physique moderne est écrite en termes mathématiques, elle a depuis sa naissance eu des relations de couple intense avec les sciences mathématiques. Jusqu'au, les mathématiciens étaient d'ailleurs la plupart du temps physiciens et souvent philosophes naturalistes après la refondation kantienne. De ce fait la physique a très souvent été la source de développements profonds en mathématiques. Par exemple, le calcul infinitésimal a été inventé indépendamment par Leibniz et Newton pour comprendre la dynamique en général, et la gravitation universelle en ce qui concerne le second. Le développement en série de Fourier, qui est devenu une branche à part entière de l'analyse, a été inventé par Joseph Fourier pour comprendre la diffusion de la chaleur. Les sciences physiques sont en relation avec d'autres sciences, en particulier la chimie, science des molécules et des composés chimiques. Ils partagent de nombreux domaines, tels que la mécanique quantique, la thermochimie et l'électromagnétisme. L'étude des bases physiques des systèmes chimique, domaine interdisciplinaire est appelé la chimie physique. Toutefois, les phénomènes chimiques sont suffisamment vastes et variés pour que la chimie reste considérée comme une discipline à part entière. De nombreux autres domaines interdisciplinaires existent en physique. L'astrophysique est à la frontière avec l'astronomie, la biophysique est à l'interface avec la biologie. La physique statistique, les microtechnologies et les nanotechnologies fortement multidisciplinaires comme les MOEMS sont également interdisciplinaires.L'histoire de l'humanité montre que la pensée technique s'est développée bien avant les théories physiques. La roue et le levier, le travail des matériaux, en particulier la métallurgie, ont pu être réalisés sans ce qu'on appelle la physique. L'effort de rationalité des penseurs grecs puis arabes, le lent perfectionnement des mathématiques du au, et le moindre poids de la scolastique ont permis les avancées remarquables du. La physique a pu. Les théories physiques ont alors souvent permis le perfectionnement d'outils et de machines, ainsi que leur mise en œuvre. Le voit la multiplication de technologies directement issues de concepts théoriques développés à partir des avancées de la physique de leur époque. Le cas du laser est exemplaire : son invention repose fondamentalement sur la compréhension, par la mécanique quantique, des ondes lumineuses et de la linéarité de leurs équations. La découverte de "l'équation d'équivalence masse énergie" ouvre la voie au développement des bombes A et H, ainsi qu'à l’énergie nucléaire civile. De même L'électronique en tant que science appliquée modifie profondément le visage de nos sociétés modernes à travers la révolution numérique et l'avènement de produits comme le téléviseur, le téléphone portable et les ordinateurs. Elle s'appuie sur l'électromagnétisme, l'électrostatique ou la physique des semi-conducteurs et la technique d'imagerie médicale IRM s'appuie sur la découverte des propriétés quantiques des noyaux atomiques.Le monde de la physique a longtemps été dominé par des hommes, et au début du, malgré quelques incitations et messages montrant que les filles ont autant leur place que les garçons dans ce domaine, la désaffection des filles pour les études de physique semble persister dans de nombreux pays. En outre, selon une étude récente aux États-Unis, la plupart des étudiantes en physique subissent diverses formes de harcèlement sexuel (allant de blagues inappropriées jusqu'à une attention sexuelle non-souhaitée). Près de 75% des diplômées en physique disent en avoir été victimes au travail ou en étudiant sur le terrain. Une enquête faite auprès d'étudiantes participant à une série de conférences américaines pour les femmes étudiant la physique (en premier cycle) a révélé que, sur 455 répondantes, 338 disent avoir subi une forme de harcèlement sexuel. En France, les filles sont nombreuses (70 %) à s’engager vers la classe préparatoire scientifique "Biologie, Chimie, Physique, Sciences de la Terre (BCPST)" en restant minoritaires dans les autres préparations scientifiques (Pons, 2007). Leur attrait pour le « bio-véto » reste bien plus marqué que pour la physique, probablement en raison d'une transmission sociale des stéréotypes de genre. en 1989, Archer et Freedman ont montré que du point de vue scolaire pour les parents et enseignants les matières telles que la mécanique, la physique, la chimie et les mathématiques étaient encore considérées comme "masculines", pendant que l’anglais, la biologie, la psychologie, le français et la sociologie étaient jugées être des matières "féminines".La vulgarisation en physique cherche à faire comprendre les principes et objets physiques sans utiliser de termes ou concepts non expliqué préalablement. De nombreuses équipes participent régulièrement à des rencontres entre le grand public et les chercheurs, où différents sujets et résultats scientifiques sont expliqués. Elle est devenue en Europe un enjeu sociopoligique important au moment de la révolution française et plus encore avec la révolution industrielle. Les chercheurs en physiques ont aussi une mission de vulgarisation, dont au CNRS en France par exemple mais l'essentiel de la vulgarisation se fait progressivement via l'école et l'enseignement pour l'acquisition des savoirs de base (qui ont beaucoup évolué depuis deux siècles) puis via les médias tout au long de la vie. En complément de la littérature de vulgarisation scientifique et du travail (publications, conférences...) de certaines sociétés savantes puis des expositions universelles ; après que la radio puis la télévision aient participé à cette vulgarisation ; à partir des années 1990 les NTIC puis le WEB 2.0 ont bouleversé la vulgarisation scientifique (et de la physique en particulier). Aujourd'hui de nombreux sites internets (Wikipédia...) permettent de trouver toutes les informations utiles, du niveau basique à celui de l'expertise et la visualisation de données ("data visualisation") a beaucoup progressé. Certains musées se sont spécialisés dans le domaine de la physique, avec par exemple en France le Palais de la Découverte Dans la sphère de l'éducation universitaire Richard Feynman a permis par ses ouvrages de construire "ex nihilo", une expérience empirique de la physique moderne.Notons que la "Physique" d'Aristote n'a rien à voir avec la science moderne dénommée la physique. La taxonomie aristotélicienne, d'essence philosophique, a même été le plus farouche adversaire de la science moderne.De nombreux domaines de recherche combinent la physique avec d'autres disciplines.
La physique est la science qui essaie de comprendre, de modéliser et d'expliquer les phénomènes naturels de l'univers. Elle correspond à l'étude du monde qui nous entoure sous toutes ses formes, des lois de sa variation et de son évolution.
xwikis
La linguistique théorique est souvent divisée en domaines séparés et plus ou moins indépendants :Alors que la linguistique synchronique s'attache à décrire les langues à un moment donné de leur histoire (le plus souvent le présent), la linguistique diachronique examine comment les langues évoluent au cours du temps — que ces changements concernent la prononciation (on parle alors de phonétique historique), le sens et l'histoire des mots (c'est là l'étymologie qui est concernée), voire plusieurs aspects — parfois à travers plusieurs siècles. Le premier à avoir distingué ces deux types d'études est Ferdinand de Saussure. La linguistique historique jouit d'une longue et riche histoire. C'est d'ailleurs de cette branche de la linguistique que sont nées les autres approches. Elle repose sur des postulats théoriques jugés solides (comme les lois phonétiques). Une discipline comme la linguistique comparée repose principalement sur une optique historique.La linguistique peut évidemment s'attacher à une langue en particulier (par exemple au français, et on parle alors de linguistique française) ou à un groupe de langues (exemples : linguistique romane, linguistique germanique, linguistique finno-ougrienne, linguistique indo-européenne) ou à des langues géographiquement groupées (exemples : linguistique balkanique, linguistique africaine). Au contraire de la linguistique théorique, qui cherche à décrire, de manière générale, une langue donnée ou le langage humain, la linguistique appliquée se sert de ces recherches pour les appliquer à d'autres domaines comme la didactique des langues, la pathologie du langage, la lexicographie (ou dictionnairique), la synthèse ou la reconnaissance vocale (ces deux dernières approches étant ensuite utilisées en informatique pour fournir des interfaces vocales, par exemple), l'intelligence artificielle.La linguistique contextuelle est un domaine dans lequel la linguistique interagit avec d'autres disciplines. Elle étudie par exemple comment le langage interagit avec le reste du monde. La sociolinguistique, la linguistique anthropologique et l'anthropologie linguistique sont des domaines ressortissant à la linguistique contextuelle dans lesquels on étudie les liens entre le langage et la société. Dans le contexte juridique, la jurilinguistique examine les signes et énoncés linguistiques que le droit emploie et produit. De même, l'analyse critique du discours est un point de rencontre entre la rhétorique, la philosophie et la linguistique. Il est ainsi possible de parler d'une philosophie du langage. D'autre part, l'étude médicale du langage conduit à des approches psycholinguistique et neurolinguistique. Enfin, appartiennent aussi à la linguistique contextuelle des domaines de recherches comme l'acquisition du langage, la linguistique évolutionniste, la linguistique stratificationnelle ainsi que les sciences cognitives.Plusieurs approches linguistiques sont possibles selon l'étendue de l'objet d'étude : certains analysent la langue d'un locuteur donné, d'autres des développements généraux sur la langue. On peut aussi étudier la langue d'une communauté bien précise, comme l'argot des banlieues ou bien rechercher les caractéristiques universelles du langage partagées par tous les hommes. C'est cette dernière approche, la linguistique générale, dont le pionnier a été Ferdinand de Saussure, qui a été retenue par Noam Chomsky et qui trouve des échos en psycholinguistique et dans les sciences cognitives. On peut penser que ces caractéristiques universelles sont susceptibles de révéler des éléments importants concernant la pensée humaine en général. Voir par exemple les fonctions du langage.Les linguistes utilisent une démarche purement descriptive lors de leurs recherches. Ceux-ci cherchent à décrire la langue telle qu’elle est utilisée et expliquer la nature du langage, sans porter de jugements. Les dimensions pour décrire la linguistique incluent la phonétique, la phonologie, la syntaxe, la lexicologie et la sémantique. C’est ce qui est utilisé pour déterminer les différences entre les accents et dialectes régionaux d’une même langue. La démarche prescriptive ou normative cherche à décrire comment une langue doit être utilisée. Cela inclut l’application des règles et conventions linguistiques et grammaticales pour déterminer si une langue est bien utilisée ou non. La linguistique prescriptive/normative est la langue qui est enseignée lorsqu’une personne apprend une langue, c'est considéré comme le « standard » de la langue. La prescription est souvent appliquée à l’écriture, mais peut aussi être utilisée pour la parole. La linguistique prescriptive pourrait aussi analyser un accent ou dialecte régional et le comparer à la langue « standard », pour déterminer ce que le locuteur fait d’incorrect dans la parole. Lorsqu’il y a une correction d’un texte écrit, ces corrections sont aussi un exemple de linguistique prescriptive. Par exemple, avec la phrase "« il veux pas que tu va rendre visite lui »,"la linguistique descriptive décrira cette phrase avec les sons utilisés, les terminaisons utilisées, les mots utilisés et la structure de la phrase utilisée. Les grammairiens descriptifs décriront la démarche mentale lorsqu’une personne a écrit cette phrase. La linguistique prescriptive aurait plus de jugements, en décrivant qu'il y a plusieurs erreurs grammaticales et syntaxiques présentes. Les grammairiens prescriptifs diraient que la phrase est agrammaticale et donneraient probablement la version corrigée de la phrase "« il ne veut pas que tu ailles lui rendre visite »". La plus grande différence entre les deux démarches est que l’une observe une langue de façon objective et sans jugements pendant que l’autre observe une langue de façon subjective, en déterminant ce qui est bien écrit ou non.La plupart des travaux en linguistique, à l'heure actuelle, partent du principe que la langue parlée est première, et que la langue écrite n'en est qu'un reflet secondaire. Plusieurs raisons sont évoquées : Bien sûr, les linguistes reconnaissent que l'étude de la langue écrite est loin d'être inutile. L'étude de corpus écrits, à cet égard, est primordiale en linguistique informatique, les corpus oraux étant difficiles à créer et à trouver. D'autre part, l'étude des systèmes d'écriture, ou grammatologie, ressortit pleinement à la linguistique. Enfin, les langues dotées d'une tradition écrite ancienne ne sont pas imperméables à des effets rétroactifs de l'écrit sur l'oral : le mot français "legs", par exemple, dans lequel le "g" n'est pas étymologique, est le plus souvent prononcé /lεg/, par influence de la graphie, alors qu'à l'origine on disait /le/.Phonétique, phonologie, diglossie, syntaxe, sémantique, pragmatique, étymologie, lexicologie, lexicographie, linguistique théorique, linguistique comparée, sociolinguistique, dialectologie, linguistique descriptive, psycholinguistique, typologie des langues, linguistique informatique, sémiotique, écriture, cohérence du langage naturel, etc., sont parmi les domaines les plus courants.Linguistique appliquée, linguistique cognitive, linguistique historique, orthographe, grammatologie, cryptanalyse, déchiffrement, anthropologie linguistique, linguistique anthropologique, analyse critique du discours, psycholinguistique, acquisition du langage, traitement automatique des langues, reconnaissance vocale, reconnaissance du locuteur, synthèse vocale et, plus généralement, traitement de la parole, sont de telles disciplines. Il est visible que la linguistique comprend de divers chantiers de recherche. La créolistique qui s’est donné la tâche d’étudier les langues issues du colonialisme (exemples : papiamentu de Curazao, la langue de Cabo Verde) devient de plus en plus importante.Les recherches linguistiques sur le genre recouvrent une grande diversité de travaux en sciences humaines et sociales et en sciences du langage. Le foisonnement des travaux sur le langage, la langue, le discours, le genre, le sexe et les sexualités donne une visibilité et une légitimité à ce champ de recherche : langage et genre. Les études sur le genre et le langage se sont développés dans le sillage des sociolinguistiques américaines. Les premiers travaux étudient la pratique de la langue par les femmes ; leur vocabulaire serait moins important que celui des hommes, les hommes et les femmes ne parleraient pas la même langue. La langue des hommes serait la langue de référence et celle des femmes la langue dite «faible», les femmes présentant un déficit cognitif et linguistique. Ce paradigme sexiste perdure jusque dans les années 1970. Il est remis en cause par l'anthropologie linguistique et culturelle qui s'intéresse à la domination exercée par les hommes sur les femmes à travers le langage. L'étude des genres et des styles discursifs dans des sociétés non occidentales permet de souligner que les parlers masculin et féminin relèvent de stéréotype sexistes. De même, dès les années 1940, des recherches ont tenté d'identifier un parler gai et lesbien. Ces recherches présupposaient l'existence d'une identité homosexuelle universelle. Déborah Cameron et Don Kulick en font une critique sévère dans leur ouvrage "The language and sexuality reader" publié en 2006. C'est finalement l'ouvrage de Robin Lakoff, "Language and women's place", publié en 1975 qui marque la naissance des études sur le genre et le langage aux États-Unis. Il appréhende les pratiques linguistiques des femmes comme effets de la domination masculine. Les recherches linguistiques sur les styles de communication et interactionnels attribuent les différences à des socialisations différenciées. Les compétences communicationnelles féminines sont valorisées. Ce paradigme rencontre un large public avec le succès de l'ouvrage "Décidément, tu ne me comprends pas!" de Déborah Tannen publié en 1993. Dans le même temps, de nombreux travaux francophones analysent le sexisme de la langue française. Des travaux féministes questionnent les liens entre langue, sexage, sexisme et sexualité. En 1978, Marina Yaguello étudie l'aliénation des femmes dans et par la langue, dans son essai "Essai d'approche sociolinguistique de la condition féminine". Au Québec, puis en Suisse et en Belgique les premières recommandations pour la féminisation des noms de métiers et fonctions sont publiées. En France, le débat se cristallise, dès les années 1980. "Parlers masculins, parlers féminins", publié en 1983, par Véréna Aebischer et Claire Forel interroge les stéréotypes linguistiques et les stratégies conversationnelles et propose de dépasser la perspective différentialiste. Des travaux de sémiologie, de sémantique, de lexicologie mettent au jour les dissymétries lexicales, les désignations péjorantes des femmes, l'occultation des femmes par le masculin dit «générique». Ces travaux font le parallèle entre la dévalorisation et l'invisibilisation du féminin dans la langue et les femmes dans la société. Trois ouvrages marquent une étape importante pour la recherche linguistique sur le genre en France. Il s'agit de "Langage, genre et sexualité" sous la direction d'Alexandre DuChêne et Claudine Moïse, publié en 2001, "Intersexion : langues romanes, langues et genre" de Fabienne Baider en 2011 et de "La face cachée du genre. Langage et pouvoir des normes" de Natacha Chetcuti et Luca Gréco en 2012. Ces recherches rejoignent parfois la linguistique queer qui remet en cause la binarité de sexe et les systèmes de catégorisations. Il ne s'agit plus d'étudier le parler des hommes, des femmes, des gays, des lesbiennes mais comment les normes sont construites et inscrites dans la langue et comment les personnes les construisent ou les déconstruisent dans le discours. La recherche linguistique sur le genre en montrant l'inscription des normes dans la langue et en remettant en cause leur immuabilité participent à la déstabilisation de ces normes.Parmi les premiers linguistes d'importance, il convient de compter Jacob Grimm, qui, en 1822, a compris et décrit la nature des modifications phonétiques touchant les consonnes dans les langues germaniques (modifications décrites dans la loi de Grimm). À sa suite, Karl Verner, inventeur de la loi portant son nom, August Schleicher, créateur de la "Stammbaumtheorie" et Johannes Schmidt, qui a développé la "Wellentheorie" (modèle par vagues) en 1872. Ferdinand de Saussure peut être considéré comme le fondateur de la linguistique structuraliste (ce terme lui étant postérieur) et, pendant longtemps, comme le père de la linguistique moderne. Il s'est opposé au behaviorisme. Edward Sapir, linguiste et anthropologue américain, contemporain de F. de Saussure, développa, au début du, sa théorie dite du relativisme linguistique. Celle-ci démontre que le langage n'est pas qu'un moyen de communication. Il peut aussi servir de représentation symbolique des objets. Sapir, par ce biais, donne au langage une fonction expressive et symbolique. Dans les années 1920, Roman Jakobson fut l'un des chefs de file du formalisme russe et du Cercle linguistique de Prague (invention de la phonologie). Gustave Guillaume, s'opposant à Saussure, étudie la langue d'un point de vue plus phénoménologique ("Temps et verbe", 1929). De nombreux adeptes perpétuent ou redécouvrent aujourd'hui sa théorie. Le modèle formel du langage développé par Noam Chomsky, ou grammaire générative et transformationnelle, s'est développé sous l'influence de son maître distributionnaliste, Zellig Harris, lequel suivait déjà fortement les préceptes distributionalistes de Leonard Bloomfield. Ce modèle s'est imposé depuis les années 1960 dans le domaine de la linguistique cognitive (compétence et performance). En France, les travaux du linguiste André Martinet, chef de file du fonctionnalisme, sont notables, ainsi que ceux de Gustave Guillaume, d'Antoine Culioli et de Lucien Tesnière. La linguistique n'exclut pas forcément le grand public, pas plus que la sémiotique : témoins les ouvrages de vulgarisation d'Henriette Walter, d'Umberto Eco ou de Jean-Marie Klinkeberg. Sur les applications en communication, il faut noter les travaux de Roman Jakobson, qui a établi un modèle linguistique de communication, composé de six fonctions associées à des agents de communication.Il existe de nombreuses méthodes utilisées pour transcrire par écrit la parole, comme l'Alphabet phonétique international de l'Association phonétique internationale, ou "API", méthode la plus commune actuellement. Celles-ci peuvent tendre à une extrême précision (on parle de "transcription fine") et tenter de représenter les particularités phonétiques d'un locuteur précis, ou bien ne décrire que très généralement les oppositions fondamentales entre phonèmes d'une langue ; il s'agit là de transcription phonologique (ou "phonétique large"). En France, d'autres systèmes existent, comme la notation de Bourciez, propre à la phonétique historique du français et, plus généralement, des langues romanes. Chaque pays doté d'une tradition linguistique a pu développer ses systèmes de transcription. C'est pourtant l'API qui, aujourd'hui, prédomine dans la recherche. Lorsqu'il n'est pas possible d'utiliser l'API pour des raisons techniques, il existe plusieurs méthodes permettant de transcrire l'API dans un système n'utilisant que des caractères présents dans tous les jeux de caractères, comme le SAMPA. Consulter aussi.Avec une approche sociologique de la discipline, les termes de "linguistique" et "linguiste" ne sont pas toujours appliqués de manière aussi large que vu plus haut. Dans certains contextes, principalement universitaires, de meilleures définitions pourraient être, respectivement, « discipline que l'on étudie dans les départements relevant de la section 07 du Conseil national des universités » et « enseignant-chercheur d'un tel département ». La linguistique ainsi considérée ne renvoie pas à l'apprentissage des langues étrangères (à moins que cet apprentissage ne permette de créer des modèles formels de description des langues). Elle n'inclut pas non plus l'étude littéraire. En règle générale, il convient de prendre conscience qu'un linguiste n'est pas forcément un polyglotte. En effet, la maîtrise complète d'une langue n'est pas une condition nécessaire (ni même suffisante) pour étudier et décrire certains aspects de son "fonctionnement" (c'est, par exemple, le cas en phonétique, où l'étude de la production des sons d'une langue n'implique pas la connaissance de sa syntaxe). Lorsqu'un linguiste s'intéresse à une langue dont il n'est pas particulièrement familier, il consulte généralement des locuteurs natifs, que l'on appelle des "informateurs".
La linguistique est une discipline scientifique s’intéressant à l’étude du langage. Elle se distingue de la grammaire, dans la mesure où elle n'est pas prescriptive mais descriptive. La prescription correspond à la norme, c'est-à-dire ce qui est jugé correct linguistiquement par les grammairiens. À l'inverse, la linguistique se contente de décrire la langue telle qu'elle est et non telle qu'elle devrait être.
xwikis
Les électrons des matériaux métalliques purs ou alliés se distribuent dans des niveaux d'énergie formant un continuum entre la bande de valence, occupée par les électrons de valence, et la bande de conduction, occupée par les électrons libres injectés thermiquement depuis la bande de valence par-delà le niveau de Fermi. Ces électrons libres forment une liaison métallique délocalisée dans tout le volume du matériau. On peut se représenter un métal comme un réseau tridimensionnel de cations métalliques baignant dans un fluide d'électrons très mobiles. Le modèle de l'électron libre permet de calculer la conductivité électrique ainsi que la contribution des électrons à la capacité calorifique et à la conductivité thermique des métaux, bien que ce modèle ne tienne pas compte de la structure du réseau cristallin du métal. Certains matériaux, comme les intermétalliques, présentent des liaisons partiellement métalliques et sont donc à la limite des céramiques. La nature électronique particulière d'une liaison métallique est responsable de plusieurs propriétés macroscopiques des métaux : le fluide d'électrons libres assure à la fois une conductivité électrique et une conductivité thermique élevées en permettant la circulation d'un courant électrique et en favorisant la propagation des phonons dans le matériau ; elle rend compte de la ductilité, de la malléabilité et de la plasticité des métaux en maintenantDans le tableau périodique des éléments, les métaux occupent la gauche, le centre et une partie de la droite du tableau, séparés des non-métaux par les métalloïdes. Parmi les dont les propriétés chimiques ont été un tant soit peu caractérisées, on dénombre environ et. La ligne de démarcation entre métaux et non-métaux du tableau ci-contre est conventionnelle : elle est arbitraire et ne marque pas une rupture nette des propriétés macroscopiques entre éléments, dont la transition entre métaux et non-métaux est relativement continue, donnant lieu à la superposition de propriétés métalliques et non métalliques chez certains métalloïdes. De plus, un même élément peut exister selon plusieurs variétés allotropiques aux propriétés davantage métalliques pour les unes et davantage non métalliques pour les autres : un bon exemple est l'étain, qui existe d'une part sous une grise de structure cubique de type diamant, stable aux basses températures, aux propriétés métalloïdes proches d'un non-métal, et, d'autre part, sous une blanche de structure tétragonale, dont les propriétés sont celles d'un métal pauvre. Les propriétés des métaux eux-mêmes ne sont pas uniformes, et l'on a coutume de les classer en familles plus ou moins informelles qui rendent compte des différences de propriétés entre ces éléments.Les métaux purs ont le plus souvent une conductivité électrique, une conductivité thermique et une masse volumique élevées. L'argent est ainsi le meilleur conducteur électrique (), suivi par le cuivre (), l'or () et l'aluminium (). La conductivité électrique du fer est de, tandis que celle de l'acier au carbone 1010 (fer à 0,10 % de carbone) est de seulement, ce qui illustre l'effet des impuretés sur la conductivité des métaux. Bien que la plupart des métaux aient une masse volumique supérieure à celle de la plupart des non-métaux, celle-ci est très variable selon les matériaux considérés. Parmi les corps simples métalliques, le lithium est le moins dense ( à ) tandis que l'osmium est le plus dense (). Les métaux alcalins (dont fait partie le lithium) et alcalino-terreux sont les moins denses des métaux ; ils sont également les moins durs, et les métaux alcalins ont un point de fusion particulièrement bas : hormis le lithium, ils sont tous liquides à. La densité élevée deLa déformation élastique des métaux peut être modélisée par la loi de Hooke lorsque la déformation est une fonction linéaire de la contrainte. L'application de forces supérieures à la limite d'élasticité ou le chauffage peuvent conduire à une déformation permanente de l'objet, ce qui correspond à une déformation plastique. Cette modification irréversible deQuelques métaux présentent des propriétés magnétiques remarquables comme le ferromagnétisme. Ce sont notamment, à température ambiante, le fer, le cobalt et le nickel. Certaines terres raresLes métaux ont tendance à former des cations en perdant des électrons. Le sodium peut ainsi perdre un électron pour former le cation Na, le calcium deux électrons pour former le cation Ca, le fer deux électrons pour former le cation ferreux Fe ou trois électrons pour former le cation ferrique Fe. Ces ions métalliques se retrouvent en solution ou dans des sels, comme le chlorure de lithium LiCl ou le sulfure d'argent. Les métaux réagissent avec l'oxygène de l'air pour former des oxydes de façon plus ou moins rapide : le fer forme de la rouille en plusieurs mois, voire années, tandis que le potassium brûle en quelques secondes. Les réactions suivantes sont des exemples d'oxydation de métaux : Les métaux de transition tels que leUn alliage est un mélange de deux éléments chimiques ou davantage dont le principal constituant est un métal. La plupart des métaux purs sont trop mous, trop fragiles ou trop réactifs pour pouvoir être utilisés tels quels. Il est possible de moduler les propriétés des alliages en faisant varier les proportions relatives de leurs différents constituants. Il s'agit généralement de les rendre moins fragiles, plus durs, plus résistants à la corrosion, ou encore de leur donner une couleur et un éclat plus attrayants. De tous les alliages métalliques utilisés de nos jours, ceux du fer — acier,, acier à outils, acier au carbone, acier inoxydable, fonte par exemple — en représentent l'essentiel de la production, aussi bien en valeur qu'en volume. Le fer allié au carbone donne des aciers de moins en moins ductiles et résistants à mesure que le taux de carbone augmente. L'addition de silicium donne du ferrosilicium, souvent allié à la fonte, tandis que l'addition de chrome, de nickel et de molybdène à des aciers au carbone (à plus de 10 %) donne de l'acier inoxydable. Outre les alliages de fer, ceux de cuivre, d'aluminium, de titane et de magnésium sont également importants d'un point de vue économique. Les alliages de cuivre sont connus sous forme de bronze depuis l'âge du bronze. Le billon était un alliage utilisé jusqu'au Moyen Âge pour faire des pièces de monnaie et constitué le plus souvent essentiellement deLes métaux présentent le plus souvent un état d'oxydation positif, c'est-à-dire qu'ils tendent naturellement à former des cations. Il existe cependant des anions métalliques, avec un état d'oxydation négatif, par exemple avec certains complexes carbonyles comme ou avec l'anion de sodium Na. Étymologiquement, un métal est une substance extraite d'une mine — μέταλλον en grec ancien. En pratique, les métaux sont généralement extraits sous forme de minerais contenant les éléments recherchés. Ces minerais peuvent chimiquement être de nature très diverse. Ce sont souvent des oxydes, comme la bauxite (minerai d'aluminium), l'ilménite (minerai de titane), l'hématite et la magnétite (minerais de fer), ou encore la pechblende (minerai d'uranium). Il peut également s'agir de sulfates, comme la chalcopyrite (minerai de cuivre), la sphalérite (minerai de zinc), la molybdénite (minerai de molybdène) ou encore le cinabre (minerai de mercure). Il existe par ailleurs des silicates, comme le béryl (minerai de béryllium), des carbonates comme la dolomite (minerai de magnésium), et bien d'autres types de composés. Une fois extraits des mines, les minerais sont traités pour isoler le métal recherché, le plus souvent par réduction chimique ouCertains métaux et alliages possèdent une résistance structurelle élevée par unité de masse, ce qui les rend utiles pour transporter des charges lourdes et résister à des chocs violents. Les alliages métalliques peuvent être conçus pour avoir une résistance élevée aux contraintes de cisaillement, de flexion et de déformation. Le même métal peut cependant être sujet à la fatigue à la suite de contraintes répétées ou d'un dépassement de la contrainte maximum. La résistance et la résilience des métaux a conduit à leur utilisation courante dans la construction des gratte-ciel et des ouvrages d'art ainsi que dans celle de tous types de véhicules, d'appareils et dispositifs, d'outils, de tuyaux, ou encore de voies ferrées. Les deux métaux les plus utilisés, le fer et l'aluminium, sont également les plus abondants dans l'écorce terrestre. Le fer est le plus utilisé des deux : il est à la base de toutes les grandes constructions métalliques (poutre, rail, coque de navire). L'aluminium est presque toujours utilisé allié à d'autres métaux afin d'en améliorer les propriétés mécaniques, dans des applications tirant profit du fait qu'il est moins dense que le fer ( contre ) et meilleur conducteur électrique ( contre ) ; l'aluminium est parLes différents états d'oxydation, conformations, complexes ou formes transitoires représentent des espèces chimiques distinctes d'un élément et jouent un rôle majeur dans l'élaboration, la corrosion, ainsi que sur leur biodisponibilité et leur toxicité ou écotoxicité. Certaines espèces d'éléments traces métalliques (ÉTM) sont plus facilement assimilables par les organismes que d'autres, ce qui engendre des effets bénéfiques ou néfastes selon la nature et la concentration du métal (élément essentiel ou non). Il ne faut pas confondre la spéciation chimique d'un élément avec son fractionnement ou sa partition. La littérature scientifique confond quelquefois ces concepts ce qui complexifie les recherches dans ces domaines. Cette section décrit donc les principales catégories d'espèces chimiques relatives aux ÉTM et présente des exemples d'espèces chimiques de niveau toxique varié.Comme indiqué précédemment, les métaux se trouvent en général naturellement dans des minerais ; ils sont à l'état oxydé. Par exemple, le fer se trouve à l'état Fe(III) dans l'hématite, à l'état Fe(II) et Fe(III) dans la magnétite, l'aluminium dans l'état Al(III) dans la bauxite... La métallurgie primaire consiste essentiellement en la réduction du minerai pour obtenir un état d'oxydation (0). À l'inverse, en réagissant avec l'environnement, le métal va s'oxyder et se dissoudreLa composition isotopique de quelques éléments influence leur abondance ou leur toxicité dans l'environnement. Par exemple, le plomb comporte une vingtaine d'isotopes dont quatre sont stables : Pb, Pb, Pb et Pb. Les Pb et Pb proviennent de la dégradation de l'uranium et le Pb résulte de la dégradation du thorium, deux éléments radioactifs ; ainsi, l'abondance de ces isotopes s’accroît dans le temps, et la composition isotopique du plomb évolue donc selon les sources d'émission stimulées. Un autre exemple intéressant de variation de la toxicitéLes métaux s'allient souvent à des ligands inorganiques pour former des composés ou complexes inorganiques possédant des propriétés physico-chimiques différentes. Par exemple, la charge, la solubilité, le coefficient de diffusion ou la force de liaison de cesLes composés organiques tel les sucres, acides organiques, lipides ou autres composés organiques de faible poids moléculaire ont des affinités plus ou moins importantes avec les métaux. Certains d'entre eux, des acides organiques comme l'acide citrique et l'acide malique, contiennent un groupement fonctionnel (l'hydroxylcarboxyle) qui se lie facilement aux métaux et qui diminuent leur biodisponibilité; ces composés sont très étudiés enLes composés organométalliques contiennent une liaison entre le carbone et le métal. Cette liaison peut être de nature covalente ou ionique; par exemple, les liaisons carbone-sodium et carbone-potassium sont fortement ioniques, les liaisons carbone-étain, carbone-plomb et carbone-mercure sont fortement covalentes et les liens carbone-lithium et carbone magnésium se situent entre la liaison ionique et la liaison covalente. Par exemple, la bioalkylation, c'est-à-dire laLes composés ou complexes macromoléculaires sont à la limite de représentation des espèces chimiques. Ils forment malgré tout une catégorie distincte car ils jouent un rôle particulièrement important dans la biodisponibilité des métaux pour les organismes vivants. En effet, les acides humiques et fulviques résultant de la biodégradation de la matière organique sont des anions mobilisant lesLa spéciation des métaux dans les phases aqueuses et solides est influencée par plusieurs paramètres (Voir aussi section Environnement de cette page) : Cette spéciation implique que l'équilibre chimique est atteint. Or, la complexation des métaux avec les ligands inorganiques est très rapide car ils sont nombreux dans la phase aqueuse, mais la complexation des métaux avec les ligands organiques nécessite plus de temps car les sites d'adsorption ou d'attachement sont moins accessibles.Le développement de nombreuses industries telles que l'électronique, les technologies de l'information et de la communication, et l'aéronautique, et le pari du « tout technologique » dans la recherche du rendement et de l'efficacité, ont conduit à une augmentation sans précédent de la production et de la consommation de métaux. La période de croissance de 1990 à 2010 a conduit à un doublementDepuis très longtemps les mines de certains métaux (précieux ou communs mais indispensables à l'industrie), les installations de raffinage, voire certains secrets de fabrication étaient considérés comme d'intérêt stratégique par les États. Les raisons militaires et l'avènement des armes et munitions métalliques puis de l'énergie et de l'arme nucléaire ont accru l'importance de certains métaux. Même pour des métaux géologiquement non rares comme le cuivre, mais faisant l'objet d'un marché fluctuant, de fortes hausses de cuivre se traduisent aussi par l'accroissement de vols de métaux (à titre d'exemple, en France, en 2010, RFF et la SNCF ont subi de cuivre (quatre fois plus qu'en 2009) qui ont causé des dysfonctionnements et "plusieurs dizaines de millions d'euros de préjudiceContrairement aux composés organiques, les métaux ne sont pas biodégradables par les micro-organismes. Cette caractéristique engendre certains problèmes de gestion de la contamination métallique. En effet, le sort des métaux dans l’environnement pose de grands défis analytiques ; les métaux se retrouvent sous plusieurs formes dans le sol et dans l'eau (complexe avec la matière organique du sol, avec les minéraux, précipitation, ions libres) complexifiant les prédictions de toxicité et d'écotoxicité.La toxicité et l'écotoxicité des métaux dans les sols sont étroitement liées à leurs caractéristiques propres (radioactivité éventuelle et type de radioactivité, métal lourd, toxicité chimique, micro ou nanoparticules), spéciation chimique et biodisponibilité ; plus l'espèce métallique est libre et mobile, plus elle est biodisponible et plus il y a un risque de toxicité sur les organismes vivants. En général,Pour aller de la mine à un objet façonné, il faut passer par de nombreuses étapes et utiliser beaucoup d'équipements qui consomment de l'énergie. Les métaux étant pratiquement tous sous forme d'oxydes ou de sulfures dans la nature, il faut, pour les obtenir sous forme métallique, fournir l'énergie nécessaire à casser les liaisons chimiques correspondantes. L'empreinte énergétique d'un métal est la quantité d'énergie nécessaire pour obtenir du métal pur. Dans ce qui suit, la quantité d'énergie est mesurée en tep (tonne équivalent pétrole), pour une tonne de métal pur. Pour obtenir l'énergie « contenue » dans un métal « neuf », issu de la première transformation du minerai, ilEn planétologie, les métaux sont les matériaux les plus, comme le fer ou le nickel, qui composent le cœur des planètesEn cosmologie, on appelle métaux tous les éléments autres que l'hydrogène et l'hélium.
En chimie, les métaux sont des matériaux dont les atomes sont unis par des liaisons métalliques. Il s'agit de corps simples ou d'alliages le plus souvent durs, opaques, brillants, bons conducteurs de la chaleur et de l'électricité. Ils sont généralement malléables, c'est-à-dire qu'ils peuvent être martelés ou pressés pour leur faire changer de forme sans les fissurer, ni les briser. De nombreuses substances qui ne sont pas classées comme métalliques à pression atmosphérique peuvent acquérir des propriétés métalliques lorsqu'elles sont soumises à des pressions élevées. Les métaux possèdent de nombreuses applications courantes, et leur consommation s'est très fortement accrue depuis les années 1980, au point que certains d'entre eux sont devenus des matières premières minérales critiques.
xwikis
Le mot « mathématique » vient du grec par l'intermédiaire du latin. Le mot () est dérivé du verbe () (« apprendre »). Il signifie « science, connaissance » puis « mathématiques » de ; il a donné naissance à l'adjectif (), d'abord « relatif au savoir » puis « qui concerne les sciences mathématiques ». Cet adjectif a été adopté en latin () et dans les langues romanes par la suite (« mathématique » en français, en italien), ainsi que dans de nombreuses autres langues. La forme neutre de l'adjectif a été substantivée en () pour désigner les sciences mathématiques dans leur ensemble. Cette forme plurielle, utilisée par Aristote, explique l'usage du pluriel pour le substantif en latin chez Cicéron () puis en français et dans certaines autres langues européennes. L'usage du pluriel est un héritage de l'époque antique, où le quadrivium regroupait les quatre arts dits « mathématiques » : l'arithmétique, la géométrie, l'astronomie et la musique. Le singulier (« la mathématique ») est parfois employé en français, mais « le mot donne alors au contexte une teinte d'archaïsme ou de didactisme ». Toutefois, certains auteurs, à la suite de Nicolas Bourbaki, insistent sur l'utilisation du singulier, pour montrer l'uniformisation apportée par l'approche axiomatique contemporaine : Jean Dieudonné semble être le premier à avoir insisté sur ce point, et le vaste traité de Bourbaki (dont il est l'un des principaux rédacteurs) s'intitule "Éléments de mathématique", tandis que, par contraste, le fascicule historique qui l'accompagne a pour titre "Éléments d'histoire des mathématiques". Cédric Villani préconise l'utilisation du singulier pour affirmer l'unité du domaine. Dans l'argot scolaire, le terme « mathématiques » est fréquemment apocopé en « maths », parfois aussi écrit « math ».Il est probable que l'homme a développé des compétences mathématiques avant l'apparition de l'écriture. Les premiers objets reconnus attestant de compétences calculatoires sont les bâtons de comptage, tels que l'os d'Ishango (en Afrique) datant de avant notre ère. Le développement des mathématiques en tant que connaissance transmise dans les premières civilisations est lié à leurs applications concrètes : le commerce, la gestion des récoltes, la mesure des surfaces, la prédiction des événements astronomiques, et parfois l'exécution de rituels religieux. Les premiers développements mathématiques concernaient l'extraction des racines carrées, des racines cubiques, la résolution d'équations polynomiales, la trigonométrie, le calcul fractionnaire, l'arithmétique des entiers naturels... Ils s'effectuèrent dans les civilisations akkadienne, babylonienne, égyptienne, chinoise ou encore de la vallée de l'Indus. Dans la civilisation grecque, les mathématiques, influencées par les travaux antérieurs et les spéculations philosophiques, recherchent davantage d'abstraction. Les notions de démonstration et de définition axiomatique sont précisées. Deux branches se distinguent, l'arithmétique et la géométrie. Au, les "Éléments d'Euclide" résument et ordonnent les connaissances mathématiques de la Grèce. Les mathématiques chinoises et indiennes (plus précisément de la vallée de l'Indus) sont parvenues en occident par la civilisation islamique à travers la conservation de l'héritage grec et l'interfécondation avec les découvertes, notamment en matière de représentation des nombres. Les travaux mathématiques sont considérablement développés tant en trigonométrie (introduction des fonctions trigonométriques) qu'en arithmétique. L'analyse combinatoire, l'analyse numérique et l'algèbre polynomiale sont inventées et développées. Durant la « renaissance du », une partie des textes grecs et arabes sont étudiés et traduits en latin. La recherche mathématique se concentre en Europe. Au se développe - avec notamment Pierre de La Ramée - l'idée qu'il existe une science universelle () sur laquelle il est possible de fonder l'ensemble des connaissances. Descartes voit dès 1629, dans les "Règles pour la direction de l'esprit", les possibilités qu'offrent les mathématiques pour jouer ce rôle. Descartes souligne, dans le "Discours de la méthode", l'attrait des mathématiques, « à cause de la certitude et de l'évidence de leurs raisons ». Le calcul algébrique se développe alors à la suite des travaux de Viète et de Descartes. Newton et Leibniz, indépendamment, inventent le calcul infinitésimal. Au, Galilée se rend compte que les mathématiques sont l'outil idéal pour décrire le monde physique, ce qu'on peut résumer en disant que les lois de la Nature sont écrites en langage mathématique. Les mathématiques constituent donc, avec la démarche expérimentale, l'un des deux piliers du développement de la Science moderne. Au cours du et du, les mathématiques connaissent de forts développements avec l'étude systématique des structures, à commencer par les groupes issus des travaux de Galois sur les équations polynomiales, et les anneaux introduits par Dedekind. Le voit avec Cantor et Hilbert le développement d'une théorie axiomatique sur tous les objets étudiés, soit la recherche des fondements mathématiques. Ce développement de l'axiomatique conduira plusieurs mathématiciens du à chercher à définir toutes les mathématiques à l'aide d'un langage, la logique mathématique. Le a connu un fort développement en mathématiques avec une spécialisation des domaines, et la naissance ou le développement de nombreuses nouvelles branches (théorie de la mesure, théorie spectrale, topologie algébrique et géométrie algébrique, par exemple). L'informatique a eu un impact sur la recherche. D'une part, elle a facilité la communication et le partage des connaissances, d'autre part, elle a fourni un formidable outil pour la confrontation aux exemples. Ce mouvement a naturellement conduit à la modélisation et à la numérisation.Des découpages des mathématiques en deux, trois ou quatre domaines différents sont proposés : algèbre et analyse, ou bien algèbre, analyse et géométrie, ou bien algèbre, analyse, géométrie et probabilités. De tels découpages ne sont pas évidents et les frontières les séparant sont toujours mal définies. En effet, de nombreux résultats font appel à des compétences mathématiques variées. Le théorème de Fermat-Wiles, établi en 1994, en est un exemple. Bien que l'énoncé en soit formulé de manière dite arithmétique, la preuve nécessite de profondes compétences en analyse et en géométrie.L'algèbre est l'ensemble des méthodes mathématiques visant à étudier et développer les structures algébriques et à comprendre les relations qu'elles entretiennent entre elles. L'algèbre, au sens actuel, trouve historiquement ses origines dans la compréhension des équations polynomiales et dans les développements des méthodes de résolution : les recherches dans ces domaines ont suscité l'émergence des notions qui fondent la théorie des groupes, la théorie de Galois ou encore la géométrie algébrique. En un sens très restrictif, l'analyse est la partie des mathématiques s'intéressant aux questions de régularité des applications d'une variable réelle ou complexe : on parle alors plus volontiers d'analyse réelle ou d'analyse complexe. En un sens élargi, elle englobe toutes les méthodes mathématiques qui s'y apparentent, et un certain nombre de méthodes pour comprendre et analyser les espaces de fonctions. La géométrie tente de comprendre en premier lieu les objets dans l'espace, puis par extension s'intéresse aux propriétés d'objets plus abstraits, à plusieurs dimensions, introduits selon plusieurs approches, relevant autant de l'analyse que de l'algèbre. Les probabilités tentent de formaliser tout ce qui relève de l'aléatoire. Bien qu'anciennes, elles ont connu un renouveau avec la théorie de la mesure. La compréhension des lois aléatoires rendant compte au mieux des données déjà réalisées forme les statistiques.De nombreux domaines de recherche se situent transversalement par rapport au découpage donné ci-dessus :On fait parfois la distinction entre mathématiques pures et mathématiques appliquées : En France, cette distinction structure souvent les équipes de recherche, sans forcément hypothéquer les possibilités d'interactions entre elles. Toutefois, la pertinence de cette distinction est remise en cause par un certain nombre de mathématiciens. L'évolution des domaines et de leurs objets d'étude peut également contribuer à déplacer une éventuelle frontière ou notion de séparation. Selon une boutade d'Ian Stewart, auteur de nombreux ouvrages portant sur les mathématiques populaires, dans son œuvre intitulée "Mon cabinet des curiosités mathématiques",.Les mathématiques appliquées, en un sens mal définies, comprennent entre autres l'analyse numérique, les statistiques appliquées et la théorie de l'optimisation mathématique. Certains domaines de recherche des mathématiques sont nés à la frontière avec d'autres sciences (voir ci-dessous).Les questions traditionnelles que se pose la philosophie au sujet des mathématiques peuvent se classer selon trois thèmes : Les mathématiques sont parfois surnommées « reine des sciences ». Cependant, l'expression remonte à Carl Friedrich Gauss : et le mot signifie en réalité « des connaissances ».Censément, les mathématiques utilisent la logique comme outil pour démontrer des vérités organisées en théories. Une première analyse laisse espérer qu'une utilisation puissante de cet outil tellement sûr, une réduction toujours plus poussée des bases, les axiomes, sur lesquelles s'échafaude l'édifice mathématique, finissent par mener à un corpus de faits incontestables. Plusieurs obstacles se dressent pourtant. D'une part, en tant qu'activité humaine, les mathématiques s'éloignent du modèle d'une construction suivant scrupuleusement les lois de la logique et indépendante du réel. Citons un fait et un phénomène pour illustrer cela. Tout d'abord, les démonstrations que rédigent les mathématiciens ne sont pas formalisées au point de suivre en détail les lois de la logique, car cela est impossible en un temps raisonnablement court. Comme pour n'importe quelle science. L'acceptation de la véracité d'une démonstration, et donc d'un théorème, repose sur un consensus de spécialistes au sujet de la validité de l'approximation de démonstration formelle proposée (La structure des révolutions scientifiques de Thomas Samuel Kuhn). L'avènement de l'informatique a cependant changé la donne, au moins marginalement, puisque celle-ci permet de formaliser et de vérifier des démonstrations de plus en plus complexes. Cependant l'activité mathématique est loin de se réduire à la recherche de démonstrations et à la vérification de celles-ci. La confiance que la communauté mathématique place dans un de ses membres qui propose un résultat nouveau intervient dans la réception qu'aura ce résultat, et ce d'autant plus s'il est inattendu ou modifie la façon de voir les choses. On peut prendre pour exemple historique les controverses sur les géométries non euclidiennes au, durant lequel les travaux de Lobatchevski ont été largement ignorés ; ou bien, dans un autre ordre d'idée, la difficulté de la réception des travaux du jeune républicain Galois au début du même siècle, notamment par Cauchy. La sociologie des mathématiques étudie de tels phénomènes (voir sociologie des sciences). D'autre part, la solidité même des bases ne peut reposer sur les seules mathématiques. En effet les théorèmes d'incomplétude, démontrés par Kurt Gödel dans la première moitié du, montrent que, contrairement à ce qu'espérait David Hilbert, il est impossible de réduire formellement les bases des mathématiques en un système dont la sûreté se démontre à partir de celles-ci, et cela entraîne que certaines propriétés considérées « vraies » resteront inaccessibles à la démonstration, quels que soient les axiomes choisis.L'enseignement des mathématiques peut aussi bien désigner l'apprentissage des notions mathématiques fondamentales ou élémentaires de base que l'apprentissage et l'initiation à la recherche ("enseignement supérieur des mathématiques"). Suivant les époques et les lieux, les choix des matières enseignées et les méthodes d'enseignement changent ("mathématiques modernes, méthode de Moore, éducation classique..."). Dans certains pays, le choix des programmes scolaires dans l'éducation publique est fait par des institutions officielles. Cédric Villani, dans une conférence TED, rappelle une difficulté importante et que l'enseignement des mathématiques ne résoudra pas à lui seul : le processus d'une découverte mathématique ne relève pas lui-même des mathématiques. George Pólya indiqua en revanche vers le milieu du quelques techniques permettant de résoudre des problèmes existants, dans son livre "Comment poser et résoudre un problème" ("How to solve it"). Vers la même époque quelques ouvrages proposaient d'acquérir les mécanismes de résolution par une multitude d'exercices proposés avec leur correction détaillée en regard. En France et pour les mathématiques, il y eut dans le secondaire les ouvrages de Pierre Louquet. Dans le monde anglophone et concernant un grand nombre de disciplines, la série des poursuit ce but.La recherche mathématique ne se limite pas qu'à la démonstration des théorèmes. L'une des méthodes les plus fructueuses de recherche mathématique est la mise en rapprochement de domaines éloignés en mettant en lumière des phénomènes analogues (par exemple, la géométrie euclidienne et les équations différentielles linéaires). L'identification de phénomènes analogues peut conduire à vouloir adapter des résultats d'un domaine des mathématiques à un autre, à reformuler des éléments de démonstration en termes équivalents, à tenter une axiomatisation d'un objet (par exemple, ce pourrait être la notion d'espace vectoriel) qui regrouperait les deux domaines... Dans ce dernier cas, ce nouvel objet deviendrait alors un objet d'étude par lui-même. Dans certains cas, l'identification d'objets différents devient nécessaire : le langage des catégories permet de faire ce genre de choses. Une autre méthode de recherche est la confrontation aux exemples et aux cas particuliers. Cette confrontation peut permettre de réfuter des propriétés qu'on pensait ou espérait être vraies (conjectures). Au contraire, elle peut permettre de vérifier des propriétés ou d'amener à les formaliser. Par exemple, en géométrie riemannienne, l'étude des surfaces (donc des objets en ) et de leurs géodésiques a finalement conduit Anosov à formaliser le difféomorphisme d'Anosov, une transformation possédant d'intéressantes propriétés dynamiques.Les mathématiques utilisent un langage qui leur est propre. Certains termes du langage courant, comme groupe, anneau, corps ou variété peuvent être empruntés et redéfinis pour désigner des objets mathématiques. Mais souvent des termes sont formés et introduits selon les besoins : isomorphisme, topologie, itération... Le nombre élevé de ces termes rend difficile la compréhension des mathématiques par les non mathématiciens. Le langage mathématique s'appuie aussi sur l'usage de formules. Elles comportent des symboles, les uns en rapport avec le calcul propositionnel comme le connecteur binaire d'implication formula_1 ou le connecteur unaire de négation formula_2, d'autres en rapport avec le calcul des prédicats, comme le quantificateur universel formula_3 ou le quantificateur existentiel formula_4. La plupart des notations utilisées au ont été introduites après le seulement. Il existe un langage mathématique qui décrit les mathématiques. En ce sens, on dit qu'il s'agit d'un métalangage : il s'agit de la logique mathématique.Les mathématiques entretiennent des rapports particuliers avec toutes les sciences, au sens large du terme. L'analyse de données (interprétation graphique, données statistiques...) fait appel à des compétences mathématiques variées. Mais des outils avancés de mathématiques interviennent dans les modélisations. Toutes les sciences dites dures, à l'exception des mathématiques, tendent à une compréhension du monde réel. Cette compréhension passe par la mise en place d'un modèle, prenant en compte un certain nombre de paramètres considérés comme causes d'un phénomène. Ce modèle constitue un objet mathématique, dont l'étude permet une meilleure compréhension du phénomène étudié, éventuellement une prédiction qualitative ou quantitative quant à son évolution future. La modélisation fait appel à des compétences relevant essentiellement de l'analyse et des probabilités, mais les méthodes algébriques ou géométriques s'avèrent utiles.Les mathématiques sont nées d'une volonté de compréhension de l'espace ambiant : la géométrie naît de la modélisation de formes idéalisées, et l'arithmétique des besoins des gestions des quantités. Astronomie et géométrie se sont longtemps confondues, jusque dans les civilisations islamiques. Les mathématiques et la physique, après s'être différenciées, ont gardé d'étroits liens. Dans l'histoire contemporaine de ces deux sciences, les mathématiques et la physique se sont influencées mutuellement. La physique moderne use abondamment des mathématiques, en faisant une modélisation systématique pour comprendre les résultats de ses expériences : Un domaine de recherche spécifique, la physique mathématique, tend précisément à développer les méthodes mathématiques mises à l'usage de la physique. Le lien étroit entre mathématiques et physique se reflète dans l'enseignement supérieur des mathématiques. L'enseignement de la physique fait appel à des cours de mathématiques pour physiciens ; et il n'est pas rare que les cursus de mathématiques dans les universités incluent une initiation facultative à la physique. Néanmoins, Albert Einstein est un des premiers à relativiser le domaine des mathématiques en rappelant que la physique en utilise "plusieurs" formes, au gré de ses besoins, et non une seule. Sa Théorie de la relativité générale utilise par exemple une géométrie non euclidienne formalisée par Minkowski. Il énoncera : « En tant que se rapportant à la réalité, la géométrie euclidienne n'est pas exacte. En tant qu'exacte, elle ne se rapporte pas à la réalité » (conférence berlinoise de 1921, "la géométrie et l'expérience").L'essor des techniques au a ouvert la voie à une nouvelle science, l'informatique. Celle-ci est étroitement liée aux mathématiques, de diverses manières : certains pans de la recherche en informatique théorique peuvent être considérés comme d'essence mathématique, d'autres branches de l'informatique faisant plutôt usage des mathématiques. Les nouvelles technologies de communication ont quant à elles ouvert la voie aux applications à des branches des mathématiques parfois très anciennes (arithmétique), notamment en ce qui concerne les problèmes de sécurité des transmissions : cryptographie et théorie des codes. En contrepartie, les sciences informatiques influencent l'évolution moderne des mathématiques. Les mathématiques discrètes forment un domaine de recherche actuel des mathématiques visant à développer les méthodes utilisées en science informatique, incluant la théorie de la complexité, la théorie de l'information, la théorie des graphes... Parmi les problèmes ouverts, citons notamment le célèbre P=NP en théorie de la complexité, qui fait partie des sept problèmes du prix du millénaire. Celui qui arrivera à décider si P et NP sont différents ou égaux recevra un montant de. L'informatique est également devenue un outil essentiel à la découverte ou à la démonstration de certains théorèmes mathématiques. L'exemple le plus célèbre est celui du Théorème des quatre couleurs, démontré en 1976 à l'aide d'un ordinateur, car certains des calculs nécessaires sont trop complexes pour être réalisés à la main. Cette évolution bouleverse les mathématiques traditionnelles, où la règle était que le mathématicien puisse vérifier de lui-même chaque partie de la démonstration. En 1998, la Conjecture de Kepler semble avoir également été démontrée par ordinateur, et une équipe internationale travaille depuis sur la rédaction d'une preuve formelle. En effet, si la preuve est rédigée de façon formelle, il devient alors possible de la vérifier à l'aide d'un logiciel particulier, appelé assistant de preuve. C'est la meilleure technique connue pour être (presque) certain qu'une démonstration assistée par ordinateur ne souffre d'aucun bug. En l'espace d'une trentaine d'années, le rapport entre les mathématiciens et l'informatique s'est donc complètement renversé : d'abord instrument suspect à éviter si possible dans l'activité mathématique, l'ordinateur est devenu au contraire un outil incontournable.La biologie est grande consommatrice de mathématiques et notamment de probabilités. La dynamique d'une population se modélise couramment par des chaînes de Markov (théorie des processus discrets) ou par des équations différentielles couplées. Il en va de même pour l'évolution des génotypes : le principe de Hardy-Weinberg, souvent évoqué en génétique, relève de propriétés générales sur les processus à temps discret (existence de lois limites). Plus généralement, la phylogéographie fait appel à des modélisations probabilistes. De plus, la médecine use de tests (statistiques) pour comprendre la validité de tel ou tel traitement. Un domaine spécifique de recherche à la frontière de la biologie est né : la biomathématique. Depuis le début du, la chimie organique a fait appel à l'informatique pour pouvoir modéliser les molécules en trois dimensions : il s'avère que la forme d'une macromolécule en biologie est variable et détermine son action. Cette modélisation fait appel à la géométrie euclidienne ; les atomes forment une sorte de polyèdre dont les distances et les angles sont fixés par les lois d'interaction. Les géologies structurales et climatologiques font appel à des modèles mêlant des méthodes probabilistes et analytiques, pour pouvoir prédire du risque de catastrophe naturelle. La complexité des modèles est telle qu'une branche de recherche est née à la frontière des mathématiques et de la géophysique, à savoir la géophysique mathématique. De même, la météorologie, l'océanographie et la planétologie sont grandes consommatrices de mathématiques car elles nécessitent des modélisations.Le rapport des mathématiques avec les sciences humaines se fait essentiellement par les statistiques et les probabilités, mais aussi par des équations différentielles, stochastiques ou non, utilisées en sociologie, psychologie, économie, finance, gestion d'entreprise, linguistique... La logique est depuis l'Antiquité l'une des trois grandes disciplines de la philosophie, avec l'éthique et la physique. Des philosophes comme Pythagore et Thales de Milet ont formalisé les célèbres théorèmes géométriques portant leur nom. « Que nul n'entre ici s'il n'est géomètre », était-il gravé sur le portail de l'Académie de Platon, pour qui les mathématiques sont un intermédiaire pour accéder au monde des Idées. Notamment, les mathématiques financières sont une branche des mathématiques appliquées visant à la compréhension de l'évolution des marchés financiers et de l'estimation des risques. Cette branche des mathématiques se développe à la frontière des probabilités et de l'analyse et use des statistiques. Beaucoup plus subtil est le cas de l'économie mathématique. Le postulat fondamental de cette discipline est que l'activité économique peut se comprendre à partir d'un axiome de nature anthropologique, celui de l'acteur individuel rationnel. Dans cette vision, chaque individu cherche par ses actions à accroître un certain profit, et ce de façon rationnelle. Cette sorte de vision atomiste de l'économie permet à celle-ci de mathématiser relativement aisément sa réflexion, puisque le calcul individuel se transpose en calcul mathématique. Cette modélisation mathématique en économie permet de percer à jour des mécanismes économiques qui n'auraient pu être découverts que très difficilement par une analyse « littéraire ». Par exemple, les explications des cycles économiques ne sont pas triviales. Sans modélisation mathématique, on peut difficilement aller au-delà du simple constat statistique ou des spéculations non prouvées. Toutefois, certains sociologues, comme Bourdieu, et même certains économistes, refusent ce postulat de l', en remarquant que les motivations des individus comprennent non seulement le don, mais dépendent également d'autres enjeux dont l'intérêt financier n'est qu'une partie, ou tout simplement ne sont pas rationnelles. La mathématisation est donc, selon eux, un habillage permettant une valorisation scientifique de la matière. On assiste également au début du, à une réflexion pour mettre les mouvements historiques en formule, comme le fait Nikolaï Kondratiev, qui discerne un cycle de base pour expliquer les phases d'expansion et de crise en économie politique, ou Nicolas-Remi Brück et Charles Henri Lagrange qui, dès la fin du, ont amplifié leur analyse jusqu'à pénétrer dans le domaine de la géopolitique, en voulant établir l'existence, dans l'histoire, de mouvements de vaste amplitude qui mènent les peuples à leur apogée, puis à leur déclin. Cependant une mathématisation des sciences humaines n'est pas sans danger. Dans l'essai polémique "Impostures intellectuelles", Sokal et Bricmont dénoncent la relation, non fondée ou abusive, d'une terminologie scientifique, en particulier mathématique et physique, dans le domaine des sciences humaines. L'étude de systèmes complexes (évolution du chômage, capital d'une entreprise, évolution démographique d'une population...) fait appel à des connaissances mathématiques élémentaires, mais le choix des critères de comptage, notamment dans le cas du chômage, ou de la modélisation peut être sujet à polémique.L'écologie utilise également un grand nombre de modèles pour simuler la dynamique des populations, étudier des écosystèmes comme le modèle proie-prédateur, mesurer les diffusions de pollutions ou évaluer les changements climatiques issus du réchauffement. Ces outils permettent de communiquer sur des données chiffrées, pour éventuellement les critiquer ou les confronter entre elles. Se pose alors le problème de la validation de ces modèles, notamment dans le cas où les résultats peuvent influer sur des décisions politiques et où l'existence de modèles contradictoires entre eux permet aux États de choisir le plus favorable à leur décision.Les mathématiques ont entretenu pendant longtemps des liens très étroits avec l'astrologie. Celle-ci, par le biais de thèmes astraux, a servi de motivation dans l'étude de l'astronomie. Des mathématiciens de renom furent également considérés comme des grands astrologues. On peut citer Ptolémée, les astronomes de langue arabe, Regiomontanus, Cardan, Kepler, ou encore John Dee. Au Moyen Âge, l'astrologie est considérée comme une science se rangeant dans les mathématiques. Ainsi Theodor Zwingler signale dans sa grande encyclopédie, concernant l'astrologie, que c'est une science mathématique traitant du et réserve aux mathématiques le soin de en prévoyant leurs. Les théories astrologiques occidentales contemporaines se targuent de suivre des méthodes scientifiques. En particulier, l'astrologie statistique utilise les tests statistiques pour mettre en évidence d'éventuelles corrélations entre la position des astres et le devenir des hommes. Toutefois, ces études initiées par Choisnard et Gauquelin, menées à la marge de la recherche scientifique, n'ont, en date de 2009, pas été productives et n'ont réussi à donner aucune preuve recevable d'un lien de cause à effet. Les mathématiques sont aussi une composante de l'ésotérisme. Très fréquemment, les mathématiciens eux-mêmes ont été tentés de trouver dans la figure ou le nombre un sens caché servant de clé dans la découverte du monde. Dans l'école pythagoricienne, chaque nombre a une signification symbolique et le serment des initiés se serait énoncé devant une tretraktys De même Platon ne se contente pas d'énumérer les solides qui portent son nom il attribue à chacun d'eux une nature (eau, terre, feu, air, univers). L'arithmosophie, la numérologie, la gématrie, l'arithmancie tentent, à travers des calculs sur les nombres, de trouver des significations cachées à des textes ou d'en extraire des propriétés prédictives. On retrouve cette fascination pour le nombre et la figure encore de nos jours où certains attribuent des vertus cachées à un pentacle ou un nombre d'or. Au, ces disciplines ne sont plus considérées comme des sciences.Les notes qui sonnent bien ensemble à une oreille occidentale sont des sons dont les fréquences fondamentales de vibration sont dans des rapports simples. Par exemple, l'octave est un doublement de fréquence, la quinte une multiplication par. Ce lien entre les fréquences et l'harmonie a été notamment détaillé dans le "Traité de l'harmonie réduite à ses principes naturels" de Jean-Philippe Rameau, compositeur baroque français et théoricien de la musique. Il repose en partie sur l'analyse des harmoniques ( à 15 dans la figure suivante) d'un son fondamental Do grave (), les premières harmoniques et leurs octaves sonnant bien entre elles. Si la courbe tracée en rouge, qui suit les notes harmoniques, a une allure logarithmique, cela correspond au rapport entre deux phénomènes : Les Occidentaux associent une certaine beauté aux figures symétriques. Une symétrie d'une figure géométrique est, intuitivement, l'existence d'un motif de la figure qui se répète suivant une règle précise, tout en étant partiellement transformé. Mathématiquement, une symétrie est l'existence d'une action non triviale d'un groupe, très souvent par isométrie, c'est-à-dire qui préserve les distances sur la figure. En d'autres termes, l'intuition de la règle est mathématiquement réalisée par le fait que c'est un groupe qui agit sur la figure, et le sentiment qu'une règle régit la symétrie est précisément dû à la structure algébrique de ce groupe. Par exemple, le groupe lié à la symétrie miroir est le groupe cyclique à deux éléments, Z/2Z. Un test de Rorschach est une figure invariante par cette symétrie, de même qu'un papillon et plus généralement le corps des animaux, du moins en surface. Lorsqu'on dessine la surface de la mer, l'ensemble des vagues possède une symétrie par translation : bouger notre regard de la longueur séparant deux crêtes de vagues ne change pas la vue que l'on a de la mer. Un autre cas de symétrie, cette fois non isométrique et presque toujours seulement approximative, est celui présenté par les fractales : un certain motif se répète à toutes les échelles de vision.La vulgarisation mathématique a pour objectif de présenter les mathématiques en un langage dénué de termes techniques. Comme l'objet d'études des mathématiques n'est pas réel, elle use souvent d'un vocabulaire imagé, et de comparaisons ou analogies non rigoureuses, pour faire sentir l'idée des développements mathématiques. Parmi les ouvrages qui se fixent ce but, citons "Oh, les maths" de Yakov Perelman et "Le livre qui rend fou" de Raymond Smullyan. Toutefois, les mathématiques font rarement l'objet de vulgarisation dans des journaux écrits ou télévisés.Si nombre de biographies portent sur les mathématiciens, les mathématiques sont un thème certes peu exploité dans la littérature ou la filmographie, mais présent.
Les mathématiques (ou la mathématique) sont un ensemble de connaissances abstraites résultant de raisonnements logiques appliqués à des objets divers tels que les ensembles mathématiques, les nombres, les formes, les structures, les transformations, etc ; ainsi qu'aux relations et opérations mathématiques qui existent entre ces objets. Elles sont aussi le domaine de recherche développant ces connaissances, ainsi que la discipline qui les enseigne.
xwikis
Le géocaching n'était pas possible techniquement avant la désactivation de la disponibilité sélective ("selective availability") du GPS le. La première cache localisée par GPS et documentée fut placée le par Dave Ulmer, originaire de, dans l'Oregon. Les coordonnées furent publiées sur le groupe Usenet sci.geo.satellite-nav. Dès le, la géocache avait déjà été trouvée deux fois (et journalisée une fois par Mike Teague, originaire de Vancouver, au Canada). Ce type de chasse au trésor était à l'origine appelé par ses premiers participants "GPS stash hunt", ou "gpsstashing". Après une discussion dans le groupe gpsstash du site web (devenu par la suite Yahoo! Groups), Matt Stum suggéra "geocaching" à la place de "stash" (en français « butin », ou « planque »), qui pouvait avoir des connotations négatives. En 2000, Jeremy Irish, Elias Alvord et Bryan Roth fondent à Seattle la société Groundspeak, qui gère notamment le site web Geocaching.com, listant en septembre 2015 plus de actives à travers le monde (un autre site web de la société, Waymarking.com, répertorie les caches dites virtuelles ou caches webcams). Ce portail ainsi que d'autres sites web consacrés au géocaching dans des pays spécifiques permettent aux participants de publier leurs trouvailles, leurs caches et d'organiser des rencontres. Geocaching.com permet également de suivre le déplacement de certains objets d'une cache à une autre (les travel bugs), et publie également des caches dont les coordonnées sont uniquement visibles à ses abonnés payants (caches dites « "premium" »). La grande majorité des caches sont cependant accessibles à des abonnés dits « basiques » (inscription gratuite). Un abonnement, d'une trentaine d'euros par an, permet de disposer d'options facilitant le jeu (par exemple : téléchargement de grandes quantités de coordonnées de caches à injecter dans le GPS). La popularisation et la démocratisation des récepteurs GPS portables depuis le milieu des années 2000, désormais vendus à des prix comparables à ceux des appareils photos numériques, a été essentielle à l'essor du géocaching. Le passe-temps est pratiqué par de nombreux jeunes (parfois encadrés par un adulte dans le cadre d'une animation socioculturelle), mais aussi par des enthousiastes de la randonnée et des amoureux de la nature. Dans les pays francophones, les participants sont généralement appelés des « géochercheurs » (ou « géo-chercheurs »), « géocacheurs » ou « géotrouveurs ». Il y aurait environ pratiquant cette activité sur toute la planète.Les participants enregistrent leur découverte sur un registre des visites (généralement un petit carnet appelé "logbook") à l'intérieur de la géocache et/ou la partagent sur un site web communautaire consacré à ce loisir. Dans certains cas, les coordonnées à découvrir ne sont pas des caches, mais des marqueurs géographiques, comme ceux que diverses organisations gouvernementales ou scientifiques utilisent pour marquer latitudes et longitudes. Les géochercheurs peuvent trouver différents objets dans les caches, les plus courants sont des objets d'échange ou SWAG (de l'anglais ). Les joueurs sont invités à prendre un objet de la cache à condition d'y laisser à la place un autre de valeur équivalente ou supérieure. Des petits jouets ou bibelots sans valeur constituent généralement le contenu d'une géocache typique. Certains y laissent aussi leur carte de visite, des pièces de monnaie ou billets correspondant à une faible somme et autres souvenirs. Les denrées alimentaires sont proscrites car pouvant attirer les animaux. Les objets laissés dans la cache ne doivent pas être dangereux ni illégaux (pas de munitions ou de canifs, par exemple). Une note explicative accompagne généralement la cache, décrivant le géocaching aux non-initiés et les invitant à laisser la cache en place et à participer à l'activité. Les contenants typiques sont généralement des boîtes en plastique de type Tupperware, des boîtes à munition, ou même simplement des petites boîtes métalliques à bonbons ou des capsules de film négatif reconverties en « microcaches ». Ces dernières sont les types de caches privilégiées pour le géocaching urbain, qui nécessite un camouflage plus habile et à l'épreuve des curieux que les caches en milieu rural.Les récepteurs GPS nécessaires à la pratique de ce passe-temps sont facilement disponibles chez les distributeurs d'électronique grand public, et certains possèdent désormais des fonctionnalités destinées au géocaching. La popularisation de sites Web et logiciels d'information géographique comme Google Earth permet cependant aux participants démunis d'un récepteur GPS de localiser certaines caches en les situant au préalable sur une carte. Plusieurs sites communautaires, généralement consacrés à un pays ou une région particuliers, permettent aux géochercheurs de localiser les caches situées autour d'une adresse physique, d'un code postal, de coordonnées géographiques ou d'une ville donnés. Le géochercheur peut ensuite se rendre aux coordonnées publiées équipé de son récepteur GPS. Certaines caches sont accessibles en milieu urbain par n'importe quel piéton. D'autres nécessitent une randonnée, voire un peu d'escalade. Certaines nécessitent un accès par bateau ou une descente en rappel. D'autres nécessitent de résoudre une énigme afin d'obtenir les coordonnées finales de la cache. Certaines ne peuvent être trouvées que la nuit, faisant appel à des objets ou autocollants visibles à la lumière d'une torche électrique. Une fois la cache trouvée, le géochercheur peut choisir de prendre et de laisser un objet dans le contenant. Il indique ensuite sa visite dans le registre inclus dans la cache, et replace cette dernière là où il l'a trouvée. Avec le développement des smartphones, il est maintenant possible de connaitre l'emplacement et la description des caches n'importe où et à n'importe quel moment grâce à l'application Geocaching.Le code éthique des géochercheurs décourage les caches sur des terrains dont l'accès est défendu par les autorités ou par leur propriétaire, ainsi que les caches nécessitant d'être déterrées, ou dont la présence peut être nocive à l'environnement. Les géochercheurs ayant créé une cache sont responsables de leur entretien, et le code d'éthique exige que l'accord du propriétaire ou gestionnaire des lieux soit obtenu avant que les coordonnées de la cache ne soient rendues publiques si celle-ci est sur une propriété privée sans droit de passage public. Il peut arriver qu'une cache soit endommagée par les intempéries ou les animaux, vandalisée, ou simplement détruite lors de travaux d'entretien ou de construction. Le défi du créateur de cache consiste à trouver un endroit que d'autres géochercheurs pourront trouver, mais que le reste des visiteurs (et les vandales potentiels) ne pourront pas facilement remarquer. La cache correspond en général à un endroit choisi par son créateur pour sa valeur géographique (la promenade à effectuer pour trouver la cache ou la vue à partir de celle-ci), historique, culturelle, scientifique ou sentimentale.Il existe plusieurs types de caches : Certains d'entre eux ont été quelque temps "obsolètes", il est toujours possible de trouver des caches de ces types mais il n'est possible d'en créer que sous certaines conditions d'attribution définies par Groundspeak: Certaines caches peuvent receler un (ou plusieurs) "travel bug" (en français « objet voyageur »), généralement une figurine accompagnée d'une note de son propriétaire indiquant un objectif, par exemple une destination spécifique. Libre ensuite aux géochercheurs trouvant la cache de contribuer au progrès du "travel bug", qui possède souvent un identifiant spécifique permettant de suivre sa progression dès que le géochercheur le saisit sur un site communautaire participant. Un autre type d'objet populaire chez les géochercheurs est la « géomonnaie ». Certaines associations ou sociétés frappent des pièces sans valeur fiduciaire ou numismatique (« géopièces », appelées en anglais "geocoins"), ayant souvent un numéro de série unique, que leurs propriétaires incluent dans une cache et dont ils peuvent ensuite suivre la progression dès qu'un autre géochercheur en saisit l'identifiant et les coordonnées sur un site Web associé. Objet d’échange en bois,le « Geowood »( ou CWG) est une pièce lisse et épaisse, un peu biseautée, avec le logo Géocaching d'un côté et une image de l'autre. Elle est associée à un pays ( FRENCH, BELGIAN... CZECH). fabriqué à l'occasion d'un événement ou à la demande du géocacheur avec son pseudo ou logo,il en existe des milliers répertoriés sur certains sites pour les collectionneurs.Fabrication quasi exclusivement basée en République Tchèque, lieu de son origine en 2005.On identifie la taille des caches pour permettre une recherche plus logique :Le site Geocaching.com a son propre système de cotation des caches. Le placeur doit sélectionner une difficulté à sa cache dans une échelle allant de 1 à 5 étoiles, une étoile étant une cache très simple et 5 étoiles une cache nécessitant beaucoup de réflexions et de recherches. De la même façon, le placeur choisit la cotation Terrain : T1 pour un endroit plat ou accessible en fauteuil roulant à T5 pour un emplacement nécessitant un équipement spécial, tel que du matériel d'alpinisme ou de plongée par exemple.Comme beaucoup de hobbyistes et de sous-cultures, les géocacheurs ont leur propre jargon.Les participants du géocaching utilisent, comme les internautes, de nombreux sigles et autres expressions fréquemment utilisées dans les journaux de "logs" tels que ːAppelés "travel bugs" ou "TB" dans le jargon du jeu (« objets voyageurs »), ils ont diverses missions choisies par le possesseur (faire le tour du monde, aller en Australie, etc.). Ils peuvent rester dans les mains de leur propriétaire qui les fera voyager ou bien être déposés dans les caches afin d'être repris par un autre géocacheur qui, à son tour, les fera voyager et les déposera dans une autre cache. Le propriétaire doit acquérir un médaillon vendu sur internet ou dans des boutiques officielles, et l'attacher à l'objet de son choix. C'est pourquoi toutes sortes sont utilisées allant du crayon à la brouette. Ensuite au propriétaire d'enregistrer l'objet voyageur sur le site Geocaching.com et ainsi créer une page consacrée à l'objet spécifiant ou non son objectif, sa mission. Chaque objet voyageur possède son propre numéro de suivi (numéro de "tracking"), qui sera utilisé par les géocacheurs pour le découvrir ou le récupérer.
Le géocaching (ou geocaching) est un loisir qui consiste à utiliser la technique du géopositionnement par satellite (GPS) pour rechercher ou dissimuler des « caches » ou des « géocaches », dans divers endroits à travers le monde. Une géocache typique est constituée d’un petit contenant étanche et résistant, comprenant un registre des visites et parfois un ou plusieurs « trésors », généralement des bibelots sans valeur.
xwikis
En mars 2000, Jimmy Wales met en ligne sur le Web une encyclopédie libre appelée Nupedia. Il bénéficie pour cela du soutien de la société Bomis, dont il est l'actionnaire majoritaire. Larry Sanger est engagé dans cette société au titre de rédacteur en chef. Comme Nupedia fonctionne avec un comité scientifique, la progression du nombre d'articles est très lente. Le, Larry Sanger discute avec le programmeur Ben Kovitz, qui lui explique le concept du wiki. Vu la frustration occasionnée par la lenteur des progrès de Nupedia, Larry Sanger propose à Jimmy Wales de créer un wiki sous licence publique générale GNU afin d'accroître la vitesse de développement des articles, ce qui aboutit au lancement formel de Wikipédia le 15 janvier 2001. Étymologiquement, le terme « Wikipédia » est un mot-valise issu de la fusion de deux termes : "wiki", type de site Web collaboratif (d'après le mot hawaïen "wikiwiki" qui signifie « rapide »), se référant au fait que l'encyclopédie a toujours vocation à s'améliorer rapidement et à être constamment active de par son mode de fonctionnement, et "-pédia", dérivé du mot grec, "paideia", « instruction », « éducation ». Ce nouveau projet devait servir à fournir du contenu textuel selon une méthode plus souple, permettant ensuite éventuellement d'alimenter Nupedia, après un passage par le filtre d'un comité d'experts. La version française de WikipédiaL’encyclopédie est éditée sur le site "wikipedia.org", qui est devenu en quelques années l'un des plus consultés au monde. Les serveurs hébergeant le site sont financés par une fondation américaine, la Wikimedia Foundation. Depuis son lancement officiel, Wikipédia est en grande partie modifiable par la plupart de ses lecteurs. Les mêmes principes fondateurs de rédaction sont partagés par les différentes versions linguistiques, mais les pratiques d'écriture sont convenues indépendamment par les internautes pour chacune d'elles. Plusieurs autres moyens de consulter l'encyclopédie avec internet ont vu le jour, tels que des sites web miroirs, un appareil électronique dédié, le WikiReader, ou des applications pour smartphone. De 2012 à, le programme Wikipedia Zero a permis une diffusion gratuite de l’encyclopédie et des projets annexes dans les pays du Sud. Grâce à un partenariat avec des opérateurs de téléphonie mobile, l’accès à Wikipédia sur téléphone portable n’était pas décompté du forfait. Ce programme a été arrêté du fait de la faible audience de Wikipedia pour les pays concernés, et de l'inadéquation aux nouveaux types d'appareils téléphoniques. La recherche de moyens techniques et économiques permettant de rendre accessibles les informations de Wikipédia par d'autres voies que le Web, est liée au projet d'une diffusion la plus large possible des connaissances.Le projet de distribution sur papier était destiné en particulier aux personnes n'ayant pas les moyens de se raccorder à Internet. La réalisation d'une version de Wikipédia en anglais sur papier, CD-ROM ou DVD fut initiée en août 2003 par Jimmy Wales. Jusqu'en 2014, il a été possible de commander une sélection d'articles de Wikipédia appelée, imprimée et reliée (pour laquelle la Fondation Wikimédia percevait 10 % sur les ventes brutes des ouvrages). Courant 2015, l'artiste Michael Mandiberg imprima 106 des 7 473 volumesKiwix est l'un des principaux logiciels libres permettant de consulter Wikipédia à partir d'un ordinateur personnel sous Windows, Mac OS, GNU/Linux, iOS ou Android en mode hors connexion. Il permet de lire un fichier au format ZIM contenant n'importe quelle version linguistique de Wikipedia et de la plupart de ses projets annexes (Wikiquote, Wikivoyage, etc.), textes et illustrations comprises (la taille du fichier correspondant variant selon la version linguistique utilisée). Le avait notamment fait usage de ce logiciel : dans les campus universitaires d'Afrique dont la liaison internetL'accès officiel à Wikipédia se charge automatiquement sur les plateformes iPhone, Android, WebOS, Opera Mini, NetFront (Sony Ericsson, PlayStation) ou Wii. Contrairement aux contributeurs anonymes, les utilisateurs inscrits peuvent modifier les articles, consulter leur liste de suivi, ajouter et enlever des articles de cette liste, etc. Un bouton situé en bas de toutes les pagesWikipédia a pour slogan : « Le projet d'encyclopédie librement distribuable que chacun peut améliorer ». Ce projet est décrit par son cofondateur Jimmy Wales comme « un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la« Wikipédia » est un mot-valise conçu à partir de « wiki », un système de gestion de contenu de site web qui permet d'écrire facilement dans les pages consultées, et de « pédia », qui provient du mot « encyclopédie », présent dans de nombreuses langues, comme l'anglais et certaines graphies latines. Les contributeurs francophones, ainsi que ceux de certaines autres versions linguistiques, utilisent un « é » aussi bien dans le nom dactylographié que dans le logo, la plupart des autres communautés s'en tenant à l'écriture « Wikipedia ». Wikipédia est réalisée collaborativement surPar ses objectifs et son fonctionnement, le projet Wikipédia s'inscrit dans une série de filiations culturelles : En revanche, Wikipédia est assez éloignée de l"Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers" par sa volonté de présenter des informations neutres, alors que l'ouvrageLe succès de Wikipédia a poussé la communauté à développer d'autres sites en reprenant ses mécanismes de fonctionnement :Wiktionary, un dictionnaire et thésaurus créé le ; Wikiquote, un recueil de citations () ; Wikibooks, un annuaire des livres électroniques destinés aux étudiants () ; Wikisource, un recueil de textes dans le domaine public () ; Wikinews, un site d'informations () ; Wikispecies, un répertoire du vivant (2004) ; Wikiversity, une communauté pédagogique créée en 2006 ; et Wikivoyage, un guide touristique en ligne (). Créé en 2001, Meta-Wiki est un wiki utilisé pour coordonner tous ces projets, et servir à la communication entre les communautés linguistiques de Wikipédia, celles des projets frères, et la Wikimedia Foundation.Wikipédia est organisée afin de regrouper les articles rédigés dans la même langue, qui forment la version de Wikipédia dans cette langue. Les pages de Wikipédia sont regroupées dans différents espaces de noms, tels que « Principal », « Discussion », « Aide » ou encore « Utilisateur ». L'espace « Principal » contient les articles encyclopédiques, qui peuvent être rangés dans une ou plusieurs catégories, lesquelles peuvent être organisées selon une hiérarchisation arborescente et thématique (par exemple « Pays d'Europe », puis « Italie », puis « Ville d'Italie »). Les pages sont en outre reliées les unes aux autres par des hyperliens internes permettant au lecteur de se déplacer à travers l'encyclopédie. D'autres hyperliens permettent de naviguer entre les différentes versions linguistiques ou de conduire vers ses projets frères, par exemple pour fournir une définition d'un mot sur le Wiktionnaire ou une galerie d'images sur Wikimedia Commons. Un clic de souris sur lesDes analyses statistiques, menées par des chercheurs de l'université Carnegie-Mellon et du Palo Alto research center, étudient l'état de la couverture thématique de Wikipédia en anglais en janvierLa Wikimedia Foundation permet aux différentes versions linguistiques de Wikipédia d'héberger directement du contenu multimédia (images, vidéo, cartes, plans, sons...). Elle incite néanmoins les différentes communautés à déplacer le contenu libre vers une plate-forme multimédia commune à l'ensemble des : Wikimedia Commons. Cependant, de nombreuses images (celles dont le statut vis-à-vis du droit d'auteur varie selon les pays, ou celles qui sont protégées par des copyrights incompatibles avec un téléversement sous licence ouverte) n'yDepuis sa création, le contenu de l'encyclopédie Wikipédia n’a cessé de grandir, en quantité, dans des proportions difficilement imaginables à ses débuts. Au départ comparable aux autres encyclopédies existantes, elle les a rapidement dépassées en taille et en couverture. Wikipédia est l'un des sites les plus fréquentés au monde, avec plus de 600 millions de visites quotidiennes. Il constitueLes références dans Wikipédia sont un mécanisme clé pour le contrôle et le maintien de saWikipédia est un projet multilingue composé de près de 300 projets linguistiques distincts. Chaque version linguistique est gérée par des communautés de bénévoles différentes et bénéficie d'une certaine autonomie de fonctionnement. Les règles d'édition peuvent par exemple varier d'une version linguistique à l'autre. Au total, l'ensemble des versions linguistiques représente des milliards de modifications sur des dizaines de millions de pages encyclopédiques, construites par des centaines de milliers de contributeurs. Certaines éditions de Wikipédia, telles que les éditions en cebuano et en waray-waray, ont un nombre d'articles très élevé malgré un nombre limité d'utilisateurs, en raison de l'utilisationTout lecteur de Wikipédia est un rédacteur ou correcteur potentiel. Fin 2008, un sondage est effectué par la "Wikimedia Foundation" et. Environ et contributeurs de Wikipédia y ont répondu, principalement en langues anglaise, allemande et espagnole. La moyenne d'âge des sondés est environ. Une fois les résultats lissés, environ 65 % d'entre eux se déclaraient seulement lecteurs, et 35 % contributeurs. Parmi les contributeurs, 48 % d'entre eux avaient fait des études supérieures, et 20 % obtenu un master ou plus. Ces contributeurs passent en moyenne par semaine sur Wikipédia, et leurs motivations principales sont de partager le savoir et de corriger les erreurs. Certains comptes utilisateurs sont utilisés par des logiciels, dits « robots » ou « bots », programmés pour assurer la maintenance des articles, par exemple pour corriger des erreurs communes d'orthographe ou de mise en forme, lutter contre les vandalismes ou encore, dans certaines éditions de Wikipédia, créer de nombreux nouveaux articles. En 2014, les robots ont effectué près de 15 % de l'ensemble des contributions. Il leur arrive de mener des « guerres d'éditionLes modifications apportées aux articles font l'objet de plusieurs niveaux de surveillance "a posteriori", qui permettent de corriger les erreurs les plus évidentes. Selon "Le Figaro", le cofondateur de Wikipédia, Jimmy Wales, affirme ainsi qu'. Une étude de l'université du Minnesota affirme que, jusqu'en 2006, sur deux millions de modifications problématiques, 42 % ont été réparées dans un temps qui rend peu probable leur lecture par un visiteur, alors qu'environ 11 % des vandalismes détectés persistaient après avoir été vus cent fois. De la même manière, la grande majorité des vandalismes détectés avaient été corrigés après 15 révisions au plus. En 2009,L'étude menée par des chercheurs de l'université Carnegie-Mellon et du Palo Alto Research Center sur l'année 2008 s'intéresse également à la contribution des différents thèmes de l'encyclopédie aux conflits, en décomptant le nombre d', ramené à la taille de la catégorieLe statut de Wikipédia en tant que source de référence est un sujet de controverses, en particulier à cause de son système de rédaction ouvert à tous. L'audience grandissante de Wikipédia a conduit un grand nombre de personnes à formuler des avis critiques sur la fiabilité des informations présentées dans cette encyclopédie. Ces critiques étant récurrentes, une page spéciale de Wikipédia est consacrée aux réponses de participants à Wikipédia aux objections les plus fréquentes. Les principales critiques portent sur : Les critiques de Wikipédia l'accusent d'incohérences, de partialité systémique et d'une forme d'anti-élitisme, et d'avoir une politique favorisant trop le consensus dans son processus éditorial. La fiabilité et la précision de Wikipédia sont aussi des questions débattues. D'autres critiques portent essentiellement sur sa sensibilité au vandalisme et à l'ajout de fausses informations, bien que des travaux aient suggéré que le vandalisme est généralement de courte durée. D'autres critiques se révèlent plutôt positives. Ainsi, en juin 2009, le philosophe français Bernard Stiegler estime que Wikipédia, « passage obligé pour tout utilisateur d'Internet », est un « exemple frappant "d'économie de la contribution" » et que l'encyclopédie « a conçu un système d'intelligence collective en réseau ». Des études ont été menées sur la qualité du contenu proposée par Wikipédia, et des comparaisons effectuées avec d'autres encyclopédies. Ces évaluations fournissent généralement des conclusions positives pour Wikipédia, mais ces résultats font aussi l'objet de critiques.Le traitement inégalitaire des hommes et des femmes tant en nombre d'articles qu'en qualité et neutralité du contenu, avec une présentation des femmes plus péjorative, fait l'objet d'analyses convergentes. Toutefois, les études ne concluent pas sur le fait de savoir si ce biais provient des contributeurs eux-mêmes, ou des sources qui leur sont disponibles. EnWikipédia et ses projets parallèles sont des wikis libres. Le premier wiki est créé en 1995 par Ward Cunningham, qui l'appelle "WikiWikiWeb". Un wiki est un site web dynamique, dont les visiteurs autorisés peuvent modifier les pages qu'ils lisent avec leur navigateur web. Sur Wikipédia, par exemple, la syntaxe utilisée pour modifier une page est beaucoup plus simple que celle du Hypertext Markup Language, et elle est censée permettre un apprentissage rapide. Le fonctionnement de Wikipédia est assuré par le logiciel libre MediaWiki, une plate-forme wikiLe succès croissant de Wikipédia nécessite l'emploi d'un grand nombre de serveurs informatiques qui fonctionnent tous avec un système d'exploitation GNU/Linux (principalement Ubuntu). Ces installations sont présentes à Tampa en Floride, à Amsterdam aux Pays-Bas, et dans le site sud-coréen d'hébergement de Yahoo! qui accueille de la Wikimedia Foundation. LesLa "Wikimedia Foundation" possède les différentes marques (Wikipedia, Wikimedia...), les serveurs, les sites web, et agit comme hébergeur web. Des associations nationales, ayant pour but de promouvoir Wikipédia et le libre partage des connaissances, existent dans plusieurs pays. Elles reprennent généralement l'intitulé « Wikimedia » ("Wikimédia Belgique", "Wikimédia France", "Wikimédia Suisse", etc.). Ces associations sont reconnues comme associations locales par la Wikimedia Foundation, mais n'y sont pas juridiquement liées, et n'ont aucune responsabilité sur leSelon comScore, Wikipédia a acquis une influence mondiale. Selon comScore et Alexa Internet, Wikipédia figure depuis 2007 parmi les dix sites les plus visités dans le monde et le seul site non-commercial. La croissance de Wikipédia a été favorisée par son classement dans les résultats d'une recherche sur Google, environ 50 % du trafic des moteurs de recherche vers Wikipédia provenant de Google, dont une grande partie est liée à la recherche universitaire. En avril 2007, le "Pew Internet and American Life Project" a constaté que le tiers des internautes américains consultaient Wikipédia. En octobre 2006, leDe nombreux projets d'encyclopédie existent — ou ont déjà existé — sur Internet. Certains, tels que la'ou la défunte Nupedia, ont adopté une politique éditoriale traditionnelle, avec par exemple un seul auteur par article. La forte fréquentation de Wikipédia, combinée aux critiques sur son principe de fonctionnement, ont également poussé au développement de projets concurrents. Citizendium est par exemple une encyclopédie en ligne en anglais dirigée par Larry Sanger et publiée sous licence libre. Elle se distingue notamment par l'obligation pour les rédacteurs d'indiquer leur nom et de préciser leurs diplômes. Le 5 décembre 2009, Citizendium propose, dont 121 ont été approuvés par son système de sélection. À titre de comparaison et à la même date, Wikipédia en anglais propose, dont sont présentés comme articles de qualité ('). L'exemple de Wikipédia a aussi suscité la création de projets plus spécialisés, comme l'encyclopédie thématique "Memory Alpha", consacrée à l'univers de Star Trek, ou le site parodique Désencyclopédie. Également inspirée de Wikipédia, Wikimini et Vikidia offrent un dessein pédagogique à ces nouveaux wikis en proposant aux enfants et adolescents de construire leur propre encyclopédie en ligne. D'autres, tels que Susning et l', sont des wikis dans lesquels les articles sont écrits par divers collaborateurs sans processus formel de révision. Conservapedia est une encyclopédie collaborative en ligne en anglais, conservatrice et créationniste,Wikipédia est devenue un sujet d'actualité, de débat et de satire dans de nombreux pays. Certaines sources médiatiques font sa satire en insistant sur le manque de fiabilité de Wikipédia, comme le journal satirique "The Onion". D'autres critiquent le fait que tout le monde peut modifier Wikipédia, comme dans un épisode de "The Office", où Michael Scott déclare que « Wikipédia est la meilleure chose deDe nombreux sites internet, comme les blogs, les sites officiels ou journalistiques, peuvent proposer des liens complémentaires vers des articles de Wikipédia pour approfondir unWikipédia et le travail collaboratif qui la produit sont rapidement devenus un objet d'études de la part de chercheurs dont une partie s'est réunie dans un réseau dit Wikimedia Research Network ou travaille avec la Wikimedia Foundation ou les associations locales. Le contenu de Wikipédia sert de références dans plusieurs articles de la littérature médicaleCertaines réutilisations ont été jugées inappropriées. Aux États-Unis, deux jugements ont été cassés en appel parce qu'un des partis avait présenté du contenu de l'encyclopédie Wikipédia pour soutenir une information : le contenu des articles a été jugé tropLe, "the Washington Post" a déclaré que Wikipédia était devenue un point central de la campagne électorale de 2008 des États-Unis, en précisant : Un article d'octobre 2007 de l'agence Reuters indiquait qu'avoir un article sur Wikipédia commençait à prouver la notoriété d'une personne. Lors de la campagne électorale présidentielle française de 2017, Europe 1 analyseLe contenu figurant sur Wikipédia a également été cité comme une source de référence dans certains rapports de l'Intelligence Community. La volonté de Wikipédia de diffuser du contenu libre, y compris pour nombre de ses illustrations, a eu une petite influence en Italie sur le débat parlementaire relatif aux libertés et à la protection du droit d'auteur. Le 28 septembre 2007, l'homme politique italien Franco Grillini a soulevé une question parlementaire adressée à la ministre des ressources culturelles et des activités, sur la nécessité d'introduire dans la législation italienne la liberté de panorama telle qu'elle existe dans d'autres pays européens. Il a affirmé que l'absence de cette liberté forçait Wikipédia, « le septième site le plus consulté », à interdire toutes les images de bâtiments modernes et d'art moderne italien, et a déclaré que c'était très handicapant pour les recettes touristiques. Le 10 mars 2015, l'UnionLe 12 juin 2015, la Wikimedia Foundation annonce l'utilisation du protocole de communication HTTPS pour tout le trafic Wikimedia, dans l'optique de contrer la surveillance de masse exercée par la NSA, qui profite en particulier des insuffisances du protocole de communication HTTP en matière de sécurité. En mai 2017, "Le Monde" titre « Le chiffrement a contribué à faire baisser la censure de Wikipédia dans le monde » à la suite de l'étude de chercheurs sur le passage au HTTPS.Le contenu de Wikipédia est utilisé sur des sites webs, dans des devoirs scolaires, dans des études universitaires, des livres, des conférences et des affaires judiciaires. Le développement du numérique a amené des changements et initiatives dans le monde de l’enseignement, notamment avec l’émergence de démarches collaboratives. Certains enseignants, comme Lionel Barbe de l'université Paris Ouest Nanterre La Défense, proposent à leurs étudiants des ateliers collaboratifs, notamment sur Wikiversité. Cette plate-forme permet de guider les étudiants dans leurs travaux et leurs contributions sur des pages Wikipédia selon des sujets choisis. Une démarche universitaire qui intéresse de plus en plus le monde de l’enseignement notamment dans des cours qui mobilisent l’utilisation d’outils propres aux TIC (Technologies de l'information et de la Communication). Le rapport du Conseil national du numérique, "Bâtir une école créative et juste dans un monde numérique", propose une réflexion sur la manière d’inclure la culture numérique dans la vie de tous les citoyens dans leur formation ou leur apprentissage. Wikipédia y est cité en tant"L'ensemble des prix décernés à Wikipédia peut être vu sur, sur la page." Wikipédia a reçu deux prix en mai 2004. Le premier était un "" pour les communautés numériques, qui fut remis par Ars Electronica avec la somme de et une invitation à se présenter au "PAE Cyberarts Festival" en Autriche, plus tard dans l'année. Le deuxième était un "Webby Award" dans la catégorie « communauté », remis par l"International Academy of Digital Arts and Sciences", basée à New York. Wikipédia a également été proposée pour un "Webby Award" dans la catégorie « meilleures pratiques ». En septembre 2004, la version japonaise de Wikipédia a reçu le "Web Creation Award" de la part de l'Association desWikipédia est financée par les dons d'internautes consultant l'encyclopédie. Wikipedia organise une collecte de fonds annuelle, annoncée par des bandeaux présents sur chaque page sous forme d'« appels » de Jimmy Wales ou de divers contributeurs. Bien que les fonds reçus soient chaque année plus élevés que l'année précédente, ils ne suffisent pas forcément à équilibrer le budgetSelon certaines méthodes d'évaluation en 2013, le coût de remplacement de Wikipedia pourrait être estimé à de dollarsL'utilisation de l'informatique contribue à l'augmentation de l'énergie grise, et les consultations/modifications concourent à la consommation directe d'énergie. En 2018, les serveurs de la Fondation Wikimedia, qui hébergent les données des différentes Wikipédias, n'étaient alimentés par des sources d'énergie renouvelables qu'à hauteur de 6 % et ontL'évaluation automatique de la qualité des articles de Wikipédia est un problème scientifique connu et large. Par exemple, en tant que mesures pour évaluer la qualité, il peut être pris dans le numéro de compte des références, la longueur du texte, le nombre d'images, les sections, la popularité des articles et d'autres.
Wikipédia est une encyclopédie universelle et multilingue, créée par Jimmy Wales et Larry Sanger le. Il s'agit d'une œuvre libre, c'est-à-dire que chacun est libre de la rediffuser. Gérée en wiki dans le site web "wikipedia.org" grâce au moteur logiciel MediaWiki, elle permet à tous les internautes d'écrire et de modifier des articles. Elle est devenue en quelques années l'encyclopédie la plus grande et la plus consultée au monde.
xwikis
Tout comme la notion de mythe, le terme « mythologie » provient de la Grèce et a d'abord été utilisé dans le contexte de la culture grecque ancienne. Par la suite, les deux notions ont été appliquées à toutes sortes de cultures parfois radicalement différentes. Cela peut poser des problèmes de méthode lorsqu'on étudie ces cultures, dans la mesure où l'emploi de ces notions revient à supposer d'emblée que l'ensemble des religions, cultes et récits ancestraux fonctionnent exactement de la même façon que ceux de la mythologie grecque, alors que des études plus attentives ont révélé souvent des différences profondes d'une culture à l'autre. De plus, on parle généralement "des" mythologies au pluriel : la question de savoir dans quelle mesure on peut les rassembler sous un concept unifié est un problème complexe, qui relève de la mythologie comparée.Aujourd'hui, nous parlons couramment de « mythologies » pour désigner les récits religieux des peuples anciens ou exotiques, éloignés dans le temps ouLes mythologies se sont transmises dans le temps et l'espace par différents vecteurs : De nos jours, bon nombre de mythologies sont encore vivantes, au sens où, indépendamment du problème complexe de la croyance, les récits mythiques continuent à se transmettre par l'intermédiaire deLa notion de mythologie fait partie d'un vaste ensemble de termes que le langage courant utilise souvent de façon interchangeable, mais qui ne sont pas synonymes. Le sens donné à ces termes, tout particulièrement au mot mythe, varie considérablement selon que l'on parle de leur usageLes frontières entre la mythologie et des domaines tels que les arts, les sciences et la politique sont particulièrement poreuses. Cela s'explique en partie par le fait qu'aux époques anciennes, les distinctions que nous faisons aujourd'hui entre la religion, l'histoire et les sciences, n'existaient pas ou étaient très différentes. En Grèce, par exemple, la mythologie avait à la fois une valeur religieuse (elle parlait des dieux et de leur culte) et culturelle, en renseignant sur des questions d'ordre philosophique (la création du monde, l'apparition des hommes et des femmes, l'amour, la mort, etc.) et historique (pour les Anciens, des personnages tels que Thésée ouDès l'Antiquité, avec les philosophes présocratiques, et aussi dès l'apparition de l'alchimie en Occident, représentée entre autres par Zosime, Pseudo-Démocrite et Olympiodore, les mythes sont commentés en un sens philosophique, hermétique ou alchimique. Dans l'optique alchimique, par exemple, tous les récits cosmologiques de la création du monde représentent uniquement le Grand Œuvre, comme en témoigne une très abondante littérature :Ici de suite font laLes mythologies sont un véritable vivier pour les arts. Dès l'Antiquité, les sources les plus fameuses grâce auxquelles nous connaissons les mythologies sont souvent des œuvres d'art, de l'épopée à la céramique en passant par la sculpture. Très tôt, les artistes, à commencer par les poètes, n'ont pas hésité à se réapproprier les mythes pour proposer leur propre vision de la mythologie dont ils avaient hérité. Au Moyen Âge et à la Renaissance, et jusqu'aux époques modernes et contemporaines, les différentes mythologies n'ont jamais cessé, dans toutes les parties du monde, de susciter d'innombrables reprises,Mais les mythologies ont aussi constitué de tout temps un enjeu politique crucial. Les hommes politiques convoitant le pouvoir se dotaient ainsi de généalogies prestigieuses (par exemple, vers la fin de la République romaine, la famille de Jules César disait descendre d'Ascagne, fils d'Énée, fils de prince de Troie et fondateur légendaire de Rome dans la mythologie romaine). À une échelle plus large, les interprétations historiques des mythes étaient souvent lourdes d'enjeux politiques. Les traités diplomatiques et les alliances militaires entre cités grecques se fondaient sur des parentés légendaires. À l'époque classique, la guerre de Troie est relue comme un affrontement entre l'Europe et l'Asie dans le contexte des guerres médiques entre les cités grecques et l'empire perse. Au Moyen Âge, les royautés européennes se dotent d'origines prestigieuses : ainsi la royauté française prétend-elle à son tour descendre des Troyens (c'était le sujet de "La Franciade", l'épopée en vers que Ronsard avait entreprise à laParler de mythologie à propos des religions contemporaines, par exemple de mythologie biblique, a pu être considéré par certains croyants comme une offense envers leur foi, voire une manifestation d'intolérance. En effet, la notion de mythe relève de nos jours de la fiction, ce qui remet en cause la vérité à laquelle prétendent les récits sacrés des religions actuelles. Cela pose le problème des différents « régimes de vérité » propres aux mythes, d'une part, aux croyances religieuses en général, d'autre part, la vérité de la foi n'étant pas nécessairement la vérité historique. Outre les analyses de Paul Veyne à ce sujet dans le domaine grec, le problème de la croyance en histoire des religions a été abordé de manière plus large par Max Weber, avec la notion de désenchantement du monde, et par Rudolf Bultmann, avec la notion de démythologisation qu'il a appliquée aux récits du Nouveau Testament. Cependant, la plupart des livres sacrés des religions contemporaines, qu'elles relèvent du monothéisme ou du polythéisme,Depuis le au moins, un "mythologue" est un chercheur spécialisé dans les études mythologiques. Dans son sens étymologique, l'adjectif "muthologos" qualifiait, en grec ancien, une personne qui inventait des récits fabuleux (le mot "muthos" ayant alors la connotation négative de « récits mensongers »). Cependant, les auteurs, anciens et parfois modernes, qui se sont consacrés au rassemblement et à la compilation des mythes, sont plus couramment appelés mythographes, tandis que le mythologue se propose comme but premier d'étudier les mythes, et non de les transmettre ou de les modifier. Au, les mythologues étaient souvent philologues de formation. Cependant, le développement progressif de l'anthropologie et son importance croissante dans les études mythologiques ont fait que les mythologues ont à présent plus souvent des formations d'anthropologues. Au sein des études mythologiques, on distingue l'étude des mythes d'un peuple donné (par exemple la mythologie grecque) et la mythologie comparée, qui étudie les relations entre les mythes de différentes cultures.Après Évhémère, l'étude des mythes consiste longtemps à rechercher un deuxième sens derrière le canevas d'un récit donné : les aventures des dieux, des héros et des créatures mythologiques sont ainsi interprétées comme des allégories représentant les interactions entre les puissances de la nature (interprétations physiques) ou des notions abstraites (interprétations philosophiques). Pendant tout le Moyen Âge, les interprétations de ce genre sont encore le principal expédient pour expliquer des mythes. Au cours des premiers siècles, le développement du christianisme entraîne une lutte entre les chrétiens et les partisans du paganisme. Dans ce contexte, les auteurs chrétiens utilisent, entre autres, les mythes pour dévaloriser les dieux païens, en reprenant les mêmes arguments déjà utilisés à l'époque classique par les païens eux-mêmes pour rejeter ces récits qui prêtent aux divinités des actes immoraux et honteux. C'est le cas, au, d'auteurs tels que Tertullien, dans le livre II de son traité "Ad Nationes"À la Renaissance, plusieurs philosophes étudient la mythologie selon des démarches diverses. L'un des recueils de mythes grecs les plus connus au Moyen Âge, la "Genealogia deorum gentilium" ("Généalogie des dieux païens") de Boccace, composée avant 1530, accompagne les récits de mythes d'interprétations allégoriques et philosophiques. En 1532, Georg Pictorius publie la "Theologia mythologica", qui s'intéresse également aux mythes dans une perspective allégorique. La "Mythologie" de l'érudit vénitien Natalis Comes, publiée en 1551, a recours, comme Boccace, à une approche philosophique. Au début du, le philosophe italien Giambattista Vico publie "La Science nouvelle" (première édition en 1725). Il y élabore uneLe problème d'un éventuel fondement commun aux différentes mythologies du monde relève de la mythologie comparée. Le poète et romancier Robert Graves, qui a été profondément influencé par l'étude de James George Frazer "Le Rameau d'or", considère que les mythes sont créés par les nombreux besoins culturels. Les mythes légitiment les fondements culturels d'une tribu, d'une ville ou d'une nation en les reliant à des vérités universelles. Par exemple, les mythes justifient l'occupation d'un territoire par un peuple particulier. Robert Graves suppose que les premières cultures étaient matriarcales et fait remonter de nombreux mythes et rites au culte d'une déesse-mère. Cependant, ces présupposés théoriques lui ont valu des critiques de la partDans les sociétés contemporaines, la notion de mythologie, en lien avec la notion de mythe, est toujours extrêmement vivante et s'est enrichie de plusieurs sens nouveaux.Dans le domaine culturel, outre les emplois de la notion de mythe pour qualifier des personnages de fiction devenus particulièrement populaires (voyez à Mythe), on en est venu à parler de mythologies pour désigner des univers de fiction particulièrement riches et développés qui prennent les mythologies pour modèle et ambitionnent d'en créer artificiellement de nouvelles. J. R. R. Tolkien, par exemple, ambitionnait de créer une « mythologie pour l'Angleterre » en élaborant la Terre du Milieu. Cependant, contrairement aux mythologies « premières »,Dans un sens voisin, on parle de « mythologie personnelle » ou de « mythologie individuelle » à propos de l'univers d'un artiste (écrivain, peintre, cinéaste, etc.) pour désigner les jeux d'échos ou de symboles discernables dans son œuvre, en particulier dans le cas d'artistes contemporains (et cela même lorsque l'artiste en question ne s'attache pas à développer un monde imaginaire cohérent semblable aux « mondes secondaires » de la science-fiction ou de la fantasy). Le terme de mythologie peut être employé soit "a posteriori" par les commentateurs pour qualifier certains aspectsCertaines fictions vont jusqu'à tenter de créer leurs propres mystères en se faisant passer pour vraies ou pour fondées sur des événements réels : il s'agit alors d'un emploi du canular au service de la fiction. Par exemple, certains croient que le film de l'auteur de fiction Clive Barker "Candyman" est basé sur une histoire vraie, et de nouvelles histoires ont grandi autour du mythe. Il en va de même pour des films comme "Le Projet Blair Witch" ou d'autres histoires du même type. Lorsque la frontière entre fiction etLe mot de « mythologie » est également employé de nos jours pour se rapporter à un système de valeurs contemporain, rarement remis en question, particulièrement lorsqu'il est vu comme idéologique ouD'autres articles connexes
La mythologie (du grec, de, « parole », et, « discours ») est soit un ensemble de mythes liés à une civilisation, une religion ou un thème particulier, soit l'étude de ces mythes. Les chercheurs qui étudient les mythologies sont appelés « mythologues ».
xwikis
En paiement de sa place par un ticket d'entrée, le s'installe dans un fauteuil orienté vers un grand écran sur lequel est projeté le film. Celui-ci est souvent précédé par des publicités et des bandes-annonces ou, de plus en plus rarement, par un court métrage. Des friandises (pop-corn, glaces, bonbons, chocolats...) sont parfois vendues à l'entrée de la salle pour agrémenter la séance (et parfois encore dans la salle elle-même, par les ouvreurs et les ouvreuses au moment de l'entracte). La taille d'une salle de cinéma est très variable et peut aller de quelques dizaines de places à un millier (les écrans : de 4 à de base en France). Durant les années 1950 et 1960, il exista une vogue qui consistait à assister à des séances en plein air, depuis une automobile, c'est ce qu'on appelle les "ciné-parcs" ou "drive-in". Ces salles peuvent être administrées par des grandes entreprises (réseau de salles), par des exploitants indépendants (délégations de services publics ou non) ou même, par des associations. L’Association française des cinémas d'art et d'essai (AFCAE), officiellement reconnue par le ministère de la Culture depuis 1959, regroupe établissements en 2007. Avec plus de écrans, la France dispose du quatrième parc mondial derrière la Chine, les États-Unis et l'Inde. Les exploitants de salles sont quasiment tous regroupés au sein de la Fédération nationale des cinémas français (FNCF).Le terme « cinéma » désigne aussi traditionnellement un bâtiment composé d'une ou plusieurs salles de projection, d'un espace d'accueil dans lequel il est possible d'acheter les billets d'entrée (et parfois, des confiseries et boissons) et des toilettes publiques. Certaines salles de spectacle peuvent être aménagées, de manière permanente ou temporaire, en salles de cinéma en accueillant un écran et un projecteur. La cabine de projection est en général située derrière le mur opposé à l'écran. Cette paroi est percée de petites ouvertures vitrées destinées à laisser passer le faisceau lumineux émanant du ou des projecteurs. La cabine est rarement située derrière l'écran (rétroprojection) et un peu plus souvent au-dessus de la salle par le procédé du périscope. De nombreuses salles historiques possèdent des mezzanines et balcons, demi-étages surplombant les sièges du parterre de la salle. Les sièges des « loges », à l'arrière de celle-ci, étaient parfois plus larges, plus confortables et plus espacés que les autres. Ces places étaient par conséquent vendues à un prix plus élevé. Dans une configuration courante, les rangées de sièges sont disposées par paliers, selon un plan incliné, le regard de chaque spectateur passant systématiquement au-dessus de la tête de ceux du rang précédent, ceux-ci ont ainsi une vue optimale vers l'écran. De plus, il arrive également qu'une rangée de sièges sur deux soit latéralement décalée, de façon que chaque spectateur ne soit pas gêné par la tête de celui qui est placé immédiatement devant lui.Les plus anciennes salles de cinéma s'entendent par des salles fixes et ayant une première séance avant 1910.Salles disparues : Le cinéma Gaumont-Palace de Paris, démoli en 1973, possédait de 1962 à 1967 pour le Cinérama un écran courbe d'une base de sur une hauteur de (surface : ). Le cinéma du Palais des Congrès de Lyon, disparu en 1996, possédait un écran géant équipé en (Todd-Ao puis Cinérama), d'une surface de ( x ). Salles en exploitation : Salles en exploitation (Écrans IMAX) :L'écran le plus grand du monde est l'IMAX de Melbourne : () En 2016, l'écran incurvé le plus grand du monde était celui du cinéma Darling Harbour IMAX de Sydney : x () qui est fermé depuis fin septembre 2016. Après la démolition de l'ancien cinéma, le nouveau projet immobilier prévu pour 2019 inclut une salle Imax dont l'écran devrait être aussi grand.En 2014, le cinéma Lotte Super Plex G de Seoul a inauguré un écran de (soit ), faisant de lui, le plus grand écran panoramique en exploitation.
Une salle de cinéma ou un cinéma est un lieu où est organisée l'une des diffusions des films cinématographiques. Ce terme peut désigner aussi le regroupement dans un même endroit de plusieurs salles, qui diffusent généralement des films différents à plusieurs horaires (dans ce cas le terme de « multiplexe » peut être également employé).
xwikis
Le premier roman en espéranto date de 1907, c'est-à-dire vingt ans après les premiers poèmes de Zamenhof. Durant ces vingt ans, les auteurs se sont principalement essayés sur des traductions et, en ce qui concerne la littérature originale, ont produit de la poésie. C’est au docteur Henri Vallienne, un médecin français, que l’on doit le premier roman originellement écrit en espéranto "Kastelo De Prelongo" (1907) ; il traite des relations entre les membres d’une famille française noble et ses domestiques. L’année suivante, Vallienne, qui dut abandonner sa carrière professionnelle à cause de son état de santé, ecrivit un second roman'Les deux ouvrages sont intéressants même s’il ne faut pas faire trop attention aux imperfections linguistiques ; Vallienne étant un auteur pionnier à une époque où la pratique de l’espéranto n’en était qu’à ses débuts. Après les romans de Vallienne, ont suivi deux ouvrages de,'(1911) et " (1913). Pendant la Première Guerre mondiale paraît un roman philosophique, " de Tagulo (nom de plume de ). Il s’agit d’une utopie où l’auteur expose sa philosophie de vie qui relève des idées socialistes et végétariennes.Après la Première Guerre mondiale, Luyken va de nouveau enrichir la littérature espérantophone de deux romans :'(1922) et'(1924). Le néerlandais écrit trois romans'(1923),'(1926) et'(1928). Jean Forge, scénariste polonais livre'en 1923 et "" en 1924 puis "Mr. Tot aĉetas mil okulojn" en 1931. Mais le roman en espéranto le plus important de l’entre-deux guerres est sans doute celui de Julio Baghy, un auteur déjà connu pour ses poésies. "Viktimoj" (1925) le premier roman de cet acteur dramatique hongrois s’inspire de son expérience de prisonnier de guerre en Sibérie. Ce livre devient particulièrement populaire auprès des espérantophones. Baghy livrera un deuxième roman " en 1930, d’un style différent puisqu’il le qualifiera lui-même de « grimace ».En 1931 parait le troisième roman de Baghy, ", où il montre tout son romantisme. En 1933, il se montre assez critique vis-à-vis du cliché de l’espérantophone dans "Paŭlo Paal (Verdaj Donkiĥotoj)". La même année, il livre la suite de "Viktimoj" dans "Sur sanga tero" qui porte toujours sur son expérience sibérienne. Le premier roman en espéranto important de l'après-guerre est "Kredu Min, Sinjorino!" du Suisse Cezaro Rossetti. En partie autobiographique, l’auteur nous livre avec beaucoup d’humour toutes les ficelles du métier d’exposant de foire.C’est en 1958 que le livre de, "" est édité en espéranto. Une traduction hongroise était déjà parue en 1941. Là encore nous sommes face à l’un des romans les plus importants de la littérature espératophone. Il s’agit d’une contre-utopie sur le modèle des "Voyages de Gulliver". En 1963, c’est Raymond Schwartz, célèbre chansonnier espérantophone qui livre "Kiel akvo de l' rivero", son second roman (le premier " (1930) décrit l’expérience d’une jeune Allemande à Paris). Ce livre a pour protagoniste un jeune Lorrain partagé entre la France et l'Allemagne qui s’engagent sans cesse un peu plus sur la voie de la guerre.Ces deux décennies sont celles où parurent le plus de romans en espéranto. Avec Claude Piron,, et le roman policier s’impose.Pendant cette période, des pièces de théâtre ont été rédigées et servent de base à des exercices de manuels d’apprentissage. On peut citer " et "Nemave Edifi" de Stefan MacGill, ouvrages dans lesquels apparaissent l’agent secret 005, parodie de James Bond. On trouve également davantage de livres pour enfants, comme "Arne, La Ĉefido", lequel a reçu un prix en 2006. Dans le thème des romans policiers, "Skabio" parait en 2015 sous la plume de l’écrivain suédois Sten Johansson. Certains romans écrits à cette période sont devenus des incontournables, tel "La Ŝtona Urbo" de Anna Löwenstein (1999), œuvre de fiction historique entre personnages celtes et romains.Depuis 2010, l’auteur australien Trevor Steele est assez prolifique. Après avoir livré deux romans concernant l’histoire des aborigènes et des colons australiens, "Flugi kun kakatuoj" et "Paradizo ŝtelita", il a également écrit d’autres romans reconnus à l’international : "Konvinka Kamuflaĵo", "Dio ne havas eklezion" et "Amo inter ruinoj". À la même époque, André Cherpillod, quant à lui, publie divers ouvrages sur des thèmes scientifiques, linguistiques ou historiques. Une certaine volonté existe désormais de proposer des histoires aisées à aborder pour de nouveaux apprenants d’espéranto. Ainsi, des recueils de nouvelles apparaissent sous la forme de revues, comme "Beletra Almanako", ou comme ouvrages uniques. Parmi eux, citons "" de, publié sous licence CC-BY-NC-ND 3.0 et disponible en format numérique sur un site dédié. Des livres à portée politique ont également fait leur apparition. Citons notamment "Homoj de Putin" (2014), "Krimeo estas nia" (2015) et "Idoj de la imperioj" (2016) de, relatifs à la popularité de Vladimir Poutine en Russie, à la crise de Crimée et à la situation des russophones dans les pays baltes.À côté des traductions, les œuvres originales de Julio Baghy, Kálmán Kalocsay,,, Jean Forge, Edmond Privat, Raymond Schwartz sont devenues des classiques de la littérature en espéranto. L'influence de l'École hongroise est déjà perceptible : les quatre premiers sont hongrois. Les genres se diversifient avec Marjorie Boulton, John Francis, William Auld, Ivo Lapenna (rhétorique), Tibor Sekelj (récits d'exploration), de même que la situation géographique des auteurs : (Japon-Chine), (Afrique du Sud-USA), Sylla Chaves (Brésil), et (Nouvelle-Zélande). Le travail accompli par Gaston Waringhien (essais, grammaire complète, lexicographie, traductions) est prodigieux. Durant ces dernières années, de nouveaux noms se sont imposés : (écrivain hongrois qui a commencé à écrire aussi en espéranto) et Johán Valano. La présence de la poésie a toujours été très importante en espéranto. Zamenhof fut d'ailleurs le premier poète espérantiste, puisqu'il s'exerça à cette forme d'expression à l'aide d'une langue encore "embryonnaire" et "rudimentaire", qu'il lui fallait éprouver. Parmi ses poésies célèbres figurent "La Espero", devenu l'hymne de la collectivité espérantophone ou encore sa "" lue lors du congrès mondial d’espéranto de Boulogne-sur-Mer en 1905. De nos jours, l'ouvrage le plus représentatif est l’"" qui, sur les 888 pages de sa seconde édition (1887-1981) présente écrites par originaires de. La première revue en espéranto, "La Revuo", fut éditée par Hachette, à Paris. Elle parut de 1906 jusqu'à la Première Guerre mondiale. Le vide créé par sa disparition se combla grâce à d'autres publications comme "Literatura Mondo" (Budapest), "Norda Prismo" (Stockholm),'(Nice), et de nos jours par'(Brésil, 1980-2006), "Literatura Foiro" (Milan, fondée en 1970) "" (Portugal, fondée en 2007) et "Beletra Almanako" (New York, fondée également en 2007).Par la traduction, l'espéranto s'est enrichi et adapté aux besoins. Le s'attela à des traductions aussitôt après avoir établi les principes de base de cette langue, notamment : "Hamlet", "Iphigénie en Tauride", "L'Inspecteur général", "Les Brigands", "George Dandin", les "Contes" d'Andersen, "Marta" et l'Ancien Testament. Zamenhof fonda la Bibliothèque de la Langue Internationale en 1894 et fut ensuite très vite rejoint par des hommes de grand talent, parmi lesquels Antoni Grabowski, Kazimierz Bein (Kabe), Jozef Wasniewski, dont la créativité et l'apport se révélèrent considérables. Ingénieur de son état, Grabowski était aussi un amoureux de la poésie et un grand polyglotte. À part son épouse, c'est avec lui que le eut sa première conversation en espéranto. Kabe fut le premier littérateur espérantiste et sans doute l'un des plus brillants. On lui doit "Le Fin-fond de la misère" de Sieroszewski, "Le Pharaon" de Boleslaw Prus, ainsi que "Pères et fils" de Tourgueniev. Des traductions d'une grande variété apparurent : Virgile, Homère, Molière, Voltaire, Shakespeare, Goethe, Dante, Tolstoï, Ibsen, Tolkien, Tagore, Omar Khayyam, Jean-Paul Sartre, Albert Camus et bien d'autres. À cela se sont ajoutées des anthologies ainsi que des textes philosophiques, religieux ou politiques. Parmi les œuvres de la littérature francophone traduites figurent entre autres "Andromaque", "Les Fleurs du mal", les "Lettres persanes", "Un Cœur simple", "Le Petit Prince" ou encore "L'Étranger".L'adoption de cette langue dans la bande dessinée est récente. Si "Astérix" () et "Les Aventures de Tintin" () existent dans des dizaines de langues dont l'espéranto, "Nudpieda Gen" ("Gen d'Hiroshima") n'existe en revanche qu'en japonais et en traductions allemande, anglaise, française et espéranto. On trouve aussi une adaptation BD du "Pharaon" de Boleslaw Prus, un album de "Gaston Lagaffe" et des traductions d’"Anselme Lanturlu". Les auteurs de BD originales en espéranto sont assez rares. Parmi les plus prolifiques citons Arnau, auteur catalan de plusieurs albums ;, auteur français qu'on retrouve plus ou moins régulièrement dans une dizaine de revues, en particulier ', revue qui depuis son numéro 1 en 1977, publie régulièrement des bandes dessinées originales. Notons aussi le magazine'spécialisé dans la bande dessinnée, initialement réservé à l'Internet et qui sort en son premier numéro papier. Récemment en 2012, la série de comics américaine "Saga" de Brian K. Vaughan et Fiona Staples utilise l'espéranto comme base pour les incantations de ses personnages en « langage bleu ».La contribution de SAT, organisation socio-culturelle à vocation émancipatrice, fut importante surtout entre les deux guerres dans le domaine de l'édition : œuvres traduites de Jack London, Voltaire, œuvres originales de Lanti (Eugène Adam), Barthelmess, Sándor Szathmári; biographies (Rosa Luxembourg), lettres de Zamenhof, ouvrages de vulgarisation scientifique, etc. Après la Seconde Guerre mondiale, les efforts de cette organisation se sont portés essentiellement sur l'édition de dictionnaires d'espéranto, notamment le Plena Ilustrita Vortaro de Esperanto (PIV) qui fait autorité dans le monde entier et de la revue annuelle Sennacieca Revuo. Depuis 2007, SAT a recréé sa coopérative d'édition (SAT eldona fako kooperativa) et tente une diversification de ses éditions.Il convient de souligner le rôle des femmes dans le fait que l'espéranto est la seule langue construite qui soit passée de l'état de "projet" à celui de "langue vivante". La plus jeune des filles du Zamenhof, Lydia, qui mourut avec sa sœur Sofia dans le camp nazi de Treblinka, traduisit "Quo vadis?" de Sienkiewicz. Maria Hankel fut la première femme poète. Simple télégraphiste, l'Estonienne Hilda Dresen devint un grand talent de la poésie par sa description de la nature nordique, alors que l'Anglaise Marjorie Boulton, professeur de littérature anglaise diplômée d'Oxford, excellait tant dans l'histoire de l'espéranto que dans une poésie et une prose non dépourvues d'originalité et d'humour. On peut certes regretter que l'activité et la sensibilité féminines soient encore sous-représentées au sein de l'Académie d'Espéranto.
La littérature espérantophone comprend l’ensemble des œuvres écrites par des auteurs de nationalités variées parlant espéranto. Son histoire commence en avec la publication de l'ouvrage "Langue Internationale" par Louis-Lazare Zamenhof, initiateur de la langue. On recense aujourd'hui plus de en espéranto, originaux ou traductions. Ils sont essentiellement disponibles auprès de librairies gérées par le mouvement espérantophone. L’une des plus importantes est le "libro-servo" de l’association mondiale d’espéranto qui compte plus de.
xwikis
Les racines de la didactique remontent à l'Antiquité avec des traces écrites datant des philosophes grecs et des civilisations orientales antiques comme la Chine. L'adjectif « didactique » apparaît le premier en 1554, selon le Grand Larousse encyclopédique. Le Robert de 1955 et le "Littré" dans son édition de 1960, citent « la didactique », en tant que substantif féminin, comme étant « l'art d'enseigner ». Du au s, les théories se multiplient, avec de nouvelles perspectives ouvertes par les psychologies de l'éducation, la motivation, ainsi que l'emploi des outils informatiques et de l'internet (e-formation, intelligence artificielle au service de l'apprentissage, wikiversité, etc.) et de l'apprentissage tout au long de la vie.À l'origine, la didactique n'est pas nettement différenciée de la pédagogie qui est la science prenant en charge les problèmes spécifiquement liés à l'enseignement. Mais progressivement, la didactique se différencie de la pédagogie par le rôle central des contenus disciplinaires ainsi que par sa dimension traitant de la nature des connaissances à enseigner. À l'origine, des spécialistes de chaque discipline (comme par exemple G. Brousseau, G. Glaeser, et Y. Chevallard en mathématiques ; J.-F. Halté et J.-P. Bronckart en français ; Goéry Delacôte, J. L. Malgrange et L. Viennot en sciences expérimentales) ont initié les recherches en didactique. Des rapprochements ont eu lieu plus tard avec les sciences de l'éducation, favorisés par l'existence de structures comme l"'Institut national de recherche pédagogique" (INRP), qui a un département de didactique des disciplines, et la création des "instituts universitaires de formation des maîtres" (IUFM). C'est ainsi que des physiciens, des biologistes et autres spécialistes ont pu devenir enseignants-chercheurs en sciences de l'éducation, tout en menant des travaux de didactique dans leur discipline. Philippe Meirieu s'interroge, en 1987, sur la place respective de la didactique et de la pédagogie. Il conclut : « "À travers les nombreux débats qui opposent la pédagogie centrée sur l'enfant et la didactique centrée sur les savoirs, se réfractent un très vieux problème philosophique en même temps que des oppositions qui sont stériles, parce que l'apprentissage, c'est précisément la recherche, la prospection permanente dans ces deux domaines et l'effort pour les mettre en contact. Il faudrait enfin qu'on arrive à sortir de cette méthode qui consiste toujours à penser sur le mode de variation en sens inverse, à dire que plus je m'intéresse à l'élève, moins je m'intéresse au savoir ou plus je m'intéresse au savoir, moins je m'intéresse à l'élève..." ». Pour cet auteur, c'est l'apprentissage qui est capable d'intégrer les doubles réflexions nécessaires d'essence pédagogique et didactique. Guy Avanzini souligne à propos de cette réconciliation entre la didactique et la pédagogie que « "la recherche didactique a toute sa portée et son ampleur, mais elle ne l'atteint que prise en compte dans un ensemble plus vaste, et à condition d'accepter le facteur d’irrationalité, de fortuité, que l'approche expérimentaliste prétend en vain réduire, mais que la considération des situations réelles oblige à introduire dans la compréhension de la réussite ou de l'échec scolaire..." ».Les premiers travaux ont souvent privilégié l'analyse des difficultés des élèves et des étudiants dans les apprentissages conceptuels. Ce travail est toujours en cours dans de nombreux domaines. Il peut être mené du primaire jusqu'à l'université, avec des modalités évidemment fort différentes suivant les niveaux d'enseignement et leurs objectifs. Les résultats débouchent sur des travaux dits d'"ingénierie didactique" quand il s'agit de questionner les séquences d'apprentissage et d'utiliser les résultats pour construire de nouvelles séquences. Une autre partie de la didactique concerne l'étude et la contribution à l'évolution même des contenus disciplinaires. Cette partie de la didactique centrée sur le choix de contenus, de leur organisation dans un curriculum (prescrit ou réel) relève donc d'une didactique curriculaire. Enfin, depuis quelques années, en France, tout un ensemble de travaux porte sur les questions de formation des maîtres, l'expression désignant aussi bien la formation initiale que continue, la formation des enseignants de l'enseignement primaire et de ceux de l'enseignement secondaire. En France, des groupes de recherche en didactique se sont constitués dans plusieurs universités. Les résultats de leurs travaux sont publiés dans les meilleures revues internationales ("Science Education", "International Journal of Science Education", "", etc.) ou dans des revues de langue française (par exemple "Education & Didactique", "Recherches en didactique des sciences et des technologies" pour les sciences, ou "Recherches en didactique des mathématiques"). Des formations doctorales spécialisées se sont constituées dont sont issues de nombreuses thèses. Ces groupes de recherche se sont souvent associés avec des instituts universitaires de formation des maîtres (IUFM). Une conséquence en est que la didactique est entrée dans la formation des enseignants. Les concours font une place à ce type de questions (épreuves sur dossier, épreuves professionnelles, mémoires professionnels). Dans de nombreux IUFM, la formation de deuxième année contient un module comportant de la didactique. L'une des difficultés pour un enseignant débutant est, d'une part d'oublier sa représentation personnelle de l'enseignement issue de nombreuses années notamment dans le supérieur (épistémologie du maître), et de passer d'une pédagogie centrée sur le contenu à une pédagogie centrée sur l'apprenant.La didactique a de nombreux liens avec l'épistémologie, la psychologie cognitive, et d'autres sciences humaines. Ce faisant, elle a pu parfois profiter de concepts de ces domaines, au prix éventuellement d'une adaptation. Elle a aussi créé ses propres concepts, orientée en cela par les directions prises par la recherche. Les concepts constitutifs de la didactique des sciences détaillés ci-dessous forment le substrat des recherches en didactique des sciences et, parfois même, des mathématiques, au moins en France. En effet il y a une réelle interpénétration des recherches de didactique des mathématiques et des sciences expérimentales.En premier lieu, il importe de tenir compte de ce que l'esprit de l'élève n'est pas vierge et n'est pas un récepteur passif d'un savoir qui serait donné par l'enseignant. Il est nécessaire de prendre en compte ses conceptions (représentations) personnelles qui constituent autant d'obstacles à l'élaboration de nouvelles connaissances. Cette élaboration doit passer par des remises en question et des constructions de ces conceptions. Ces phases de mise en question et de reconstruction constituent autant de possibles ruptures dans la construction des connaissances ainsi que des diverses sources pouvant mener à une véritable conception des choses abstraites ou non. À la suite de Jean Piaget, la didactique des sciences a exploré le constructivisme en tant que fondement de l'enseignement depuis le primaire, jusqu'à des niveaux scolaires élevés (lycée et même début d'université). À partir des années 1990 cependant, le paradigme du constructivisme a été complété par d'autres paradigmes prenant en compte la complexité de l'acte d'enseigner. (voir les articles transposition didactique, situations-problèmes, etc.).L'acquisition de connaissances n'est pas la simple mémorisation d'informations fournies par l'extérieur (le maître, le livre, les médias, etc.). Ces informations sont filtrées, interprétées, mises en relation (ou compétition) avec des connaissances préalables. L'enseignement de certaines disciplines se heurte alors à des conceptions « spontanées » (l'adjectif signifiant non construites par l'enseignement) qui peuvent faire obstacle à l'apprentissage. Le cas de la physique est particulièrement exemplaire puisque nombre de conceptions scientifiques se sont construites contre l'évidence (G. Bachelard) ; ainsi les lois « élémentaires » de Galilée et Newton restent difficiles à comprendre parce qu'elles s'opposent au « bon sens » commun. De nombreuses recherches en didactique ont visé l'identification des représentations-types - ou conceptions - chez les élèves et les étudiants en analysant les « erreurs », leurs raisonnements lors, par exemple, de résolutions de problèmes ou en situation de travaux pratiques. (Les deux laboratoires de didactique de Paris 7 ont été pionniers en la matière L. Viennot, Goery Delacote et leurs collaborateurs E. Saltiel, M.G. Séré, A. Tiberghien, etc.). Du point de vue pédagogique, la question porte alors sur la façon de faire émerger ces conceptions et, lorsqu'elles ne sont pas compatibles avec le savoir enseigné, sur les possibilités de les faire évoluer. On peut par exemple s'appuyer sur le jeu de situations-problèmes, suscitant un conflit cognitif, devant conduire au changement conceptuel attendu. Le choix de situations didactiques (ou a-didactique) est important, que ce soit en mathématiques ou en sciences expérimentales. Dans ces derniers domaines, intervient l'expérience ainsi que la lecture qu'en fait l'élève. Elle est souvent fort différente de celle que voudrait en faire faire l'enseignant. L'étude du processus d'interaction de la pensée de l'élève et de l'information qu'il filtre de l'expérience est un thème important de la didactique des sciences expérimentales. Dans ces processus interviennent également ce qu'on appelle les conceptions.Il s'agit de situations didactiques construites autour d'un « problème », le terme désignant un questionnement, une énigme, issue d'un objet, d'une observation, etc. (en général avec un support concret), dont la résolution nécessite l'investissement des élèves. Les élèves n'ont pas au départ, tous les moyens de répondre à la question. Ils doivent tout d'abord s'approprier le questionnement (dévolution) et mettre en œuvre leurs connaissances et leur ingéniosité pour trouver 'une' solution (en passant par une expérience concrète si besoin). La situation didactique peut être choisie par l'enseignant de façon que le problème révèle un conflit (cognitif) et que la résolution corresponde donc au franchissement d'un obstacle. Enfin, l'activité n'est pas nécessairement individuelle mais peut reposer sur un travail de groupe pouvant faire apparaître des conflits (sociocognitifs). D'après R. Douady, la connaissance que l'on désire voir acquérir par l'élève doit être l'outil le plus adapté pour la résolution du problème au niveau de l'élève.La schématisation d'une situation d'enseignement se fait à l'aide du triangle didactique (ou pédagogique). ce triangle - représenté en général par EAS équilatéral - permet de visualiser les interactions possibles (côtés du triangle) entre 3 pôles (les trois sommets du triangle) : le pôle E de l'Enseignant (le maître), le pôle A de l'Apprenant (l'élève) et le pôle S du Savoir (mais lequel...?). Il permet d'analyser les différents modes pédagogiques observés. En caricaturant un peu : En théorie, l'idéal pour l'enseignant serait donc de privilégier l'interaction A-S alors que dans la pratique il fait tout son possible pour bien doser le mélange de ces trois interactions, en le saupoudrant de plus ou moins de discipline... La proposition récente de « maître médiateur » va dans ce sens : l'enseignant n'est alors plus celui qui délivre le savoir à l'élève (on parle alors de savoir réifié), mais celui qui aide l'élève à s'approprier ce savoir, cette interaction pouvant être représentée par la médiane issue du sommet E dans le triangle EAS. Favoriser cette interaction A-S nécessite bien sûr de la part de l'enseignant la mise en place d'une situation didactique propice à l'appropriation - par les élèves - de la (ou des) connaissance(s) qu'il doit transmettre.En classe, l'enseignant élabore une "situation" en fonction d'un objectif d'apprentissage, mais en dissimulant suffisamment cet objectif pour que l'élève ne puisse l'atteindre que par une adaptation personnelle à la situation. La résolution de la tâche et l'apprentissage qui en résulte dépend de la richesse du "milieu didactique" dans lequel sont alors placés les élèves. Le milieu didactique est la partie de la situation d'enseignement avec laquelle l'élève est mis en interaction. Il est défini par des aspects matériels (instruments, documents, organisation spatiale, etc.) et la dimension sémiotique associée (que faire avec, pourquoi faire avec, comment faire avec...).Le contrat didactique est un concept introduit par Guy Brousseau. Il le définit comme l'ensemble « des relations qui déterminent - explicitement pour une petite part, mais surtout implicitement - ce que chaque partenaire va avoir à charge de gérer et dont il sera, d'une manière ou d'une autre responsable devant l'autre. » Ce qui veut dire qu'« au cours d'une séance »... « l'élève interprète la situation qui lui est présentée, les questions qui lui sont posées, les informations qui lui sont fournies, les contraintes qui lui sont imposées, en fonction de ce que le maître reproduit, consciemment ou non, de façon répétitive dans sa pratique de l'enseignement. » (Brousseau, 1982, p. 61). Pour un « bon fonctionnement » de la classe : L’efficacité de la relation dépend de la compréhension mutuelle des intentions de l’autre. Exemple de contrat implicite à l'école élémentaire venant d'une recherche de Stella Baruk : on a proposé à 97 élèves de CE1 et CE2 le problème suivant : « Sur un bateau il y a 26 moutons et 10 chèvres. Quel est l’âge du capitaine? ». Parmi les 97 élèves, 76 ont donné l’âge du capitaine en utilisant les nombres figurant dans l’énoncé. Le contrat implicite entre les élèves et l'enseignant(e) pour un problème donné peut être interprété par les points suivants : (a) un problème posé a une réponse et une seule, (b) pour parvenir à cette réponse, toutes les données doivent être utilisées, (c) aucune autre indication n’est nécessaire et (d) la solution fait appel aux connaissances enseignées. En conclusion, le contrat implicite entre les élèves et l'enseignant peut être interprété par le fait que l'enseignant ne peut pas donner des exercices impossibles à résoudre.Des sociologues, en particulier Michel Verret, ont montré que l'élaboration des contenus disciplinaires est un processus complexe, lié à des questions de société. Le jeu des références savantes, d'une certaine image de la discipline et des valeurs associées, des finalités attribuées à telle ou telle formation conduit à des choix dans les contenus. Ce qu'il est important de noter c'est que, même pour des disciplines « dures » telles que les mathématiques ou les sciences, le savoir enseigné est un savoir reconstruit spécifiquement pour l'enseignement. Le savoir savant pris en référence est d'une part un savoir décontextualisé et souvent coupé de son histoire. Ce savoir savant fait alors l'objet d'une transposition (recontextualisation, reproblématisation, voire redéfinitions) pour être enseigné à un niveau donné. Cette première transposition faisant donc passer d'un savoir savant à un savoir "à enseigner", est, de fait, suivie par une seconde transposition, celle-là même qui, par sa mise en acte par les enseignants (mais aussi l'inspection, les éditeurs, etc.) conduit à un savoir "enseigné" ayant ses spécificités. Plusieurs chercheurs ont travaillé sur ce concept de transposition. Y. Chevallard en particulier a su le rendre accessible à la communauté des didacticiens en empruntant des concepts étrangers aux sciences « dures ». Par exemple il nomme « noosphère » l'ensemble des instances de la société qui président à la transposition. Ce concept a été créé par un chimiste russe, Vernodsky, généralisé par le père Teilhard de Chardin. On parle souvent de transposition didactique du « savoir », c'est le mot qui est utilisé. Il faut avoir à l'esprit que ce savoir est non seulement celui des connaissances livresques, mais aussi celui des savoir-faire associés. Le choix des savoir-faire à faire acquérir aux élèves dépend évidemment de la finalité de l'enseignement et donc des pratiques prises en référence. Une de ces références est particulièrement délicate à identifier : enseigner « la » démarche expérimentale est un leurre, aucun physicien ni aucun biologiste ne soutiendra qu'il existe une démarche type ou unique. Il existe cependant, formulées par des didacticiens, des simplifications qui peuvent être utiles pour l'enseignement à un niveau élémentaire (par exemple, pour les démarches scientifiques, celles provenant de l'analyse critique du modèle OHERIC). Les pratiques qui servent de références peuvent être celles d'une activité professionnelle identifiée mais peuvent être des pratiques sociales, l'expression étant prise dans un sens large (J. L. Martinand). On trouve des similarités entre ces pratiques professionnelles et certaines capacités quotidiennes comme celle qui consiste à demander son chemin, à savoir lire un mode d'emploi ou un document technique en allemand, en anglais...Historiquement, la notion de curriculum n'est pas un concept de la didactique : dans les pays anglo-saxons, on parle de curriculum pour désigner le parcours éducatif proposé aux apprenants, alors qu'en France on parle de cursus. Un curriculum, au sens commun, représente donc un parcours (cf. "curriculum vita"e) et, dans le champ éducatif, représente un parcours de formation. Ph. Perrenoud propose de distinguer deux niveaux : Mais dans ce curriculum réel deux parties sont à distinguer :L'histoire des concepts scientifiques (épistémologie) montre que ceux-ci se sont construits contre l'évidence empirique et par paliers de rectification des connaissances antérieures, voire de modifications profondes de ces dernières. La progression dans la connaissance a donc mis en évidence des obstacles à franchir. C'est la notion d"'obstacle épistémologique" introduite par Gaston Bachelard. Dans le cadre de l'enseignement, l'apprentissage d'une nouvelle connaissance peut également nécessiter de franchir un obstacle, qu'il soit celui de « l'évidence » issue de la vie courante et des systèmes « explicatifs » ainsi présents dans l'esprit de l'apprenant, ou qu'il soit celui d'une difficulté conceptuelle liée au domaine lui-même (conception de la conservation de la matière, concept d'énergie, de température, de champ, etc.). À l'aspect épistémologique présenté ci-dessus, correspond donc un aspect psychologique inauguré par Jean Piaget. Du point de vue didactique, ces obstacles, qualifiés parfois "d'obstacles didactiques", peuvent alors être considérés comme des étapes-clés à franchir, et donc comme des objectifs de l'enseignement. C'est le concept "d'objectif-obstacle" introduit par Jean-Louis Martinand.Les Questions Socialement Vives sont des questions d'actualité faisant l'objet d'enseignement et donnant lieu à des débats au sein de la société, des médias et des écoles. La didactique des Questions Socialement Vives peut être reliée au courant anglo-saxon des. L'enseignement de ces questions s'appuie sur des savoirs non stabilisés aux conséquences sociales et/ou éthiques importantes (OGM, nanotechnologies, politiques publiques...). Cet enseignement conduit à interroger les controverses et les risques pour favoriser une pensée critique et un engagement des apprenants. Il contribue souvent aux « éducations à... » avec des formes scolaires renouvelées (débat, dérangement épistémologique, usage des TICE...). Parmi les travaux qui font basculer les didactiques dans des directions imprévues,on peut citer les recherches sur l'humour en particulier, tels qu'ils sont élabores par exemple dans l'ouvrage collectif : "rire en philo" (petit pavé, 2017) Source bibliographique :Deux classifications sont actuellement admises par la communauté des didacticiens :
La didactique est l'étude des questions posées par l'enseignement et l'acquisition des connaissances dans les différentes disciplines scolaires. La didactique sert alors à transposer des savoirs dits "utiles" en savoirs enseignables, et s'applique à définir avec précision chaque objet (savoir) qu'elle souhaite enseigner, mais également à définir comment on enseigne cet objet aux apprenants. Depuis les années 1970, la didactique s'est développée autour des mathématiques, des sciences, du français, des langues, des sciences de la vie et de la terre, de l'éducation physique et sportive, de l'histoire et de la géographie ou de la didactique professionnelle.
xwikis
Le mot français « littérature » provient d'un mot latin'dérivé de ', « lettre », au sens de signe graphique servant à transcrire une langue. Le dictionnaire latin-français Gaffiot expose l'évolution du sens du mot latin : celui-ci désigne d'abord (exemple de Cicéron, ) un ensemble de lettres constituant le fait d'écrire ou un ensemble de lettres constituées en alphabet (Tacite) ; le sens s'élargit ensuite au ap. J.-C. (ex. de Quintilien et Sénèque) à celui de grammaire, de philologie, c'est-à-dire à l'étude technique et érudite des textes écrits, pour aboutir avec Tertullien au début du au sens de savoir, d'érudition dans le domaine des textes écrits.Selon le Trésor de la langue française informatisé (TLFi), le mot « littérature » est attesté au début du (en 1121) avec le sens premier latin de « ce qui est écrit ». Le mot ne retrouve le sens du latin tardif « érudition, connaissance (acquise dans l'étude des livres) » qu'à la fin du : le TLFi cite en exemples J. de Vignay et Philippe de Commynes.Selon Philippe Caron, le mot « littérature » garde l'acception générale de « connaissance obtenue par les livres » jusqu'au : on dit alors « avoir de la littérature » comme on dit aujourd'hui « avoir de la culture », le terme recouvrant tous les domaines du savoir général ; ainsi, en 1699, Fontenelle présente les mathématiques comme « un genre de littérature ». Mais dans la seconde moitié du siècle, parallèlement à l'acception généraliste, le mot s'applique de plus en plus à une catégorie de savoir spécifique, celle des « belles-lettres » liées au beau langage. Ce glissement s'explique par l'évolution sociale des élites sous Louis XIV où s'instaure la notion de l'honnête homme, apte à une vie sociale raffinée faite de pratiques culturelles valorisées comme la connaissance des œuvres littéraires, particulièrement celles de l'Antiquité qui nourrissent le théâtre classique, tandis que les poètes exploitent les genres définis par Aristote comme la poésie épique. Au, le mot « littérature » est devenu un parfait synonyme de « belles-lettres », c'est-à-dire d'œuvres reconnues par les gens de goût et constituant la culture mondaine de l'époque formée par une meilleure éducation et par le monde des salons littéraires et des académies ; ainsi, pour Voltaire, « [l]a littérature désigne dans toute l'Europe une connaissance des ouvrages de goût ». Un autre exemple montre que le mot « littérature », avec le sens commun qu'il possède aujourd'hui, est désormais bien installé au milieu du siècle des Lumières : en 1753, Charles Batteux intitule son ouvrage "Cours de belles-lettres, ou Principes de la littérature" et en 1764, il le réédite en gardant pour seul titre "Principes de la littérature". La même année paraît "L'école de littérature" de l'abbé Laporte dont le sous-titre de la « Des règles particulières de chaque genre de Littérature en Prose et en Vers », est sans ambiguïté. La signification du mot évolue encore lentement à partir de 1750 vers le sens plus large de « création langagière écrite », laissant une place grandissante au jugement subjectif libéré de critères esthétiques contraignants : telle sera plus tard la conception romantique du poète créateur libre même s'il doit être un poète maudit, conception que préfigurait déjà Jean Le Rond d'Alembert dans son "Discours préliminaire de l'Encyclopédie" lorsqu'il affirmait que les œuvres d'art relèvent principalement « de l'invention qui ne prend guère ses Lois que du génie ». Paul-Louis Courier définit de la même façon, dans les années 1820, une œuvre littéraire comme « produite par l'instinct et le sentiment du beau » donc par le sentiment de l'auteur et pas nécessairement celui de l"establishment".Vers 1800, le sens moderne est devenu le sens commun : le mot « littérature » s'applique à des textes auxquels « on » accorde une qualité esthétique que l'on peut discuter, qu'il s'agisse du jugement d'une institution de doctes exprimant le goût commun mais aussi de l'auteur ou du lecteur individuel : c'est l'emploi qu'en fait Madame de Staël dans son ouvrage emblématique "De la littérature" en 1799. Au milieu du, le grammairien Bernard Jullien distingue encore « littérature » et « grammaire » : pour lui, la pointe ultime de la « haute grammaire » dépasse depuis l'Antiquité la description des mécanismes de la langue pour aborder les critères du beau dans l'aspect formel et stylistique des textes. La littérature qui « classe et étudie les ouvrages (présentant un intérêt de style) » va au-delà : elle prend en charge l'étude et le questionnement sur le fond, sur le contenu des œuvres, par exemple les thèmes abordés et les points de vue choisis par les auteurs, ce qui n'exclut évidemment jamais les interférences avec la morale comme le démontrent les procès faits à la même époque, en 1857, à Baudelaire et Flaubert pour atteinte aux bonnes mœurs. Bientôt la « grammaire » se limitera à la description de la langue, devenant un outil pour la littérature qui s'occupera de l'observation et à l'appréciation des aspects formels comme des contenus des œuvres. On peut noter que des « sciences » nouvelles comme la stylistique ou la linguistique reprendront dans la seconde moitié du le rôle qui était dévolu à la haute grammaire dans l'étude des textes. Finalement, le champ de la « littérature » s'élargit au à toutes les productions écrites, non sans débats sur les canons littéraires : on discute aussi bien les contenus (sentimentalisme des romans de gare, pornographie et érotisme) que la forme (roman sans ponctuation, vers libre, écriture automatique). On utilise donc de plus en plus des catégories affinées comme roman historique, littérature de science-fiction ou paralittérature, sans que disparaissent les désaccords sur la qualification littéraire de certains types d'œuvres comme le roman de gare, le roman-photo ou la bande dessinée. On remet également en cause les notions de « genre littéraire » et de « types de texte » ainsi que leur hiérarchisation comme on réévalue les œuvres du passé (voir, à titre d'exemple récent, Charles Dantzig, "Dictionnaire égoïste de la littérature française", 2005). Inversement, l'historien et écrivain Ivan Jablonka propose de replacer certains textes de sciences humaines et sociales dans la littérature, définie selon six critères (forme, imagination, polysémie, voix singulière, institutionnalisation, recherche du vrai).Parmi les mots de la même famille, on distingue :Les débats esthétiques et moraux ne seront jamais clos d'autant que les ambitions des auteurs ne correspondent pas nécessairement aux attentes des lecteurs, ce qui pose ainsi la question des avant-gardes qui apparaissent à chaque génération ou presque depuis 1830 et que reflètent les mouvements littéraires qui se sont succédé comme le romantisme, le naturalisme, le décadentisme, le dadaïsme... Le découpage en périodes historiques ou en aires linguistiques fait aussi débat et se conjugue avec d'autres éclairages : distinction des auteurs selon le sexe (littérature féminine), l'orientation sexuelle (littérature « gay »), des approches politiques (littérature communiste), etc. La littérature s'interroge aussi sur sa nature et sur son rôle depuis la fin du dans la pratique (ex. Lautréamont, Mallarmé, Camus) comme dans la théorisation (ex. Paul Valéry, Sartre). D'abord surtout centrée sur la poésie par les « modernes » (Surréalistes, Lettristes, Oulipo), la réflexion s'est portée sur le roman avec le Nouveau Roman dans les années 1950-1970 et "L'Ère du soupçon" qui remet en cause la notion de personnage, sur la chronologie (ex. Claude Simon, Jean Ricardou) ou sur des genres nouveaux comme l'autofiction aujourd'hui, et également sur le théâtre (Antonin Artaud - théâtre éclaté de Beckett ou Ionesco). Des débats se sont ainsi ouverts, portés par les créateurs comme par les universitaires et les critiques, par exemple à propos du lien entre l'œuvre et l'auteur récusé par Proust contre Sainte-Beuve, ou de la « mort de l'auteur » que proclame Roland Barthes pour qui la place majeure revient au lecteur qui réécrit le texte pour lui-même. En fait, la « littérarité d'un texte », c'est-à-dire ce qui en fait un texte littéraire, ce qui fait qu'il appartient à la littérature, est toujours la question centrale : des approches comme le structuralisme avec Roland Barthes, la narratologie de Gérard Genette, la stylistique, définie comme une « linguistique des effets de l'énoncé » par Michael Riffaterre ou l'analyse du schéma de la communication et des fonctions du langage de Roman Jakobson cherchent à bâtir une approche technique et plus objective des textes qui se heurte néanmoins à des oppositions fortes, par exemple celle d'Henri Meschonnic.Les premières œuvres littéraires connues composées en grec ancien sont des épopées mythologiques ("Iliade" et "Odyssée" d’Homère, "Théogonie" d’Hésiode, etc.). On doit aussi aux Grecs la tragédie (représentée par Eschyle, Sophocle et Euripide), la comédie (dont seules les pièces d'Aristophane nous sont parvenues) et le récit historique, qui naît avec Hérodote puis se poursuit avec Thucydide et Xénophon. La fiction romanesque n’y occupe qu’une part minime. La philosophie et la littérature didactique (études, traités) tiennent aussi une place prépondérante, notamment par les écrits de Platon et d'Aristote.On distingue traditionnellement trois grands domaines littéraires : On notera qu'aucun de ces grands domaines ne peut se définir simplement par la présence ou l'absence de vers : par exemple, les romans de Chrétien de Troyes étaient écrits en vers, ce qui ne les empêche pas d'appartenir à la littérature narrative, et non à la poésie. Le théâtre peut s'écrire en vers comme en prose. Et la modernité a démontré que la poésie n'est pas nécessairement définie par la présence de vers, comme l'ont montré des poètes tels que Aloysius Bertrand, Charles Baudelaire, Arthur Rimbaud ou encore Saint-John Perse. Ces grands domaines se déclinent en sous-domaines et en genres littéraires. Leurs frontières ne sont pas absolument étanches, en particulier si l'on s'intéresse à des œuvres contemporaines qui remettent en question les catégorisations traditionnelles.L'un des trois grands domaines de la littérature est celui du roman et plus largement de l'ensemble des genres narratifs qui s'y apparentent. Le point commun de ces différents genres est la place prédominante qu'y occupe le récit. Les œuvres littéraires concernées sont pour la plupart écrites en prose, mais il existe aussi des romans en vers.Le roman est défini par Michel Raimond comme un « genre sans loi », qui a « grandi un peu au hasard ». En effet, il n'a pas été d'emblée théorisé ni accompagné de règles, ce qui lui a valu, au départ, un certain « discrédit ». Cela ne l'a pas empêché de connaître un grand succès : le roman « a assuré son hégémonie sur les autres genres ». De fait, le roman s'est arrogé « tous les procédés qui lui convenaient » et peut adopter de multiples formes. La diversité du genre romanesque est perceptible grâce au grand nombre de sous-genres en lesquels il se subdivise, parmi lesquels on peut citer, de façon non exhaustive :L'autobiographie est un récit dans lequel l'auteur raconte sa propre existence. On peut parler de « genres autobiographiques » au pluriel, dans la mesure où plusieurs genres s'apparentent à l'autobiographie tout en présentant des traits distincts, tels le roman autobiographique ou l'autofiction. Le genre autobiographique a notamment été théorisé par Philippe Lejeune.La poésie est un vaste ensemble d’œuvres littéraires, orales ou écrites, ayant ou non recours au vers. Elle ne peut guère se définir par l'emploi de formes ou le traitement de thèmes particuliers. Si elle se caractérise souvent par l'importance accordée par l'écrivain au langage lui-même, le souci de perfection formelle n'est pas nécessairement premier.Les œuvres théâtrales sont des œuvres littéraires destinées à être représentées sur la scène d'un théâtre. Le texte théâtral trouve donc son aboutissement dans une représentation. Ainsi, comme l'écrit Martine David, le théâtre « appartient à la littérature par ses œuvres dramatiques, au spectacle par ses techniques du jeu et de la scène, à l'histoire par ses rites et ses traditions ». Il existe de nombreux genres théâtraux, parmi lesquels on peut citer la tragédie, la comédie, la tragi-comédie, le drame et le vaudeville.Un genre littéraire est une notion permettant de définir un ensemble d’œuvres littéraires comme présentant des caractéristiques communes, qui les distinguent d'autres œuvres littéraires. Par exemple, la comédie, la tragédie, l'ode, l'élégie, le roman historique, le roman policier sont des genres littéraires. Il existe des genres littéraires, de la même façon qu'il existe des genres picturaux (la nature morte, la marine, le portrait...), des genres musicaux (l'opéra, le concerto...), des genres cinématographiques, etc. Toutefois, certaines œuvres littéraires peuvent remettre en question la typologie des genres littéraires.Si le mot « littérature » désigne avant tout l'ensemble des œuvres littéraires, il s'applique aussi au champ du savoir constitué par l'étude de ces œuvres littéraires. En ce sens, la littérature est une discipline d'enseignement et de recherche, qui se subdivise elle-même en plusieurs champs disciplinaires.L'histoire littéraire est la discipline qui s'intéresse à l'évolution historique de la littérature et des œuvres littéraires, en relation avec le contexte donné d'une époque, avec l'histoire des idées, des courants et des mouvements littéraires. Par exemple, un ouvrage tel que "Le roman jusqu'à la Révolution" de Henri Coulet peut être considéré comme un ouvrage d'histoire littéraire, puisqu'il étudie l'évolution d'un genre (le roman) sur une période donnée (du Moyen Âge à la Révolution) et dans un espace donné (la France).La littérature comparée est la discipline qui s'intéresse à la comparaison d'œuvres différentes, issues ou non de milieux culturels ou d'époques différents.Depuis 2006, le Collège de France possède une chaire « Littérature française moderne et contemporaine : histoire, critique, théorie ».Le statut de la littérature peut être interrogé face à la concurrence du cinéma et de la télévision et face à l'usage récent des technologies de l'information et de la communication et de l'informatique dans la production et la diffusion des textes, ces éléments posant la question plus générale de la place de l'écrit dans le monde post-moderne. Cependant, nul doute concernant l'avenir de la littérature : celle-ci dérive de l'Écriture, et on ne peut effacer le rôle de l'Écriture, elle remplace ce qui est dit, parlé, de voie orale. Enfin, les littérateurs (mis à part les dramaturges ou les auteurs de chansons qui affrontent le monde de la scène et de la diffusion musicale) n'existent traditionnellement qu'à travers l'édition de leurs textes en ouvrage ou dans les journaux. Les rapports avec le monde de l'édition sont donc cruciaux pour la littérature et pour les écrivains qui ont eu à imposer la notion d'auteur garant de l'œuvre et l'existence de droits d'auteur (droits patrimoniaux et moraux) à la suite de Beaumarchais, à l’initiative de la Société des auteurs et compositeurs dramatiques, en 1777, et d'Honoré de Balzac avec sa « Lettre aux écrivains du » parue dans la "Revue de Paris" en 1834 qui a abouti en 1838 à la création de la Société des gens de lettres. Cependant, seul un nombre très limité de créateurs de littérature peut vivre de sa plume, ce qui continue à poser la question du statut de l'écrivain.
La littérature est un ensemble d'œuvres écrites ou orales auxquelles on reconnaît une valeur esthétique. C'est un art exprimant un idéal de beauté grâce aux productions littéraires, elle permet de manifester des émotions et de révéler aux lecteurs ou aux auditeurs ce qu'une personne a dans le cœur. La littérature vise à éduquer, à communiquer des pensées, à influencer et même à séduire. La littérature constitue un héritage patrimonial et peut concourir à la préservation du patrimoine d'un pays, lorsqu'elle en souligne les valeurs, la culture et la civilisation.
xwikis
Ce tableau est la représentation la plus usuelle de la classification des éléments chimiques. Certains chimistes ont proposé d'autres façons de classer les éléments, mais celles-ci restent bornées au domaine scientifique. Parmi les chimiques connus, 83 sont dits primordiaux parce qu'ils possèdent au moins un isotope stable ou suffisamment stable pour être plus ancien que la Terre. Parmi eux, trois sont radioactifs : l'uranium U, le thorium Th et le bismuth Bi ; la radioactivité de ce dernier est cependant si faible qu'elle n'a été mise en évidence qu'en 2003<ref name="10.1038/nature01541"> </ref>. Les éléments sont dits synthétiques car ils n'existent pas naturellement dans l'environnement terrestre et sont produits artificiellement dans les réacteurs nucléaires ou expérimentalement en laboratoire. On peut cependantDans la mesure où les propriétés physico-chimiques des éléments reposent sur leur configuration électronique, cette dernière est sous-jacente à l'agencement du tableau périodique. Ainsi, chaque ligne du tableau, appelée période, correspond à une couche électronique, identifiée par son nombre quantique principal, noté : il existe sept couches électroniques connues à l'état fondamental, donc sept périodes dans le tableau périodique standard, numérotées de 1 à 7. Chaque période est elle-même scindée en un à quatre blocs, qui correspondent aux sous-couches électroniques, identifiées par leur nombre quantique secondaire, noté : il existe quatre types de sous-couches électroniques connues à l'état fondamental, notées "s", "p", "d" et "f" (ces lettres viennent d'abréviations utilisées initialement en spectroscopie). Chacune de ces sous-couches contient respectivement 1, 3, 5 et 7 orbitales atomiques, identifiées par leur nombre quantique magnétique, noté. Enfin, chaque orbitale est occupée par au plus deux électrons, identifiés chacun par leur nombre quantique magnétique de spin, noté. Chaque électron d'un atome est donc décrit par quatre nombres quantiques, qui vérifient les propriétés suivantes : En vertu du principe d'exclusion de Pauli, selon lequel deux fermions (ici, deux électrons) d'un même système (ici, un même atome) ne peuvent partager le même état quantique, les sous-couches électroniques "s", "p", "d" et "f" ne peuvent contenir chacune qu'au plus 2, 6, 10 et 14 électrons respectivement ; dans le tableau périodique, elles matérialisent ainsi le bloc s, le bloc p, le bloc d et le bloc f, contenant respectivement 2, 6, 10 et 14 éléments par période. Si l'on respecte la construction du tableau par blocs en fonction des configurations électroniques, l'hélium devrait se trouver au-dessus du béryllium dans la, celle dont les atomes ont une sous-couche externe "n"s, et non au-dessus du néon dans la, dont les atomes ont une sous-couche externe "n"p ; l'hélium est cependant positionné usuellement dans la car c'est celle des gaz nobles, dont il fait chimiquement partie.Toutes les sous-couches d'une période n'appartiennent pas nécessairement à la même couche électronique : à partir de la, des sous-couches appartenant à des couches différentes se remplissent sur une même période. En effet, la distribution des électrons sur les différents niveaux d'énergie quantiques autour de l'atome obéit au principe d"'Aufbau" (« "édification" » enLa règle de Klechkowski est observée pour plus de 80 % des 103 éléments dont la configuration électronique à l'état fondamental est connue avec précision, mais une vingtaine d'éléments y font exception. L'état fondamental est en effet par définition celui dont l'énergie est la plus faible, et le nombre quantique magnétique de spin des électrons entre en jeu pour déterminer cette énergie : plus le spin résultant des électrons d'une orbitale atomique est élevé, plus laLe grand intérêt de la classification périodique est d'organiser les éléments chimiques de telle sorte que leurs propriétés physico-chimiques puissent être largement prédites par leur position dans la table. Ces propriétés évoluent différemment selon qu'on se déplace verticalement ou horizontalement dans le tableau.Une période désigne une ligne du tableau périodique. Elle se définit par le remplissage progressif des sous-couches électroniques jusqu'à atteindre la sous-couche "s" de la couche électronique suivante. Les propriétés des éléments varient généralement beaucoup le long d'une période, mais peuvent être localement assez semblables et constituer des familles d'éléments chimiques complètes, notamment dans le bloc d (métaux dits « de transition ») et surtout dans le bloc f (lanthanides sur la et actinides sur la ). Un groupe désigne une colonne du tableau périodique. Chacun des 18 groupes du tableau périodique standard constitue souvent un ensemble d'éléments aux propriétés distinctes des groupes voisins, notamment aux extrémités gauche et droite du tableau périodique (c'est-à-dire dans les blocs s et p), où ils se sont vus attribuer desLa description quantique de la configuration électronique des atomes permet d'expliquer la similitude des propriétés chimiques au sein d'un groupe par une configuration identique des électrons dans la couche de valence. Le rayon atomique augmente rapidement de haut en bas d'une colonne, car à chaque période s'ajoute une couche électronique. En corollaire, l'énergie d'ionisation et l'électronégativité diminuent car les électrons périphériques sont moins fortement liés au noyau dans le bas du tableau. Outre les analyses par lignes et par colonnes, le tableau périodique permet également d'établir des relations diagonales entre certains éléments chimiques des deuxième et troisième périodes qui se trouvent en diagonale les uns par rapport aux autres dans le tableau. Il s'agit toujours de la direction diagonale allant du haut à gauche vers le bas à droite, car parcourir une période vers la droite et descendre le long d'une colonne se traduisent de façon opposée sur la couche de valence des atomes (respectivement, diminution et augmentation du rayon atomique, d'où augmentation et diminution de l'électronégativité). Il s'ensuit certaines similitudes entre éléments diagonaux, qui pourtant ne partagent ni la même période ni le même groupe : la distribution des métalloïdes dans le tableau périodique illustre cet effet.D'une manière générale, le rayon atomique tend à décroître lorsqu'on parcourt une période de gauche à droite, depuis les métaux alcalins jusqu'aux gaz nobles, et à croître lorsqu'on parcourt un groupe de haut en bas. Il croît brutalement lorsqu'on passe d'une période à la suivante, entre le gaz noble d'une période "P" et le métal alcalin de la période. Ceci s'explique très bien par les couches électroniques constituant les atomes, et ces observations fournissent des preuves importantes pour l'élaboration et la confirmation des théories de la mécanique quantique. La décroissance du rayon atomique le long des périodes résulte notamment du fait que la chargeL'énergie d'ionisation, qui correspond implicitement à l'énergie de première ionisation, est l'énergie minimum nécessaire pour retirer un électron à un atome et former un cation. L'électron retiré est le moins lié au noyau atomique et se trouve dans la couche de valence. L'énergie de deuxième ionisation est par conséquent l'énergie nécessaire pour retirer un deuxième électron à l'ion précédemment formé, etc. Pour un atome donné, les énergies d'ionisation successives augmentent avec le degré d'ionisation. Pour le magnésium, par exemple, l'énergie de première ionisation est de pour former le cation Mg, tandis que l'énergie de deuxième ionisation est de pour former le cation Mg. Cela s'explique par le fait que les électrons sont d'autant plus liés auL'électronégativité est une indication de la tendance d'un atome à attirer les électrons. Elle dépend à la fois du numéro atomique et de l'éloignement des électrons de valence par rapport au noyau atomique. Plus l'électronégativité est élevée, plus l'élément attire les électrons. Cette grandeur, déterminée par exemple par l'échelle de Pauling, suit globalement la même tendance que l'énergie d'ionisation : elle croît quand on va vers le haut et vers la droite du tableau, avecL'affinité électronique d'un atome est la quantité d'énergie libérée lorsqu'un électron est ajouté à un atome neutre pour former un anion. Cette grandeur varie beaucoup d'un élément à un autre, mais des tendances sont perceptibles à travers le tableau périodique, présentant certaines similitudes avec l'électronégativité. Les halogènes présentent la plus forte affinité électronique, très supérieure à celle des tous les autres éléments ; elle est maximum pour le chlore, et non le fluor, à la différence de l'électronégativité. D'uneEn fonction de leurs propriétés physiques et chimiques générales, les éléments peuvent être classés en métaux, métalloïdes et non-métaux : Plus l'énergie d'ionisation, l'électronégativité et l'affinité électronique sont faibles, plus l'élément a un caractère métallique prononcé. Réciproquement, les éléments pour lesquels ces grandeurs sont élevées sont non métalliques. Les non-métaux se regroupent par conséquent autour de l'angle supérieur droit du tableau (typiquement le fluor et le chlore), tandis que la grande majorité des éléments ont un caractère métallique plus ou moins prononcé, les plus métalliques se regroupant autour de l'angle inférieur gauche (typiquement le francium et le césium). Entre ces deux extrêmes, on a coutume de distinguer parmi les métaux : Parmi les non-métaux, on peut distinguer, outre les familles conventionnelles :Au-delà des lignes, des colonnes et des diagonales, les éléments sont traditionnellement regroupés en familles aux propriétés physico-chimiques homogènes : Aux extrémités gauche et droite du tableau, ces familles se confondent à peu près avec les groupes, tandis qu'au centre du tableau elles ont plutôt tendance à se confondre avec les blocs, voire avec les périodes. Ces regroupements d'éléments fondés sur leurs propriétés physiques et chimiques sont parLa configuration électronique des éléments est décrite de façon satisfaisante par le modèle des orbitales atomiques jusqu'au milieu de la. Pour, des effets relativistes deviennent significatifs sur des électrons en interaction avec un noyau très fortement chargé, certaines corrections induites par l'électrodynamique quantique ne peuvent plus être négligées, les approximations considérant les électrons de façon individuelle pour déterminer les orbitales — approximation du champ central — ne sont plus valides, et des effets de couplage spin-orbite redistribuent les niveaux d'énergie, et donc les sous-couches électroniques. Il s'ensuit que la distribution des électrons autour du noyau devient délicate à modéliser pour ces éléments, et qu'on peut s'attendre à ce que leurs propriétés chimiques soient plus difficiles à prévoir. Si les propriétés physiques et chimiques de tous les éléments jusqu'au hassium Hs sont bien connues, seuls deux éléments de numéro atomique supérieur à 108 ont fait l'objet d'études expérimentales : le copernicium Cn et le flérovium Fl ; on n'a par conséquent que très peu d'informations sur les propriétés physiques et chimiques des autres éléments de numéro atomique supérieur à 108. Le coperniciumLes éléments chimiques sont identifiés dans le tableau périodique par leur numéro atomique, qui représente le nombre de protons que contient leur noyau, mais il peut exister plusieurs atomes différents pour un même élément chimique, différant les uns des autres par le nombre de neutrons dans leur noyau. Dans la mesure où ces atomes occupent la même case dans le tableau périodique, ils sont dits "isotopes" — avec une étymologie issue80 des 118 éléments du tableau périodique standard possèdent au moins un isotope stable : ce sont tous les éléments de numéro atomique compris entre 1 (hydrogène) et 82 (plomb) hormis le technétium Tc et le prométhium Pm, qui sont radioactifs. Dès le bismuth Bi, tous les isotopes des éléments connus sont radioactifs. L'isotope Bi a ainsi une période radioactive valant un milliard de fois l'âge de l'univers. Lorsque la période dépasse quatre millions d'années, la radioactivité produite par ces isotopes devient négligeable et présente à court terme un risque sanitaire très faible : c'est par exemple le cas de l'uranium 238, dont la période est de près de 4,5 milliards d'années et dont la toxicité est avant tout chimique<ref name="10.1016/S0162-0134(02)00391-4"> </ref>, à travers notamment des composés solubles tels que,,,,,,, certains composés peu solubles tels que et étant quant à eux radiotoxiques. Au-delà de Z = 110 (darmstadtium Ds), tous les isotopesOn ignore jusqu'à combien de protons et d'électrons un même atome peut contenir. La limite d'observabilité pratique est généralement estimée à au plus, dans la mesure où l'existence des atomes superlourds se heurte à la limite de stabilité des noyaux<ref name="10.1038/nature03336"> </ref>. Cela place la fin du tableau périodique peu après l'une des valeurs proposées pour le dernier îlot de stabilité, centré dans ce cas autour de. Richard Feynman releva en 1948 qu'une interprétation simple de l'équation de Dirac semi-relativiste aboutit à une impossibilité pour représenter les orbitales atomiques lorsque le numéro atomique vaut, où α est la constante de structure fine : deAu-delà des sept périodes standard, une huitième période est envisagée pour classer les atomes — à ce jour inobservés — ayant plus de. Cette huitième période serait la première à posséder des éléments du bloc g, caractérisés à l'état fondamental par des électrons sur une orbitale g. Néanmoins, compte tenu des limites à la périodicité aux confins du tableau — effets relativistes sur les électrons des très gros atomes — qui deviennent significatifs dès le dernier tiers de la, il est peu probable que la configuration électronique de tels atomes obéisse aux règles observées tout au long des six premières périodes. Il est en particulier délicat d'établirDe la toute première tentative de classification des éléments chimiques par Antoine Lavoisier en 1789 au tableau périodique de Glenn Seaborg que nous utilisons aujourd'hui, de nombreux hommes de sciences, issus d'horizons — et parfois de disciplines — différents, ont apporté chacun leur contribution, sur une période de près de deux siècles.C'est en 1789 que le chimiste français Antoine Lavoisier a publié à Paris son "Traité élémentaire de chimie, présenté dans un ordre nouveau et d'après les découvertes modernes". Cet ouvrage en deux volumes a jeté les bases de la chimie moderne, en faisant le point sur les connaissances de la fin du dans cette discipline. Il y précise notamment le concept d'élément chimique comme une "substance simple" qui ne peut être décomposée en d'autres substances, avec en corollaire la loi fondamentale de conservation de la masse de chacune de ces "substances simples" au cours des réactions chimiques. Il mentionna également le fait que de nombreuses substances considérées comme simples par le passé se sont révélées être en réalité des composés chimiques (par exemple l'huile et le sel marin), et il précisa s'attendre àLa première tentative de classification moderne des éléments chimiques revient au chimiste allemand Johann Wolfgang Döbereiner qui, en 1817, nota que la masse atomique du strontium (88) était égale à la moyenne arithmétique des masses atomiques du calcium (40) et du baryum (137), qui ont des propriétés chimiques semblables (aujourd'hui, ils sont classés parmi les métaux alcalino-terreux). En 1829, il avait découvert deux autres « triades » de ce type :En 1859, le chimiste français Jean-Baptiste Dumas généralisa les triades de Döbereiner en les étendant en tétrades incluant les éléments les plus légers, définies non plus par les moyennes arithmétiques, mais par une progression similaire d'une tétrade à l'autre, par exemple : Bien qu'en apparence similaire à celle de Döbereiner, l'approcheLe premier à remarquer la périodicité des propriétés chimiques des éléments fut le géologue français Alexandre-Émile Béguyer de Chancourtois lorsqu'il classa en 1862 les éléments chimiques alors connus en fonction de leur masse atomique déterminée en 1858 par le chimiste italien Stanislao Cannizzaro. Il normalisa la masse atomique de tous les éléments en prenant celle de l'oxygène égale à 16, et, considérant que « les propriétés des éléments sont les propriétés des nombres, » organisa les éléments chimiques en spirale sur un cylindre divisé en seize parties, de telle sorte que les éléments aux propriétés similaires apparaissent l'un au-dessus de l'autre. Chancourtois remarqua alors que certaines « triades » se retrouvaient précisément alignées dans cetteDans la foulée, le chimiste anglais John Alexander Reina Newlands publia en 1863 une classification périodique qui eut, elle, un plus fort retentissement (quoique tardif, et "a posteriori"), car il avait organisé les premiers éléments alors connus par masse atomique croissante — plus précisément, par masse équivalente croissante — dans un tableau à sept lignes en les arrangeant de telle sorte que leurs propriétés chimiques soient similaires par lignes, sans hésiter à placer deux éléments dans une même case si nécessaire pour éviter de laisser des cases vides par ailleurs. Ce faisant, il avait identifié une nouvelle triade, dont les extrémités étaient le silicium et l'étain, et dont l'élément médian restait à découvrir : il prédit ainsi l'existence du germanium, en lui assignant une masseLe chimiste anglais William Odling — secrétaire de la Société de chimie de Londres, et donc rival de Newlands — travaillait également, dans les années 1860, à une table périodique des éléments chimiques remarquablement proche de celle que publierait Mendeleïev en 1869. ElleLa contribution du chimiste allemand Lothar Meyer est à peine mieux reconnue que celle d'Odling, car ses travaux décisifs ont été publiés après ceux de Mendeleïev alors qu'ils étaient pour la plupart antérieurs. Il publia ainsi une première version de sa classification des éléments en 1864, puis finalisa en 1868 une seconde version plus aboutie qui ne fut intégralement publiée qu'à sa mort, en 1895. Le premier tableau de Meyer comprenait vingt-huit éléments classés en six familles définies par leur valence : c'était un grand pas en direction de la forme moderne du tableau périodique, organisé en groupes dépendant de la configuration électronique des éléments, elle-même directement enMalgré la qualité réelle des travaux de ses contemporains, c'est bien au chimiste russe Dmitri Mendeleïev qu'on doit le premier tableau périodique des éléments s'approchant de celui que nous utilisons aujourd'hui, non seulement dans sa forme mais surtout par la vision qui l'accompagne. À la différence de ses prédécesseurs, MendeleïevC'est en voulant mesurer avec précision la masse atomique de l'oxygène et de l'azote par rapport à celle de l'hydrogène que John William Strutt Rayleigh nota une divergence entre la masse atomique de l'azote produit à partir d'ammoniac et celle de l'azote séparé de l'air atmosphérique, légèrement plus lourd. Employant une méthodologie rigoureuse, William Ramsay parvint en 1894 à isoler l'argon à partir de « l'azote » atmosphérique, et expliqua l'anomalie apparente de la masse atomique de l'azote atmosphérique en déterminant la masse atomique de ce nouvel élément, pour lequel rien n'était prévu dans le tableau de Mendeleïev. Sa nature gazeuse et son inertie chimiqueÀ la suite de la découverte de l'électron et de celle des isotopes par l'Anglais Joseph John Thomson — qui ont accompagné les débuts de la physique de l'atome avec les travaux de l'Allemand Max Planck, du Néo-Zélandais Ernest Rutherford et du Danois Niels Bohr — les recherches du physicien anglais Henry Moseley sur la corrélation entre la charge du noyau atomique et le spectre aux rayons X des atomes ont abouti en 1913 au classement des éléments chimiques non plus par masse atomique croissante, mais par numéro atomique croissant. C'était une évolution majeure, qui résolvait toutes les incohérences issues du classement en fonction de la masse atomique, lesquelles devenaient gênantes depuis les travaux de systématisation de Dmitri Mendeleïev.Le physicien américain Glenn Theodore Seaborg contribua dès 1942 au projet Manhattan dans l'équipe du physicien italien Enrico Fermi. Il était chargé d'isoler le plutonium — que lui-même avait synthétisé et caractérisé en — de la matrice d'uranium au sein de laquelle il se formait. C'est au cours de ce travail qu'il développa une connaissance approfondie de la chimie particulière de ces éléments. Il établit ainsi que leur position dans le tableauDe très nombreuses présentations alternatives du tableau périodique ont été proposées tout au long du, et des présentations graphiques innovantes sont encore régulièrement proposées. L'une des plus anciennes et des plus simples est celle d'un autodidacte français par ailleurs méconnu, Charles Janet, qui a donné son nom à une disposition du tableau élaborée au début duUne autre représentation est celle de Theodor Benfey, datée de 1960, dont l'objectif était de remédier aux discontinuités du tableau standard à l'aide d'une représentation en spirale : De nombreux modèles en trois dimensions ont également étéConcernant plus particulièrement les métaux, jusque dans les années 1970, moins de 20 métaux étaient utilisés dans l'industrie. Depuis les années 2000, par suite du développement exponentiel des produits électroniques, des technologies de l'information et de la communication, de l'aéronautique, allié à l'innovation technique dans la recherche de performances et de rendements, la demande en nouveaux métaux « high tech » a explosé, et concerne maintenant environ 60 métaux. Pratiquement tous les éléments de la table sont utilisés jusqu'au (uranium). Les réserves de la plupart des métaux au niveau de production 2008 varient de 20 ans à 100 ans.
Le tableau périodique des éléments, également appelé tableau ou table de Mendeleïev, classification périodique des éléments ou simplement tableau périodique, représente tous les éléments chimiques, ordonnés par numéro atomique croissant et organisés en fonction de leur configuration électronique, laquelle sous-tend leurs propriétés chimiques.
xwikis
Le tchèque se développe à la fin du premier millénaire, à partir du protoslave. Quelques traits du vieux slave survivent dans le vieux tchèque, comme le "jery", la nasalisation (ę et ǫ), la palatalisation ou le système de conjugaison avec quatre temps du passé (aoriste, aspect accompli/inaccompli, plus-que-parfait). Ces traits subsistent jusqu'à la fin du. On a peu de témoignages écrits de la plus ancienne période car peu de gens savaient lire et écrire. Le latin remplit alors le rôle de langue littéraire avec, parfois, le vieux slave. Le premier témoignage écrit du tchèque consiste en deux phrases de la charte fondatrice du chapitre de Litoměřice en 1057 : "Pavel dal jest Ploškovicích zemu. Vlach dal jest Dolas zemu Bogu i svjatemu Scepanu se dvema dušníkoma Bogucos a Sedlatu." Au Moyen Âge, le tchèque commence à se distinguer du vieux slave. Entre les, la transformation du son en apparaît. Ainsi le vieux slave "glova" (« tête ») qui a donné "głowa" en polonais, голова "golova" en russe et ukrainien, donne "hlava" en tchèque. Le voit l'apparition du "ř" à partir du "r" mou du vieux slave. Au, le tchèque pénètre dans la littérature et l'administration. Les premiers livres en tchèque apparaissent. Charles IV du Saint-Empire fait traduire la Bible en tchèque. Au niveau phonétique, sans doute du fait de l'importante immigration allemande et du fait que la cour devient germanophone, le "f" fait son entrée dans la langue tchèque alors qu'il est absent du vieux slave et était, dans les mots latins lexicalisés en tchèque pour des raisons religieuses, remplacé par les lettres "p" ou "b". Entre les, une réforme de l'orthographe introduit dans le tchèque les signes diacritiques. Jan Hus, sans qu'il soit certain qu'il en fût l'auteur, est l'ardent défenseur de cette innovation. À partir du, les Tchèques ne prononcent plus différemment le "y" (dit « i dur » dans les langues slaves, relativement proche du son français "u") et le "i" (dit « i mou »). Prononcé "i", l'orthographe conserve cependant le "y". La littérature tchèque écrite connaît un important développement après la découverte de l'imprimerie au. La bible de Kralice devient alors un exemple de tchèque littéraire. Après 1620 le tchèque connaît un certain déclin, à cause de l'émigration forcée des intellectuels non catholiques comme Comenius ou Pavel Stránský. Peu à peu, l'allemand prend le pas, et tend à devenir la langue de l'éducation et de la science. Grâce aux efforts des membres de la renaissance nationale tchèque, la langue tchèque est de nouveau exaltée aux. L'école fait d'importants efforts pour en refaire une langue littéraire. La langue se détache d'archaïsmes datant de la bible de Kralice. C'est à cette époque que le tchèque littéraire obtient sa forme actuelle. La question de la langue tchèque agite la vie politique de l'Autriche-Hongrie ; en 1897, le Décret sur les langues du est à l'origine de troubles en Bohême et Moravie.L'alphabet tchèque est issu de l'alphabet latin, auquel ont été ajoutées des lettres modifiées par des signes diacritiques, notamment sur certaines consonnes comme c, s, z, r et qu'on a enrichi du digramme « ch ». L'orthographe du tchèque est étymologique et phonétique. La grande majorité des lettres se prononcent.La transcription suit les usages de l'alphabet phonétique international. Les lettres « i » et « y » notent toutes les deux le phonème, en indiquant le caractère respectivement "dur" (articulation vélaire) ou "mou" (articulation palatale) de la consonne qui précède (cf. « Système phonologique », "infra") ; cette distinction affecte peu le timbre vocalique lui-même. Toutefois, ce procédé orthographique n'est valide que pour les consonnes dentales "t-d" ou alvéolaire "n" et, de surcroît, n'est pas observé de manière systématique dans les mots d'emprunt. Il s'ensuit que le choix entre « i » et « y » constitue une difficulté orthographique. Dans les mots d'origines étrangères, di se prononce comme [dj]. La consonne "d" n'est pas molle. De la même façon s'opposent les lettres "e" et "ě" notant [e]. Par exemple, « tě » représente « ťe », soit [t'e]. Dans tous les autres cas, la mouillure est représentée par l'ajout du signe háček (« ˇ » dit "caron" – accent circonflexe inversé) sur « t », « d » et « n » : « ť », « ď », « ň » (majuscules « Ť » « Ď » « Ň ») ; ces dernières ne sont pas traitées comme des lettres de l'alphabet à part entière. Dans les lettres surmontées du háček représentées dans l'alphabet, ce signe ne marque pas le trait phonétique de mouillure (on verra plus bas qu'elles sont toutefois assimilées à des molles dans les déclinaisons) : Enfin, l'alphabet n'accorde pas de place propre aux lettres voyelles accentuées, qui représentent des sons vocaliques longs :Les traits pertinents qui rendent aisément reconnaissable le tchèque sont la différence entre voyelles longues et courtes, la différence entre consonnes dures et molles (malgré son faible rendement) et les consonnes notée « ř » et « h », l'accent fixe initial. On classe ci-dessous les phonèmes suivant la dichotomie traditionnelle consonnes vs. voyelles, bien qu'elle soit difficile à mettre en œuvre en tchèque (cf. les diphtongues et les sonantes).Les voyelles tchèques sont soit courtes, soit longues, ce qui affecte peu leur timbre (le tableau sous forme d'image suivant confond et ) : Cette différence de longueur permet d’opposer des mots (elle est "phonologiquement pertinente"), comme le montrent les paires minimales suivantes : La nature de cette opposition partage les spécialistes : En tout état de cause, cette longueur n’est pas un simple redoublement de voyelles: il n’y a pas de sens d’interpréter /á/ comme /a/ suivi d’un autre /a/, c’est-à-dire de décomposer les syllabes longues en deux mores) : en effet, l'accent de mot frappant une voyelle longue s’applique sans distinction de mores ("a contrario" du serbe, du croate ou du grec ancien).Il y a trois diphtongues en tchèque :La lettre « ř » représente un phonème réputé spécifique au tchèque. Mazon décrit ce « "ř" si caractéristique du tchèque ». Il combine les vibrations de la langue d’un « r » roulé et le bruit de friction de la chuintante « j ». C’est une consonne dorsoalvéolaire roulée dont la variante principale est voisée, qui se transcrit comme // (ou // dans le système API d’avant 1989). La fricative voisée // est produite par resserrement du chenal buccal au niveau du larynx lors de l’émission de la voix. (Elle ne doit pas être confondue avec la fricative sourde — dite « expirée » — de l’anglais « "holiday" »). Elle est notée « h » devant une voyelle. Le digramme « ch » //, mais également « h » ailleurs que devant une voyelle, note le correspondant sourd de la précédente. Sa réalisation est comparable à l’allemand « "Ach!" », mais plus douce. En outre, comme on l’a dit, il existe une corrélation de mouillure pour les dentales occlusives et sonantes ; les consonnes molles sont très nettement palatalisées : Les sonantes, et peuvent fonctionner comme sommet de syllabe (à l’instar de voyelles) et permettent des mots autrement dépourvus de voyelles comme "zmrzl" « il a gelé » ; "ztvrdl" « il a durci » ; "scvrkl" « il a rétréci » ; "čtvrthrst" « quart de poignée » ; "blb" « imbécile » ; "vlk" « loup » ; "smrt" « la mort ». Cette propriété est illustrée dans un virelangue célèbre : "Strč prst skrz krk" « mets ton doigt en travers de la gorge ». Le tchèque considère le, le et le comme des semi-voyelles. Lorsqu’elles jouent ce rôle, elles sont toujours dures. Par exemple, la règle de l’adjonction de voyelles euphoniques, devant un mot commençant par deux consonnes, ne s’applique pas si le mot commence par l’un de ces deux phonèmes : "ve kterém" « dans lequel » mais "v kleci" « dans la cage ». À la fin des mots et devant sourdes, les consonnes sonores (voisées) sont assourdies : "lev" « lion » se prononce comme s’il était écrit « "lef" » et "batoh" « sac » se prononce comme « "batoch" ».Plusieurs phénomènes interviennent à l'initiale des mots. On constate l'insertion d'un coup de glotte devant voyelles. Ce coup de glotte est traité comme une consonne sourde, et entraîne par conséquent l'assourdissement des consonnes voisées (sonores) qui précèdent : "pod oknem" [potoknem] « sous la fenêtre ». La prononciation [podoknem], jugée plus relâchée, se rencontre lorsque le débit est plus rapide. Dans la langue familière, devant l'initiale o- se développe parfois la prothèse [v]: ainsi "okno" se dit souvent "vokno". Ces phénomènes permettent de distinguer l'initiale absolue du mot de l'initiale du groupe plus large, incluant les particules atones (clitiques), qui porte l'accent.L'accent est toujours porté sur la première syllabe du mot. Il existe des exceptions. Les prépositions monosyllabiques forment une unité avec le mot suivant si celui-ci n'est pas plus long que trois syllabes. L'accent est alors placé sur la préposition : par exemple Praha" (Prague) → do Prahy" (vers Prague). Cette règle n'est pas appliquée pour les longs mots, par exemple : na kolo"nádě". Des mots monosyllabiques (par exemple : "mi" (moi), "ti" (tu), "to" (ça), "se", "si" (même), "jsem" (suis), "jsi" (es), etc.) sont des clitiques. Ils n'ont pas d'accent et forment une unité avec les mots précédents. Un clitique ne peut pas être le premier mot d'une phrase. Un autre mot doit le précéder. Par exemple : Napsal jsem ti" ten dopis", Je t'ai écrit cette lettre. Les mots de plus deux syllabes ont d'autres accents. Placés sur les syllabes impaires, ils sont beaucoup moins marqués que le premier accent, dont ils constituent une sorte d'« écho ». Par exemple : nej.krás".něj.ší" (le plus beau). L'accent n'influence pas la longueur des voyelles. Ceci offre quatre possibilités, caractéristiques du rythme en tchèque :La langue comporte des noms ("podstatné jméno"), des adjectifs ("přídavné jméno"), des pronoms ("zájmeno"), des numéraux ("číslovka"), des verbes ("sloveso"), des adverbes ("příslovce"), des prépositions ("předložka"), des conjonctions ("spojka"), des particules, ("částice") et des interjections ("citoslovce"). En revanche, il n'existe pas d'article en tchèque mais il est toujours possible d'utiliser un pronom démonstratif à la place, ce qui donne une certaine emphase. Les noms, adjectifs, pronoms et numéraux se déclinent. Les verbes se conjuguent. Les adverbes, prépositions, conjonctions, particules et interjections sont invariables.La langue tchèque comporte sept cas que les enfants à l'école mémorisent ainsi : Cependant, le slaviste français Claude Kastler propose un tableau modernisé des déclinaisons dans son manuel "La langue tchèque". Il exclut le vocatif des déclinaisons et considère le locatif comme une forme particulière du datif, adoptée par certains mots après les prépositions : "na, v, při, o, po". Pour les besoins de mémorisation, il adopte la classification suivante : Cette présentation, qui reflète les phénomènes de syncrétismes (coïncidences formelles) réunissant certaines formes de nominatif, d'accusatif et de génitif, n'est autre que celle utilisée de longue date par les spécialistes de grammaire comparée slave et fut acclimatée dans la description francophone des idiomes modernes slaves par les russisants. Elle est suivie par de nombreux manuels de tchèque pour les étrangers, ou encore dans l'unique grammaire en tchèque du tchèque pour les étrangers, "Čeština jazyk cizí" d'Ivan Poldauf et Karel Šprunk. C'est celle-ci qui est adoptée dans cet article. Le vocatif est utilisé à l'écrit et dans les situations de communication orales quand on s'adresse à une personne : "ahoj Marku!" (« salut Marc! »), mais il tend à se simplifier et l'on dira couramment "Vážený pane Novák" (« cher monsieur Novák ») au lieu de "Vážený pane Nováku". Il est possible d'utiliser le vocatif pour des objets en procédant à une personnification. En plus de ces sept cas, les déclinaisons se distinguent par le nombre (singulier et pluriel), les trois genres (masculin, féminin, neutre) ou plutôt quatre puisque le masculin a deux formes type : le masculin animé (hommes ou animaux) et le masculin inanimé (objet). La déclinaison diffère également en fonction de la dernière consonne (« dure » ou « molle ») de la racine du mot. Les déclinaisons standards sont donc d'une grande complexité grammaticale.Pour chaque genre, il existe une déclinaison exemplaire « dure » et « molle ». En plus de cette paire, il faut quelques déclinaisons atypiques. Elles sont le plus souvent non-productives, et utilisées pour des termes « archaïques ». Il existe par exemple le féminin en « _ost » et le neutre quasi-invariant en « _í ». Les grammaires tchèques proposent des déclinaisons exemplaires, qui servent de modèles à la déclinaison des autres mots. En outre, le tchèque possède un système parallèle de déclinaisons propre à la langue parlée, qui s'ajoute à cet ensemble complexe.La plupart des substantifs masculins se terminent par une consonne.La plupart des substantifs féminins se terminent par les voyelles « a » ou « e ».La plupart des substantifs neutres se terminent par la voyelle « o ». Les mots d'origine latine se terminant par "-um" se déclinent selon le modèle "město": muzeum, muzea, muzeu, muzeum... Quelques-uns de ces mots ont été « acclimatés » et ont une déclinaison tchèque habituelle. Les numéraux se déclinent également. Le numéral « deux », par exemple, se décline de la manière suivante : Le pronom « oba », "« nous deux », « eux deux », « ces deux choses »", vestige du duel indo-européen, a une déclinaison identique à ce numéral. Cette déclinaison a la particularité d'avoir un datif, non pas similaire au locatif, mais à l'instrumental.Les adjectifs se déclinent selon le genre et le nombre du substantif auquel ils se rapportent : Il existe aussi des déclinaisons exemplaires d'adjectifs :Les adjectifs d'appartenance se forment à partir des substantifs animés de genre masculin ou féminin, au singulier : Exemples :Vestige du duel indo-européen, le tchèque conserve un pronom "oba" (nous deux ou eux deux) qui se décline. On retrouve la même déclinaison pour les substantifs désignant des parties symétriques du corps humain, comme "ruka" (la main), "noha" (la jambe) ou oko (l'œil). Le tchèque décline différemment la jambe d'un être humain et le pied d'une table, bien que les deux mots aient le même nominatif singulier : "noha" (la jambe). Il comporte en outre deux pluriels suivant le numéral qui précède le substantif. De deux à quatre on utilise le pluriel "normal", c'est-à-dire le cas approprié au pluriel. À partir de cinq et au-delà, on utilise le seul génitif pluriel (c.f. la forme française beaucoup de... ou plein de...). Certains termes comme "spousta" (beaucoup), "tolik" (tellement) forcent également l'utilisation de ce génitif pluriel.La conjugaison possède plusieurs modes : l'infinitif, l'indicatif, le subjonctif, l'impératif, le gérondif.L'infinitif possède la terminaison -t. Dans le tchèque littéraire, on trouve éventuellement la terminaison -ti; voire -ci pour quelques verbes en « -ct ». Par exemple, « pouvoir » peut se dire : Moct ou Moci.Claude Kastler propose plusieurs temps pour l'indicatif : le personnel, le passé et le futur.L'indicatif possède un unique temps simple, intitulé "personnel" dans la grammaire de Claude Kaster. Il a valeur de présent pour les verbes imperfectifs. Pour les verbes perfectifs, il a le plus souvent valeur de futur, mais également de présent. Il se fléchit en nombre (singulier / pluriel) et personne (1, 2, 3) : Les verbes tchèques se classent parmi cinq groupes, selon leur terminaison au présent.Le passé est construit à l'aide : Exemple de conjugaison au passé : On constate que l'auxiliaire "být" n'est pas utilisé à la troisième personne.Il existe également un futur composé pour les verbes imperfectifs. Il est constitué du verbe « être » conjugué et de l'infinitif du verbe, nécessairement imperfectif. Les verbes de mouvement construisent leur futur à l'aide des préfixes po-/pů- qui s'ajoutent au présent :Outre les modes infinitif, indicatif et impératif, il faut signaler un conditionnel (parfois désigné « subjonctif » car il n'a pas seulement une valeur hypothétique).Il est formé à l'aide de la particule conjuguée "-by" et de la forme en "-l" accordée du verbe.Peu utilisé dans la langue parlée, il tend à être remplacé par le subjonctif présent. Il se compose du verbe « être » au subjonctif, ainsi que de la forme en "-l" accordée du verbe.L'impératif se forme pour la seconde personne du singulier et du pluriel, ainsi que pour la première personne du pluriel. Pour la seconde personne du singulier, les verbes dont le radical se termine par une seule consonne ont une terminaison en -0, tandis que les verbes dont le radical se termine par deux consonnes ont une terminaison -i/-ej (selon le groupe du verbe). Pour la seconde personne du pluriel, on ajoute la terminaison -te/-ete/-ejte. Pour la première personne du pluriel on ajoute la terminaison -me/-eme/-ejme. Exemples : L'impératif de la troisième personne s'exprime à l'aide de la conjonction at'.Le gérondif n'est utilisé qu'à l'écrit dans une langue soutenue. Il varie en genre et en nombre avec le sujet. Les verbes imperfectifs forment leur gérondif à l'aide du suffixe : -ouc. Les verbes perfectifs le forment à l'aide du suffixe : -vš-Il existe deux formes du passif :La négation s'exprime à l'aide du préfixe « ne- ». Au futur, ce préfixe s'ajoute à l'auxiliaire « être » ; au passé et conditionnel, il s'ajoute au participe : Les phrases tchèques accumulent les termes négatifs :Le tchèque possède cinq classes de verbes. Il existe des exceptions, telles que, jíst, vědět, vidět, mít, chtít et jít".La plupart des verbes ont les terminaisons "0/-te/-me" à l'impératif. Les verbes avec un radical finissant par deux consonnes ont pour terminaisons à l'impératif : -"i/-ete/-eme".La plupart des verbes ont les terminaisons -"i/-ete/-eme" à l'impératif. Les verbes avec un radical finissant par deux consonnes ont pour terminaisons à l'impératif : -"-i/-ěte/-ěme".Les verbes suivants ont des futurs irréguliers Négation irrégulière :Comme les autres langues slaves, le verbe tchèque possède deux aspects : le perfectif et l'imperfectif. On signale également des procédés de dérivation jadis décrits comme des aspects bien qu'ils ne fassent que se surajouter à la division principale en perfectif et imperfectif: à valeur itérative, accomplie ou inchoative. En changeant d'aspect le verbe peut subir un changement complet du radical. C'est cette particularité qui est une des difficultés du tchèque pour l'étudiant des pays d'Europe occidentale. Par exemple : etc. Dans ces exemples, la racine du verbe traduit « faire » est partout la même, ce qui n'est pas toujours le cas : "brát" « prendre » est le correspondant imperfectif de "vzít". La conjugaison tchèque rend sonore la personne, sujet du verbe et rend les pronoms inutiles. Ils existent néanmoins et s'utilisent pour insister : par opposition à : Le verbe « être » peut se sous-entendre. En reprenant notre exemple ci-dessus:La fonction syntaxique des mots est pour l'essentiel indiquée par la déclinaison. L'ordre des mots est donc disponible pour indiquer l'insertion de l'énoncé dans son contexte énonciatif. C'est ce que les grammairiens tchèques appellent la « division actuelle de la phrase » ("aktuální větné členění"). C'est dans ce sens que l'ordre des mots peut être dit "libre" : il n'est pas contraint par la syntaxe élémentaire. En revanche, il suit les règles, impérieuses, de la division actuelle.L'énoncé peut être divisé en thème (« ce dont on parle ») et rhème (« ce qu'on dit du thème »), suivant un grand principe général: lorsqu'il y a un thème explicite, alors il précède, en règle générale, le rhème. Le français assignant quant à lui une fonction syntaxique à l'ordre des mots, rend les effets de la division actuelle tchèque par divers procédés d'emphase (phrases dites « clivées » en "c'est... que", par exemple), ou par le choix des déterminants (articles définis / indéfinis), etc. De même, on comparera : Un élément appartenant au rhème d'une phrase peut être inclus au thème de la seconde, comme c'est le cas de "král" « le roi » qui est introduit dans le rhème "jeden král": On identifie parfois cette opposition entre thème et rhème avec la différence entre l' « information ancienne » et l' « information nouvelle ». Toutefois, un pronom de reprise - porteur d' « information ancienne » - peut être en position de rhème:Le nom de famille d'une femme se met au féminin, Jana Tichá porte le même patronyme que Miloš Tichý. Dans le cas présent, "tichý" est un adjectif et la forme féminine de cet adjectif est "tichá". Quand le nom de famille est un substantif, il est le plus souvent dérivé du masculin par l'ajout de « —ová » : Eva Romanová est la sœur de Pavel Roman. La forme « —ová » est grammaticalement un génitif et implique, au grand dam des féministes, l'idée de possession (Madame Nováková est littéralement l'épouse ou la fille de Monsieur Novák). Jusqu'à il y a peu cette forme était obligatoire, imposée par la loi tchécoslovaque puis tchèque. On peut voir dans cette obligation, une mesure vexatoire envers les minorités allemandes ou hongroises, forcées, après avoir dominé le pays, d'adopter les usages slaves. Par exemple, Kateřina Neumannová est la fille de monsieur Neumann. Désormais, l'épouse tchèque d'un ressortissant étranger ou d'un membre d'une minorité linguistique de la Tchéquie peut choisir entre :Il existe plusieurs dialectes regroupés en deux ensembles régionaux, qui ne correspondent pas exactement à la Bohême et à la Moravie. Le groupe de la Moravie de l'est comprend un sous-dialecte très influencé par le slovaque. Le groupe de la Silésie polonaise a parfois été considéré comme une langue à part, le silésien. De plus, les régions peuplées avant 1945 par la minorité allemande ont reçu des migrants de toute l'ancienne Tchécoslovaquie et pratiquent une langue sans couleur dialectale. Il existe également des variantes propres à chaque grande ville. Quelques exemples :Il existe un écart important entre le tchèque familier ("obecná čeština") et la langue dite « littéraire » (', qui traduit le terme allemand '). Cette dernière conserve certains archaïsmes hérités de sa normalisation par J. Dobrovský, laquelle s'appuyait largement sur les modèles des. Durant tout le s'est poursuivi un débat animé entre « puristes » (représentés par le journal "Naše řeč", publié par l'Institut de la langue tchèque) et « rénovateurs » (à commencer par les grandes figures du Cercle linguistique de Prague : Vilém Mathesius, Bohuslav Havránek). Si le tchèque « parlé » "()" a réduit le nombre de déclinaisons, cela revient néanmoins à ajouter toute une batterie de cas à mémoriser en plus de l'énumération ci-dessus. Voici quelques exemples de déclinaisons « populaires » :
Le tchèque (en tchèque : "" ) fait partie des langues slaves occidentales, avec le kachoube, le polonais, le slovaque et le sorabe, branche de la famille des langues indo-européennes. Il est principalement parlé en Tchéquie, ce qui représente environ onze millions de locuteurs.
xwikis
Le mot « pédagogie » dérive du grec "παιδαγωγία", de "παιδός" ("/'paɪdɔr/"), « l'enfant », et "ἄγω" ("/'a.gɔ/"), « conduire, mener, accompagner, élever ». Dans l'Antiquité, le "pédagogue" était un esclave qui accompagnait l'enfant à l'école, portait ses affaires, mais aussi lui faisait réciter ses leçons et faire ses devoirs. « Pédagogie » est un mot remontant à 1495 d'après le dictionnaire "Le Robert". L'Académie française l'admet depuis 1762. Ferdinand Buisson, qui fut inspecteur général de l'instruction publique, donne cette définition : « science de l'éducation, tant physique qu'intellectuelle et morale » ("Dictionnaire de pédagogie", 1887, col. ). Selon Émile Durkheim, la pédagogie est une « réflexion appliquée aussi méthodiquement que possible aux choses de l'éducation » ("L'évolution pédagogique en France", Paris, PUF, 1938, ). « L'éducation est l'action exercée par les générations adultes sur celles qui ne sont pas encore mûres pour la vie sociale. Elle a pour objectif de susciter et de développer chez l'enfant un certain nombre d'états physiques, intellectuelsDans l'histoire de la pédagogie, il faudrait distinguer méthodes, systèmes, mouvements, démarches, dispositifs, modèles, approches, pratiques. Le contrat pédagogique est une notion introduite pour signifier que l'enseignement ne peut produire ses fruits que s'il y a accord entre l'enseigné et l'enseignant sur les objectifs mêmes de la formation, les comportements attendus des enseignants et enseignés ressortant, eux, du contrat didactique. Les démarches pédagogiques sont des attitudes méthodologiques et progressives de pensée insistant soit sur les phases, les moments d'un travail, soit sur les formes, les aspects d'un objet de recherche, en matière d'enseignement. Par ex., l'approche ou démarche expérimentale se déroule en au moins trois phases (observation, hypothèse, contrôle) et se concentre sur au moins deux points (la reproduction du phénomène, la modification des variables). On peut citer les démarches comparative, déductive, historique, scientifique, transversale, complexe, innovante, systémique... que l'on trouve autant chez les élèves que chez les professeurs ou les pédagogues. Les dispositifs pédagogiques sont des structures administratives, des agencements au sein du système éducatif, en lieux, personnels, finances, règlements, matériels. Comme exemples, on peut citer les ZEP (1981), l'organisation de l'école primaire en trois cycles (loi Lionel Jospin, 1989), "le socle commun des connaissances" (Gilles de Robien, 2006), les stages de remise à niveau (Xavier Darcos, 2008), la prévention du piratage informatique (Christine Albanel, 2009), le dispositif d'évaluation des acquis des élèves en C.E.1 et C.M.2 (2009). Les doctrines pédagogiques sont de grands ensembles théoriques, complexes, mêlant théories et procédures. Ce sont des philosophies, des visions du monde, des idéologies. Elles supposent, clairement identifiées, une psychologie de l'enfant, une philosophie de l'éducation, une sociologie de l'institution scolaire ou universitaire. Les principes comptent. Dès "La République" de Platon on trouve des doctrines. On peut considérer comme "doctrines pédagogiques" la pédagogie traditionnelle, la pédagogie négative (Jean-Jacques Rousseau) ou non directive (Carl Rogers, 1969), la pédagogie soviétique (A. Makarenko, 1917), l'Éducation nouvelle (dont Freinet), la pédagogie Steiner-Waldorf. Les méthodes pédagogiques consistent en des règles et des procédés pour mettre en œuvre un enseignement du maîtrePréalablement, il faut rappeler que les normes pédagogiques sont ancrées dans l'histoire et donc historiquement situées. Chaque époque contient des débats sur ce qu'il faut enseigner (valeurs, connaissances...) et comment les enseigner.L'humanisme de la Renaissance voit naître quelques précurseurs de la pédagogie, dont Érasme. En territoire germanique, Martin Luther est un initiateur fondamental de l'enseignement moderne : ses motivations puisent leur source au cœur même de sa théologie, mais aussi dans le contexte religieux, économique et social de son temps. Le Réformateur implique l'ensemble du tissu social dans cette mission éducative. En France Rabelais propose un idéal du dépassement de soi. Il décrit à la fin de "Gargantua" (1534) une abbaye utopique, l'abbaye de Thélème. Rabelais, moine de son état, connaît bien la vie monacale, et dans la description de cette abbaye fictive il expose son idée d'une abbaye humaniste où de beaux jeunes gens, des deux sexes, viendraient étudier dansEn 1762, Rousseau écrit "Émile ou De l'éducation". Le sujet en est « l'art de former les hommes » (préface). Rousseau énonce dans cette œuvre son principe : l'enfant naît bon et c'est la société qui le corrompt. Selon lui, il est nécessaire que l'enfant ait envie d'apprendre et qu'il ait connaissance d'un métier manuel, chose très rare chez les nobles de cette époque. L'ouvrage est condamné par le Parlement, en particulier à cause de la "Profession de foi du vicaire savoyard". Ce programme pédagogique idéal offre une vision novatrice de l'enfance. En Suisse, Johann Heinrich Pestalozzi (1746-1827) s'inspire de ces théories pour fonder son école. Il souhaite aider l'enfant dans "la vie réelle", mais en la différenciant suivant les classes sociales. Pour lui,La notion d'innovation pédagogique n'est pas nouvelle. Elle prend un sens tout à fait nouveau avec la révolution numérique qui a redessiné le paysageCertains auteurs comme Ivan Illich (voir son ouvrage « La société sans école ») dénoncent le caractèreÀ la limite, chaque pédagogue a sa pédagogie. Mais, selon Marguerite Altet, on classe habituellement les diverses pédagogies en trois ou quatre types, avec toujours les mêmes cinq éléments : l'apprenant, l'enseignant, le savoir, la communication, la situation, le tout ordonné vers une finalité (instruire ou éduquer, former... du côté du maître ; apprendre ou se socialiser, s'épanouir, s'autonomiser... du côté de l'élève). Elles sont centrées sur les savoirs constitués à transmettre et sur le maître (magistro-centrisme), qui enseigne. Elles fonctionnent à la transmission de contenus déjà structurés ou à l'empreinte, assimilation passive. On attend de l'élève "réponses, performances, savoirs". On a là les diverses pédagogies défendues par les congrégations religieuses jusqu'au (les jésuites, etc.) et les pédagogues transmissifs (Comenius, Alain, etc.) ; Elles sont centrées sur l'élève comme enfant (puéro-centrisme), un élève qui "construit" son savoir, s'approprie personnellement les connaissances et les procédures. C'est le mouvement pédagogique de l'Éducation nouvelle, avec la pédagogie fonctionnelle de John Dewey (1897), l'école nouvelle d'Adolphe Ferrière (1899), l'école nouvelle d'Ovide Decroly (1921), la pédagogie coopérative de Célestin Freinet (1924), la pédagogie de la liberté de Roger Cousinet (1959) ; Elles sont centrées sur l'élève en tant qu'apprenant et sur les moyens techniques, opératoires, d'acquérir effectivement des savoir, savoir-faire, savoir-être (techno-centrisme), en temps voulu. Il s'agit de rendre l'élève actif en lui proposant un savoir programmé à découvrir ou à reconstruire. On obtient la pédagogie par objectifs (1935) qui articule objectif-méthode-évaluation-objectif dans une optique de rationalisation et d'efficacité. On trouve également l'enseignement programmé de B. F. Skinner (1958) à bases de récompenses, de « conditionnement opérant » ; Elles sont centrées sur un enfant membre de la communauté sociale et sujet social (socio-centrisme). Elles entendent former un homme social, éduquer socialement. Ici figurent la pédagogie marxiste de A. Makarenko (1917), la pédagogie institutionnelle de Fernand Oury (1963), la "pédagogie progressiste" de G. Snyders (1976). Il existe également d'autres méthodes non présentes dans cette classification, telles les pédagogies cognitives. Ces pédagogies sont basées sur les recherches en psychologie cognitive, qu'elles utilisent afin de rendre l'enseignement plus efficace et/ou efficient. Elles utilisent notamment les recherches sur la mémoire, la méta-cognition et l'expertise pour déduire des méthodes et pratiques pédagogiques adaptées. parmi ces pédagogies, on trouve notamment la pédagogie explicite, et l'apprentissage multi-épisodique d'Alain Lieury.« Comenius (en tchèque Jan Komensky) passe pour être le fondateur, le "père" de la pédagogie de la modernité. » Il composa sa "Didactica Magna" (Grande Didactique) entre 1628-1632, avec une édition complète en 1657. Il promet « un art universel de tout enseigner à tous ». Il avance diverses recommandations : enseigner dès le plus jeune âge, procéder « du général au particulier et du facile au plus difficile », « placer toute chose sous les sens, en faire apparaître l'utilité immédiate, suivre toujours la même méthode », « régler son enseignement sur les capacités"L'éducation négative" est prônée par Jean-Jacques Rousseau dans son roman pédagogique "L'Émile" (1762). Parmi les prédécesseurs de Rousseau, on peut noter le Socrate de Platon (la maïeutique) et le traité "De Magistro" de saint Augustin, qui montre, par une théorie du langage, comme le maître ne peut qu'indiquer la vérité qui estLa Pédagogie Montessori est uneAnton Semionovitch Makarenko, instituteur en 1905, propose, dès 1917, une pédagogie conforme à la "nouvelle société socialiste" de l'U.R.S.S. Il fonde en 1920 une communauté de jeunes où il met en œuvre des pratiques pédagogiques ordonnées à la recréation chez l'individu de conduites socialesHistoriquement, la pédagogie de projet ("project-based learning") remonte à William Heard Kilpatrick, en 1918, dans un article intitulé "The Project Method". Mais l'idée revient au philosophe John Dewey, vers 1900. La pédagogieLa pédagogie active a pour objectif de rendre l'apprenant acteur de ses apprentissages, afin qu'il construise ses savoirs à travers des situations de recherche. Pour Piaget, théoricien du constructivisme,. La pédagogie active se réfère historiquement à Adolphe Ferrière qui, dès 1918, est parmi les premiers à utiliser l'appellation "école active". En 1921, il crée la Ligue internationale pour l'éducation nouvelle. La pédagogie active est une desLa Pédagogie Steiner-Waldorf, basée sur les théories éducatives de Rudolf Steiner (1861-1925), est une des applications les plus connues de l'anthroposophie fondée par celui-ci. CetteOn donne Roger Cousinet pour père de la pédagogie de groupe vers 1920, mais il faudrait remonter à John Dewey, vers 1900. Un Américain, Kurt Lewin, en 1939, a bien étudié la dynamique de groupe : la persuasion, les dominations et soumissions, les contagions mentales, le conformisme, la sympathie ou antipathie, l'apparition des leaders, les violences exprimées ou latentes contre le leader ou entre membres, les capacités du groupe à s'autogérer autour d'un butLe socio-constructivisme repose sur l'idée selon laquelle l'acquisition de connaissances durables est favorisée par la prise en compte du champ social dans laquelle elle est située. Cette théorie a été développée par Lev Vygotski en 1934. Il s'appuyait sur le constructivisme de Piaget, élaboré dès 1923. En un autre sens, toutefois, on peut dire que Lev Vygotski, par exemple dans "Pensée et langage" (Chapitres 2 & 4 en particulier) propose une critique de la pensée piagétienne. Il cherche à montrer en effet que certaines acquisitions (de façon exemplaire: celle du langage) résultent du croisement de deux lignes de développement. L'une correspond bien à ce que décrit le développementalisme de Piaget: un individu s'adapte à un changement enHistoriquement, cette pédagogie a pour fondateur Ralph Tyler (1935). Tyler a été suivi par Benjamin Bloom. S’inspirant des travaux de Ralph Tyler, il considérait que ce qui importait dans l’enseignement était non pas de comparer les résultats des étudiants mais d’aider ceux-ci à atteindre les objectifs des programmes qu’ils suivaient. Le fait d’atteindre ces objectifs était le principal. Il fallait axer le processus pédagogique sur la conception de tâches permettant de conduire l’étudiant, lentement mais sûrement, vers la réalisation des objectifs correspondant à son programme d’études. L’ouvrage de Benjamin Bloom, "Apprendre pour maîtriser", est un panégyrique d’une telle conception. Née à une époque où le taylorisme s'accompagnait d'une montée en puissance du behaviorisme, ce type de pédagogie vise avant tout à définir des objectifs de formation facilement quantifiables et observables, le but de ces objectifs étant d'adapter l'homme aux besoins et valeurs de la société, vérifiables par des comportements attendus, et non pas de chercher à élever son niveau de conscience. La pédagogie par objectifs se veut rationnellement construite et immédiatement évaluable sur des critères quantifiés. L'évaluation des résultats de l'apprenant yLarchetypal pedagogy", ou pédagogie archétypale, est une pédagogie fondée sur la psychologie analytique développée dès 1956 par Carl Gustav Jung (1875 - 1961), à partir de son recueil "Psychologie et éducation", qui groupe des articles de 1916 à 1942, et des recherches sur l'application jungienne à la pédagogie. Ainsi peut-on situer une con-comitanceGénéralisant à l'apprentissage humain les résultats de ses recherches sur la psychologie animale, B. F. Skinner (1904-1990) et le néo-behaviorisme ont été amenés à édifier toute une théorie de l'apprentissage qu'ils appliquent directement à la thérapie behaviorale et à l'enseignement programmé où le terme "programme" désigne une séquence d'activités ordonnancées de façon systématique selon les principes suivants : Ce dernier conduit à identifier et à définir le comportement recherché à installer chez l'élève ou le patient et à le lui rendre désirable. C'est la "motivation" dans son expression la plus simple. Ce comportement recherché est fractionné ou "analysé" en fragments de plus en plus menus et de plus en plus simples avec leurs relations qui ne sont pas toujours évidentes pour l'élève ou le patient, car la progression dans les acquisitions va du plus simple au plus complexe. Un enseignement programmé ou une thérapie behaviorale présente la matière à apprendre ou le comportement recherché en fragments menus de difficulté progressivement échelonnée de telle sorte que le comportement que l'on veut installer soit acquis avec la même sûretéLa pédagogie du « construire sa connaissance par les documents » vise plusieurs objectifs. Tout d’abord la pédagogie documentaire signifie l’autonomie de l’élève. En effet, l’élève n’attend pas qu’on lui délivre un savoir, il va lui-même se l’approprier en cherchant l’information dans des documents, et en la restituant selon ses attentes, ses besoins. La pédagogie documentaire vise également le développement de l’esprit critique deLes premières formalisations de la Pédagogie explicite sont posées par S. Engelmann en 1960 à travers le Direct Instruction ; à partir de 1968 (et ce jusqu'en 1995), démarre aux États-Unis le projet Follow Through qui constitue une étude comparative de grande ampleur de neuf méthodes pédagogiques ; ce programme de recherche a montré que le Direct Instruction dépasse en efficacité les huit autres méthodes sur les trois points évalués : connaissances de base acquises, savoir-faire, estime de soi. En 1976, B. Rosenshine (professeur et chercheur en psychologie cognitive) décrit la pédagogie explicite. Les pratiques de la pédagogie explicite continuent d'être étudiées et évaluées par l'équipe de C. Gauthier (Université Laval, Québec). "In fine", les principes de la pédagogie explicite découlent d'observations empiriques et d'études scientifiques issues d'études longitudinales et de méta-analyses de grande ampleur. Les procédés utilisés dans le cadre d'une pédagogie explicite permettentLa programmation neuro-linguistique (PNL) cherche à modéliser les compétences cognitives et relationnelles de gens de talent pour les transmettre à d'autres. Dans le domaine de la pédagogie, les intervenants en PNL ont observé des élèves brillants dans leur manière de procéder mentalement pour réaliser des tâches scolaires. Ils ont conclu que ceux-ci, face à une même tâche scolaire, réalisaient les mêmes opérations mentales. Par exemple pour la mémorisation de l'orthographe,Issue de la pédagogie Freinet, la pédagogie institutionnelle a été fondée par Fernand Oury avecLa recommandation de différencier ses enseignements remonte haut, surtout à Alexandre Carroll, « ingénieur technico-pédagogique », en 1963 aux États-Unis. Mais la terminologie et la volonté politique s'affichent en France surtout en 1973, avec Louis Legrand, qui essaie de la faire appliquer dans le secondaire en 1983. Il a publié "La différenciation pédagogique", Paris, Scarabée, CEMEA,Historiquement l'apprentissage par problèmes (APP) (en anglais "problem-based learning") est inaugurée en 1969 à la MacMaster University. Les apprenants, regroupés par équipes, travaillent ensemble à résoudre un problème généralement proposé par l'enseignant, problème pour lequel ils n'ont reçuLa pédagogie de la Gestion mentale est issue des travaux d’Antoine de la Garanderie. Le parcours personnel de ce philosophe humaniste l’a convaincu que chaque enfant a en lui les moyens de sa réussite. Par un dialogue pédagogique, le pédagogue accompagne l’enfant dans une découverte de lui-même. Il l’interroge sur la façon dontCette pédagogie, à l'image d'une spirale, revient surUne méthode d'éducation active, ou chacun apprend par les autres, avec les autresLa pédagogie des défis part d'une problématique concrète exprimée par une partie prenante (entreprise, administration, organisation), cetteLes "pédagogies de la décision" s'inspirent des "pédagogies auto-gestionnaires" et de la "pédagogie institutionnelle". Jean Houssaye invente la pédagogie de la décision au cours des années 1990 après avoir expérimenté pendant deux décennies. À l'image de F. Oury et de J. Korczak, les pédagogies de laLa Pédagogie du dehors est une pédagogie créée au Danemark par Ella Flatau vers 1950. Cette pédagogie où lesInternet peut être utilisé dans l'enseignement en rendant possible un processus de reconnaissance éthique et politique dans lequel le bon citoyen est appelé à jouer un rôle des plus actifs globalement aussi bien que localement.
La pédagogie (du grec παιδαγωγία, "direction" ou "éducation des enfants") désigne l'art de transmettre une compétence. Le terme rassemble les méthodes et pratiques d'enseignement requises pour transmettre un savoir (connaissances), un savoir-faire (capacités) ou un savoir-être (attitudes).
xwikis
Le terme "GNU/Linux" a été initié par le projet Debian créé par Ian Murdock et est défendu notamment par Richard Stallman, fondateur du projet GNU. Selon ses défenseurs, il est nécessaire pour créditer à la fois les développeurs de GNU et de Linux, afinLe, Richard Stallman annonce sur Usenet son projet de développer un système d'exploitation compatible UNIX appelé GNU, en invitant la communauté hacker à le rejoindre et participer à son développement. Dès 1985, certaines pièces maîtresses sont déjà opérationnelles : le compilateur GCC finalisé dès, une version emacs compatible UNIX, etc.En 1991, l’étudiant finlandais Linus Torvalds, indisposé par la faible disponibilité du serveur informatique UNIX de l’université d'Helsinki, entreprend le développement d’un noyau de système d'exploitation, qui prendra le nom de « noyau Linux ». Le, il annonce sur le forum UsenetÀ l'origine, l'installation d'un système opérationnel GNU/Linux nécessitait des connaissances solides en informatique et obligeait à trouver et installer les logiciels un à un. Rapidement, des ensembles de logiciels formant un système complet prêt à l'usage ont été disponibles : ce sont les premières distributions GNU/Linux. On peut citer par ordre chronologique :Dans son ouvrage intitulé "The Daemon, the Gnu, and the Penguin", Peter Salus explique que ce système est né de la rencontre du mode opératoire « hacker » avec les principes du mouvement du logiciel libre, les philosophies hacker et du logiciel libre y sont décrites comme deux facettes du même objet.La différence essentielle des distributions GNU/Linux certifiées par la Free software foundation par rapport à d’autres systèmes d’exploitation concurrents — comme Mac OS, Microsoft Windows et Solaris — est d’être des systèmes d’exploitation libres, apportant quatre libertés aux utilisateurs, définies par la licence Licence publique générale GNU (GPL), les rendant indépendants de tout éditeur et encourageant l’entraide et le partage. Un logiciel libre n’est pas nécessairement gratuit, et inversement un logiciel gratuit n’est pas forcément libre. Ce ne sont pas non plus des logiciels libres de droits : c’est en vertu de leurs droits d’auteurs que les contributeurs d’un logiciel libreLinux n’aurait pu se développer sans la présence de protocoles standardisés utilisés sur Internet. Un bon nombre de logiciels libres sont d’ailleurs des implémentations de référence, comme Apache. Les partisans des logiciels libres sont donc des partisans constants de l’interopérabilité. Ils mettent en avant les formats ouverts, des formats de données dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en œuvre, afin de ne pas dépendre d’un seul logiciel. Citons dans cette optique Mozilla Firefox, qui tente de respecter scrupuleusement les recommandations émises par le "World Wide Web Consortium", Jabber, qui a donné naissance au standard XMPP reconnu par l’Internet Engineering Task Force dans le domaine de la messagerie instantanée ou encore les suites LibreOffice et Calligra, qui ont lancé le standard OpenDocument dans le domaine de la bureautique. Dans d’autres domaines, il n’existe pas d’organisme ou d’accord de standardisation reconnus. Le marché est alors morcelé entreDe nombreuses associations, connues sous le nom de Groupe d'utilisateurs Linux ("Linux Users Group en anglais"), cherchent à promouvoir GNU/Linux et, par extension, les logiciels libres, par le biais de rencontres où des démonstrations de GNU/Linux sont faites, des formations, et pour ceux qui le souhaitent des installations sur leur ordinateur. De nombreusesLes logiciels libres sont développés de manière collaborative, souvent indépendamment les uns des autres, et peuvent être librement redistribués. Il s’ensuit une particularité du monde GNU/Linux : la séparation fréquente entre ceux qui développent les logiciels et ceux qui les distribuent. On appelle distribution GNU/Linux (ou distribution Linux) une solution prête à être installée par l’utilisateur final comprenant le système d’exploitation GNU, le noyau Linux, des programmes d’installation et d’administration de l’ordinateur, un mécanisme facilitant l’installation et la mise à jour des logiciels comme RPM ou APT ainsi qu’une sélection de logiciels produits par d’autres développeurs. Une distribution peut par exemple choisir de se spécialiser sur l'environnement de bureau GNOME ou KDE. Elle est également responsable de la configuration par défaut du système (graphisme, simplicité...), du suivi de sécurité (installations de mise à jour) et plus généralement de l’intégration de l’ensemble. La diversité des distributions permet de répondre à des besoins divers, qu’elles soient à but commercial ou non ; orientée serveur, bureautique ou embarqué ; orientée grand public ou public averti ; généraliste ou spécialisée pour un usage spécifique (pare-feu, routeur réseau, grappe de calcul, etc.) ; certifiées sur un matériel donné ; ou tout simplement entièrement libres, c’est-à-dire dépourvues de tout code propriétaire. La plupart des distributions sont dérivées d'une autre distribution. Ainsi, comme illustré dans la "ligne temporelle des distributions GNU/Linux", trois distributions sont à l'origine de la plupart des autres : De nombreuses autres distributions plus ou moins spécialisées existent, étant pour la plupart dérivées des projets précités. Par exemple voici quelques distributions spécialisées « environnement de bureau » : Ubuntu, éditée par Canonical Ltd. qui est dérivée de Debian ; MEPIS, également fondée sur Debian ; Zenwalk, dérivée de Slackware ; OpenMandriva Lx et Mageia éditées par des associations à but non lucratif, dérivées de feu Mandriva Linux elle-même dérivée de Red Hat. Il existe également pour beaucoup de distributions des éditions dites "Live CD", l’une des plus célèbres est Knoppix, elles offrent la possibilité de démarrer un système d’exploitation GNU/Linux complet et d’accéder à de nombreux logiciels à partir du support (CD, DVD ou clé USB) sans installation préalable sur le disque dur, et sans altérer son contenu. Cette souplesse d’utilisation les rend très populaires pour les démonstrations d’utilisation de GNU/Linux, et sont même utilisées comme outils de maintenance système. Parmi les distributions GNU/Linux entièrement libres recommandées par la Free Software Foundation, on peut citer Trisquel et gNewSense. Enfin, Linux From Scratch est un livre qui, à partir du code source des logiciels, propose au lecteur de construire sa propre distribution GNU/Linux.Un des enjeux qui se posent pour les distributions GNU/Linux est de nouer des partenariats avec des fabricants d’ordinateurs afin qu’il devienne plus facile de trouver un ordinateur vendu avec un système fondé sur GNU/Linux pré-installé. Car même si certaines distributions affirment avoir rendu l’installation d’un système fondé sur GNU/Linux aussi simple que celle des systèmes d’exploitation concurrents, le simple fait d’avoir à être au courant que d’autres systèmes existent, d’être prêt à accepter des changements dans ses habitudes et d’avoir à installer soi-même le système constitue un désavantage indéniable par rapport à la situation privilégiée dont jouissent les distributeurs de Microsoft Windows et de Mac OS X. Le système de Microsoft est en effet omniprésent et Apple est en même temps le fabricant des Macintosh. À défaut, les utilisateurs de GNU/Linux peuvent réclamer le remboursement de la part correspondante au prix du système d’exploitation et des logiciels qu’ils n’ont pas l’intention d’utiliser, lors de l’achat d’unLe concept de part de marché est un peu particulier dans le cas du noyau Linux. En effet comme les systèmes d'exploitation qui l'utilisent sont rarement « vendus », la mesure financière n'a aucun sens. Seul le nombre de machines l'utilisant régulièrement peut être compté. Si cela est aisé pour les superordinateurs (peu nombreux), cela devient plus difficile pour les postes clients (statistiques fondées sur le user-agent HTTP), et encore plus incertain pour les systèmes embarqués, à l'exception des baladeurs, téléphones, et tablettes numériques.Le noyau Linux équipe la plupart des systèmes embarqués, civils ou militaires (box,Les Linux yEn 2010, GNU/Linux totalise 16,8 % des parts de marché pour les serveurs, toute utilisation confondue, selon une étude de l'International Data Corporation (IDC), en s'appuyant sur les revenus générés.En, une étude de XiTi réalisée régulièrement sur les systèmes utilisés par les visiteurs de sites web professionnels européens donne 91,9 % de part de marché à Windows (39,2 % à Windows XP, 21,0 % à Windows Vista, 18,3 % à Windows 7, 16,3 % à Windows 8 et 4,2 % à Windows 10), 5,3 % à Mac OS X et 0,9 % à GNU/Linux. Statistiques publiées par le site StatCounter et netmarketshare sur la part de GNU/Linux dans le monde : La vente liée au grand public de nombreux ordinateurs pré-installés avec Windows explique en partie la faible part de marché de GNU/Linux sur les postes clients bien que celle-ci tende à augmenter.De par la filiation avec UNIX, la ligne de commande (ou shell Unix) est toujours disponible dans GNU/Linux, quelle que soit la distribution. Elle est restée longtemps incontournable, mais ce n’est plus vrai avec les distributions récentes et simples d'utilisation destinées à l’usage personnel, telles que Ubuntu ou Kubuntu. Néanmoins, les aides en ligne mentionnent souvent la marche à suivre en ligne de commande, même lorsqu’une configuration graphique est possible : cette méthode est plus "universelle" dans le monde GNU/Linux, et souvent plus facile à expliquer pour la personne qui aide, et son interlocuteur n’a qu’à copier-coller l’indication. Une interface graphique bien conçue permet de nos jours d’accomplir la grande majorité des tâches bien plus agréablement, mais ce n’est pas toujours leL’emploi du terme générique "GNU/Linux" est trompeur s’agissant de l’utilisation d’un ordinateur personnel. En effet, il existe plusieurs interfaces (ou gestionnaire de fenêtres) aux caractéristiques différentes, comme KDE, GNOME ou Xfce. Cependant, comme toutes ces interfaces sont fondées sur X Window, leurs applications peuvent cohabiter et elles offrent des points communs dont l’affichage de fenêtres à distance (y compris via des protocoles compressés et chiffrés comme ssh et nox) et le copier-coller simplifié : un texte sélectionné par la souris est automatiquement copié, un clic milieu (ou un clic molette, ou sur les deux boutons en même temps) suffit alors pour coller le texte à l’endroit désiré. Il n’y a donc jamais besoin du clavier pour effectuer un copier-coller sous X. Traditionnellement, l’interface d’un système d’exploitation fondé sur le noyau Linux était une interface sobre voire spartiate, centrée autour d’unL’état des lieux du précédent chapitre est décrit dans un manifeste datant de 1996 ayant poussé Matthias Ettrich à fonder en réaction le projet KDE, puis Miguel de Icaza à fonder le projet GNOME l’année suivante, qui s’inspirent de Mac OS et de Windows sur le plan de l’ergonomie logicielle et de la standardisation des comportements. Ces deux projets sont devenus les fédérateurs de GNU/Linux sur le poste de travail. Chacun offre en effet : Ces deux environnements de bureau ont atteint récemment une maturité certaine, citons l’année 2003 pour KDE, un peu plus tard pour GNOME. Très actifs, ces deux projets ont néanmoins l’intention de s’améliorer nettement pour leurs prochaines versions majeures ; les effortsLa communauté du logiciel libre a produit un grand nombre de logiciels utilisables dans de nombreux domaines. Voici des exemples de logiciels donnés à titre indicatif : La plupart des distributions GNU/Linux proposent un programme (comme Synaptic) permettant de naviguer dans une liste de logiciels testés et préconfigurés spécialement pour une distribution. Ces programmes sont alors téléchargés et installés en quelques clics, avec un système de signature électronique permettant de vérifier l'authenticité et l'intégrité des logiciels proposés. Ces programmes sont ensuite mis à jour automatiquement. Certains logiciels propriétaires importants ont également une version GNU/Linux. C’est le cas de Opera, Adobe Flash Player, Adobe Acrobat Reader, NeroLinux ou Skype par exemple. La notion de portabilité désigne la capacité d’un programme à être utilisé sous différents systèmes d’exploitation ou architectures. Enfin, il est possible d’utiliser des logiciels faits pour Microsoft Windows sur un poste GNU/Linux grâce à une implémentation de l’API Windows sous GNU/Linux comme Wine. Des offres commerciales fondées sur Wine comme CrossOver permettent d’utiliser presque sans problèmes des logiciels tels Microsoft Office et Photoshop issus du monde Windows.Il existe de nombreux jeux disponibles sous GNU/Linux, gratuits ou payants, libres ou propriétaires. L’offre comporte aussi bien des petits jeux de bureautique (cartes, démineur, échecs, golf) que des jeux commerciaux récents (). Certains jeux sont conçus pour tourner nativement sous GNU/Linux (Quake III Arena ou 0 A.D. par exemple), et d’autres peuvent être lancés à l’aide de programmes implémentant l’API Windows sous GNU/Linux. Il en existe plusieurs implémentations, dont certaines spécialement pour les jeux, permettant ainsi de faire fonctionner de nombreux jeux conçus pour Windows, dans des environnements comme Cedega et Wine (par exemple World of Warcraft) mais les grands éditeurs de jeux vidéoLes logiciels qui utilisent une bibliothèque libre peuvent fonctionner sur GNU/Linux et sur toutes les plates-formes où la bibliothèque est implantée. Ces bibliothèques peuvent ajouter une surcouche graphique sur des applications textuelles déjà existantes comme c’est le cas de Vim, mais ellesPlusieurs logiciels d’émulation existent permettant de simuler le fonctionnement de systèmes d’exploitation concurrents ou des environnements de jeu.Les distributions grand public prennent en charge la grande majorité du matériel intégré aux ordinateurs personnels et des accessoires destinés aux particuliers (disques dur, webcams, souris, imprimantes, vidéoprojecteurs, lecteurs DVD, cartes graphiques et audios, bluetooth, etc.). La prise en charge de l’équipement matériel est l’une des critiques principales faites à GNU/Linux. En effet, certains équipements spéciaux ne sont pas pris en charge directement par GNU/Linux et il n'existe pas toujours de pilote développé par le constructeur et compatible avec GNU/Linux. Certains fabricants fournissentLinux permet une stricte séparation des privilèges. Une des conséquences est que, sauf faille de sécurité permettant une élévation des privilèges, un ver ou un virus informatique ne peut accéder qu’à une partie des ressources et fonctionnalités d’un système Linux, mais ni aux données importantes du système, ni aux données d’éventuels autres utilisateurs. Dans le domaine des serveurs, le degré de sécurité dépend, par comparaison, avant tout du degré d’expérience qu’a l’administrateur systèmes. Là, Linux marque des points grâce à sa liberté d’utilisation, qui permet sans risque et sans surcoût de tester abondamment divers scénarios sur d’autres ordinateurs, et d’y acquérir ainsi uneLa gestion des droits numériques ("Digital Rights Management - DRM" en anglais - les DRM sont très souvent appelés « Gestion des restrictions numérique », de l'anglais "Digital Restrictions Management" par la Free Software Foundation et les activistes du logiciel libre) concerne le domaine du multimédia, et notamment la musique et les vidéos qui peuvent être achetées sur Internet. Certaines œuvres sont protégées par des verrous numériques, visant à contrôler l’utilisation de l’œuvre, par exemple en limitant le nombre d’écoutes ou de copies possibles. Ces "DRM" nécessitent l’emploi d’une technologie particulière, qui est la propriété exclusive du fabricant et vendeur desdits "DRM", ce qui explique que la lecture d’une œuvreEn raison de la relation de GNU/Linux avec Unix, GNU/Linux s’est très rapidement imposé sur le marché des serveurs informatiques. Un point crucial a été la possibilité d’utiliser un système d’exploitation de type Unix sur du matériel compatible PC, beaucoup moins cher que les solutions à base d’Unix propriétaire et de matériel spécifique. De nombreux logiciels serveurs très demandés et très utilisés (serveur HTTP, base de données, "groupware", serveur de messagerie électronique, etc.) étant disponibles gratuitement, en général sans aucune limitation, et fiables, la part de marché de GNU/Linux dans ce domaine a en conséquence crû rapidement. GNU/Linux ayant, il remplit les exigences posées àLinux, qui jouit d’une bonne réputation en matière de sécurité et de performance (passageL'aspect libre du code source, et la possibilité qui en découle d’adapter le système à une tâche précise, a permis à GNU/Linux de faire son entrée dans les centres deGNU/Linux a été très tôt utilisé dans le domaine des grappes de serveurs (en anglais : "clusters"), par exemple par le moteur de rechercheLes superordinateurs sont conçus pour atteindre les plus hautes performances possibles avec les technologies connues, en particulier en termes de vitesse de calcul. En, selon TOP500, GNU/Linux fait tourner 74 % des cinq cents plus puissants ordinateurs du monde (contre 20 % pour UNIX) dont les plus puissants, les deux serveurs Blue Gene d’IBM ( et processeurs). En, dans ce même TOP500, plus de 85 % des superordinateursLinux se trouve aussi au cœur de nombreux appareils informatiques ou électroniques grand public, et parfois sans que l’usager le sache. Il s’agit notamment d’équipement réseau et de petits appareils numériques destinés à la consommation de masse, équipés en général d’un processeur spécialisé économe en énergie et d’une mémoire flash. Le succès de Linux dans ce domaine tient, ici comme ailleurs, à ce que les fabricants apprécient de pouvoir d’une part adapter le logiciel à leurs besoins
Linux est, au sens restreint, le noyau de système d'exploitation Linux, et au sens large, tout système d'exploitation fondé sur le noyau Linux. Cet article couvre le sens large.
xwikis
La vitesse de libération (ou vitesse d'évasion) est la vitesse minimale à communiquer à un projectile pour que celui-ci échappe à l'attraction du champ de gravité d'un astre (planète, étoile, etc.) et atteigne un point à l'infini. À cette vitesse, la trajectoire de l'objet devient une parabole qui s'éloigne de l'astre vers l'infini. En dessous de cette vitesse, l'objet reste lié à la planète : il suit une orbite elliptique autour de l'astre ou, si sa vitesse est inférieure à la vitesse de satellisation minimale, il s'écrase sur l'astre. De façon générale, pour un objet placé dans un champ de gravité d'un astre (possédant une symétrie sphérique de la répartition de sa masse, une approximation généralement valable pour une planète ou d'une lune d'un diamètre supérieur à quelques centaines de km), la vitesse de libération formula_1 prend la valeur suivante, en mètres par seconde : avec :Le calcul de la vitesse de libération peut être effectué en utilisant le principe de la conservation de l'énergie. Un objet placé dans le champ de gravité d'un astre se trouve dans un référentiel galiléen car il n'est soumis qu'à la force gravitationnelle qui est une force conservative. Dans ce référentiel l'énergie mécanique du corps est constante au cours du temps. L'énergie mécanique du corps plongé dans un champ gravitationnel est la somme de son énergie cinétique formula_10 et de son énergie potentielle formula_11 avec : L'énergie mécanique d'un corps animé exactement de la vitesse de libération par rapport à un astre est calculé en deux points de sa trajectoire : dans sa position initiale (notée "pi") lorsqu'il se trouve dans le champ gravitationnel de l'astre à une distance R de celui-ci et dans sa position finale ("pf") lorsqu'il se trouve à une distance infinie de l'astre et qu'il a échappé à l'attraction de celui-ci. Dans sa position finale ("pf") : En application de la loi de la conservation de l'énergie, l'énergie mécanique de l'objet dans ses positions initiale et finale est identique : Si la position initiale, "pi", se trouve à la surface de la planète, c'est-à-dire si formula_17 est égal au rayon de celle-ci, la vitesse du corps correspondant à la vitesse de libération est donc celle qui satisfait à l'équation : Les masses "m" se simplifient et on obtient ainsi la vitesse de libération. La vitesse de libération d'un objet placé au repos dans un champ gravitationnel comportant plusieurs sources dérive de l'énergie potentielle cumulée en ce point par rapport à l'infini. L'énergie potentielle est obtenue simplement en cumulant les énergies potentielles de chaque astre. La vitesse de libération théorique est égale à la racine carrée de la somme des carrés des vitesses de libération par rapport à chaque astre. Ainsi la vitesse de libération théorique d'un objet placé à la surface de la Terre pour qu'il échappe à la fois à l'attraction de la Terre et du Soleil est : avec Ce calcul n'est valable que pour les vitesses de libération très inférieures à la vitesse de la lumière puisque l'on utilise une approximation de l’énergie cinétique valable uniquement pour les faibles vitesses. Dans les domaines où elle est appliquée généralement (mouvement des astres ou des engins spatiaux), cette approximation est suffisante.La vitesse d'un corps pour maintenir une orbite circulaire à une distance formula_21 du corps autour duquel il orbite, est la vitesse pour laquelle la force d'échappement centrifuge formula_22 est égale à la force d'attraction gravitationnelle formula_23. Cette vitesse (qui se calcule en résolvant l'équation formula_24) est égale à formula_25 et diminue avec la distance (Ce qui est logique, sinon cela signifierait que les corps situés à des distances arbitrairement grandes continuent à s'attirer de façon non négligeable). Par conséquent, un corps en orbite circulaire qui accélérerait, même très légèrement de façon constante verrait son orbite s'agrandir en spirale jusqu'au moment où il atteindrait un rayon orbital pour lequel la vitesse de libération est égale à sa vitesse instantanée, et où il finirait par s'échapper. Ceci n'est cependant pas réellement utilisable en trajectoire spatiale, car cela impliquerait des trajectoires extrêmement longues.La vitesse de libération d'un corps quittant la surface de la Terre, dite aussi deuxième vitesse cosmique, est de l'ordre de (soit environ ) par rapport à un repère inertiel géocentrique. Par comparaison, celle de Jupiter est de. Un objet ayant échappé à l'attraction gravitationnelle de la Terre se trouve placé dans le champ gravitationnel du Soleil : si sa vitesse est égale à celle de la vitesse de libération de la Terre il va circuler sur une orbite héliocentrique (autour du Soleil) quasi identique à celle de la Terre. Pour que cet objet puisse quitter le Système solaire c'est-à-dire échapper à l'attraction du Soleil, il doit atteindre la troisième vitesse cosmique, qui est de l'ordre de par rapport à un repère inertiel héliocentrique (c'est-à-dire si l'objet reste fixe par rapport au Soleil ce qui correspond à une situation uniquement théorique) et de par rapport à un référentiel géocentrique (lié à la Terre) c'est-à-dire si l'objet circule sur une orbite héliocentrique identique à celle de la Terre. Le système solaire est lui-même en orbite autour du centre de notre galaxie, la Voie lactée. Un objet échappant à l'attraction du Soleil se trouvera donc en orbite autour de la Voie lactée. Le tableau suivant recense quelques exemples de vitesses de libération nécessaires pour échapper à l'attraction de certains objets.Du fait de la présence de l'atmosphère terrestre, il est difficile (et peu utile) d'amener un objet proche de la surface de la Terre à la vitesse de libération qui atteint. Cette vitesse qui relève du régime hypersonique est trop élevée pour pouvoir être atteinte dans l'atmosphère terrestre avec un système de propulsion ; en outre, un objet atteignant cette vitesse à basse altitude serait détruit par les forces de friction. En pratique, un objet qui doit être lancé depuis la Terre à une vitesse de libération (sonde spatiale) accélère progressivement en traversant les couches denses de l'atmosphère avant d'atteindre l'orbite terrestre basse (160 à d'altitude) puis est accéléré à partir de cette altitude, jusqu'à dépasser par rapport au centre de la Terre. D'un point de vue historique la sonde spatiale soviétique Luna 1, conçue pour survoler la Lune et lancée en 1959, a été le premier objet à atteindre la vitesse de libération terrestre. Certaines sondes spatiales soviétiques du programme Luna et les modules lunaires du programme Apollo ont décollé du sol lunaire et échappé à l'attraction de celle-ci. Les vaisseaux du programme Apollo n'ont pas eu besoin d'atteindre tout à fait la vitesse de libération de la Terre, puisque la Lune se trouve dans le champ d'attraction de la Terre. Enfin plusieurs sondes spatiales de la NASA (Pioneer 11, Programme Voyager, New Horizons) disposent d'une vitesse suffisante pour échapper à l'attraction du Soleil dans quelques dizaines de milliers d'années. Aucun lanceur existant n'est suffisamment puissant pour lancer une sonde spatiale de quelques centaines de kg à une vitesse de libération lui permettant d'échapper à l'attraction du Soleil. Ces missions ont dû avoir recours à l'assistance gravitationnelle de planètes pour atteindre la vitesse nécessaire.Comme pour tout corps céleste, la vitesse de libération aux abords d'un trou noir varie suivant la distance à son centre (quelle que soit la métrique utilisée). Les différentes métriques permettant une description du passage du rayon de Schwarzschild montrent que la vitesse de libération au-delà du rayon de Schwarzschild est strictement inférieure à la vitesse de la lumière ; sur ce rayon, on peut dire qu'elle est égale à la vitesse de la lumière, bien que cela ne permettrait que de se mettre en satellite sans pouvoir s'éloigner ; et au-delà du rayon, elle est strictement supérieure à la vitesse de la lumière et tout corps est alors irrémédiablement en chute vers le centre du trou noir.
La vitesse de libération, ou vitesse d'évasion ou d'échappement est, en physique, la vitesse minimale que doit atteindre un projectile pour échapper définitivement à l'attraction gravitationnelle d'un astre (planète, étoile, etc.) dépourvu d'atmosphère et s'en éloigner indéfiniment. Cette vitesse est d'autant plus importante que la masse de l'astre est importante et que l'objet est proche de son centre. Relative à l'astre, c'est une valeur scalaire (sa direction ne joue aucun rôle). Cette vitesse est supérieure à la vitesse de satellisation minimale nécessaire pour que l'objet puisse se placer en orbite autour de l'astre.
xwikis
La vitesse orbitale instantanée peut être déterminée par la seconde loi de Kepler, à savoir qu'en une durée déterminée, le segment de droite reliant le barycentre au corps décrit une surface constante, quelle que soit la portion de l'orbite que le corps parcourt pendant cette durée. En conséquence, le corps va plus vite près de son périastre que de son apoastre.La vitesse orbitale est liée à l'équation de la force vive. La vitesse orbitale est obtenue par : où :Lorsque l'énergie orbitale spécifique est négative, l'orbite du corps secondaire est elliptique et sa vitesse orbitale est obtenue par : où : Lorsque le corps secondaire est au périastre, la valeur de formula_3, notée formula_10, est obtenue par formula_11, où formula_8 et formula_13 sont le demi-grand axe et l'excentricité de l'orbite du corps secondaire. La vitesse orbitale du corps secondaire au périastre, notée formula_14, est obtenue par : Lorsque le corps secondaire est à l'apoastre, la valeur de formula_3, notée formula_17, est obtenue par formula_18, où formula_8 et formula_13 sont le demi-grand axe et l'excentricité de l'orbite du corps secondaire. La vitesse orbitale du corps secondaire à l'apoastre, notée formula_21, est obtenue par :Une orbite circulaire est, par définition, une orbite dont l'excentricité est nulle. La vitesse orbitale du corps secondaire en orbite circulaire est obtenue par : où :Lorsque l'énergie orbitale spécifique est nulle, la trajectoire du corps secondaire est parabolique et sa vitesse orbitale est obtenue par : où :Lorsque l'énergie orbitale spécifique est positive, la trajectoire du corps secondaire est hyperbolique et sa vitesse orbitale est obtenue par : où :Dans le cas d’une orbite elliptique, on s’intéresse au vecteur vitesse tel qu’il s’exprime dans le référentiel (non galiléen) fixé sur le corps central, en choisissant l’axe Ox qui pointe en direction du périastre (Ox est donc parallèle au grand axe et dirigé vers le point le plus proche de l’orbite). La position et la vitesse vectorielles sont des conditions initiales nécessaires à l’intégration de la relation fondamentale de la dynamique. En connaissant à un instant donné la position formula_33 du corps sur son orbite, il s’agit de déterminer le vecteur vitesse correspondant formula_34. Au périastre ou à l’apoastre, la solution est simple car le vecteur vitesse est orthogonal au vecteur position en ces points. Les relations suivantes sont plus générales : où formula_37 est la dérivée de l’anomalie moyenne par rapport au temps, soit le mouvement moyen : Remarque : -{1\over{a}}\right)}</math>.La vitesse orbitale moyenne est déterminée soit en connaissant sa période orbitale et le demi-grand axe de son orbite, soit à partir des masses des deux corps et du demi-grand axe (qui est ici le rayon du cercle) : où "v" est la vitesse orbitale moyenne, "a" est la longueur du demi-grand axe, "r" est le rayon du cercle de l’orbite (= "a"), "T" est la période orbitale, "M" est la masse du corps autour duquel orbite celui dont on veut calculer la vitesse et "G" est la constante gravitationnelle. Dans la seconde relation, on reconnaît le rapport entre la circonférence du cercle de l’orbite et le temps de parcours. Ceci n'est qu'une approximation qui est vérifiée lorsque la masse du corps orbitant est considérablement plus faible que celle du corps central. Lorsque la masse du corps orbitant n'est pas négligeable devant celle de l'autre corps, il s’agit de prendre en compte le fait que les deux corps se déplacent l’un et l’autre sur leurs orbites circulaires respectives. Dans ce cas, la vitesse moyenne recherchée est celle mesurée depuis le référentiel galiléen fixé au barycentre. Elle est donnée par la relation : où "m" est la masse du corps central, "m" celle du corps considéré, et "r" le rayon entre les deux corps. Il s'agit ici encore du cas particulier où les orbites des deux corps sont circulaires.Dans ce cas, il suffit de déterminer le périmètre formula_50 (ou la circonférence) de l’ellipse, mais on ne peut pas l’exprimer par des fonctions simples ; il convient d’exploiter la fonction intégrale elliptique de deuxième espèce. Il existe toutefois des approximations ; la première (due à Kepler) indique une valeur par défaut et la seconde (due à Euler) donne une valeur par excès : "a" et "b" étant respectivement les deux demi-axes de l’ellipse qui sont liés à l’excentricité "e" par la relation formula_52. On en déduit Remarques :
La vitesse orbitale d'un objet céleste, le plus souvent une planète, un satellite naturel, un satellite artificiel ou une étoile binaire, est la vitesse à laquelle il orbite autour du barycentre d'un système à deux corps, soit donc le plus souvent autour d'un corps plus massif. L'expression peut être employée pour désigner la vitesse orbitale moyenne du corps le long de son orbite ou la vitesse orbitale instantanée, en un point précis
xwikis
Les premiers chroniqueurs grecs, qui s'intéressaient surtout aux mythes de fondation (les logographes), pratiquaient déjà le récit des événements : leur narration pouvait s'appuyer sur l'écrit, comme chez Hécatée de Milet (première moitié du ). Au, Hérodote d'Halicarnasse se distingue de ses prédécesseurs et contemporains par sa volonté de distinguer le vrai du faux : cette préoccupation est au cœur même des « enquêtes » ou « recherches » de ce dernier. En effet, à l'époque, le mot « histoire » (ἱστορία) n'a pas le même sens qu'aujourd'hui : il signifie « enquête ». Avec Thucydide, surtout, cette préoccupation se mue, moins d'une génération après, en esprit critique, fondé sur la confrontation de diverses sources, orales et écrites. Son "Histoire de la guerre du Péloponnèse" a pu être vue comme la première œuvre véritablement historique. Polybe, peut-être en cherchant à écrire une œuvre de géographe, aborde quant à lui au la question de la succession des régimes politiques pour expliquer comment son monde est entré dans l'orbite romaine (dans les "Pragmateia", traduit par "Histoires"). Il est le premier à chercher des causes intrinsèques au déroulement de l'histoire plutôt que d'évoquer des principes externes. Les historiens latins, comme Tite-Live, Salluste, César, Tacite, produisent des œuvres d'une grande qualité littéraire, mais mettent l'histoire au service d'une démarche patriotique ou politique. Leur influence sera énorme durant de nombreux siècles, comme sources pour les historiens, mais aussi comme modèles dans la manière d'appréhender l'histoire.L'histoire au Moyen Âge est principalement écrite par des hagiographes, des chroniqueurs, souvent moines ou membres de la hiérarchie religieuse, généralement proches du pouvoir. Elle est constituée de généalogies, d'annales assez sèches (listes chronologiques d'événements concernant les règnes des souverains – annales royales – ou la succession des abbés – annales monastiques), de vies (biographies à caractère édifiant, comme celle des Saints mérovingiens ou, plus tard, des rois de France) et enfin d"'Histoires" qui racontent la naissance d'une nation chrétienne (d'une "gentis"), exaltent une dynastie ou, au contraire, fustigent les méchants dans une perspective chrétienne. Cette histoire est religieuse, au sens premier, et inscrit les actions des hommes dans le cadre des desseins de Dieu : ainsi, les "Histoires ecclésiastiques" comme celle de Bède le Vénérable ("l'Histoire ecclésiastique du peuple anglais" au début du ) participent surtout à la description de l'extension de l'Église catholique aux confins de la terre et vers la fin des temps, dans une perspective augustinienne. Enfin, il faut attendre le pour que les chroniqueurs s'intéressent au peuple, grand absent de la production de cette période, par exemple avec Froissart. Plus précisément, on constate que l'Histoire au Moyen Âge est avant tout au service de la théologie et se construit progressivement en passant d’une transmission orale à une transmission écrite. En effet, l’Histoire du Moyen Âge est surtout élaborée dans les monastères qui bénéficient de bibliothèques plus ou moins importantes, à travers des travaux de copie des ouvrages par les moines. Leur production est une Histoire universelle : aux Annales des ont succédé les Chroniques. Sous l’époque carolingienne, la circulation des hommes et des livres est plus facile, les évêchés et les monastères prospèrent au sein d’un Empire où règne la paix, les bibliothèques prennent de l’ampleur et la culture historique connaît un certain essor sur la base d’un fond commun de connaissances. Aux, l’Histoire connaît un épanouissement considérable. La réforme grégorienne a multiplié les écoles et donc accru la culture des clercs et des moines. Deux événements majeurs qui ont eu un impact important sur le développement de l’Histoire peuvent être cités, à savoir la « querelle des Investitures » entre le pape et l’Empereur romain germanique et les diverses croisades. Le premier révèle le poids de l’Histoire et la façon dont il pouvait être utilisé à des fins politiques ; le deuxième permit le développement d’une intense propagande historique de la part des clercs. De nombreux récits de croisades virent le jour. En effet, comme le précise bien l’auteur, les croisades ont « développé chez les Occidentaux le goût du récit historique ». Le marque, à travers le travail des moines bénédictins, l’utilisation de toutes sortes de sources historiques possibles, autant écrites avec les récits et les archives qu'orales mais c'est aussi le moment où l’écrit remplace définitivement l’oral. Le travail des historiens de ce temps consistait désormais en la production d’une véritable histoire savante. Pourtant, celle-ci souffre de n’être pas considérée comme une discipline à part, autonome. Elle reste toujours assujettie à la théologie afin de servir de justificatif aux Saintes Écritures. Elle doit se contenter de servir la morale, le droit et la religion. Par ailleurs, elle se contente de rapporter les faits mais non les explications et les causes de ceux-ci. L’Histoire était encore répétitive et « routinière », selon les mots employés par Bernard Guenée dans son ouvrage majeur sur l'historiographie médiévale : "Histoire et culture historique dans l'Occident médiéval" car leurs auteurs n’avaient pas à portée de main la culture historique nécessaire pour produire autre chose. En fait, selon B. Guenée, les historiens du Moyen Âge ont en quelque sorte été victimes de leur époque dans le sens où ils ne pouvaient pas rédiger ce qu'ils désiraient composer au vu de la pauvreté des moyens dont ils disposaient mais aussi parce qu'ils vivaient à une période où ils étaient contraints de respecter certains principes, certaines règles établies. Se posait également le souci des faux documents produits parfois en grand nombre et le manque de relations et de contacts entre historiens de l’époque, d'où des échanges limités d'idées et d'avis personnels entre eux. À partir du, l’Histoire sort des monastères et intéresse de plus en plus de laïques mais ces derniers sont à la recherche de beaux récits plutôt que de récits vrais. En outre, le passage d’écoles de monastères à des écoles désormais situées dans les bourgades et les villes ont deux effets contradictoires pour l’Histoire. D’abord négatif car il y une perte de contact avec les archives et les grandes bibliothèques situées justement au sein de ces établissements monastiques, d’où un accès réduit aux principales sources de documentation de l’époque. Cependant, le développement des universités a eu aussi des conséquences plus positives. En effet, avec un enseignement plus poussé, des techniques de présentation des textes et une multiplication des ouvrages historiques s'est opérée à l’intérieur de ces lieux d’étude. Ainsi, des encyclopédies et des manuels sont compilés et diffusés en plus grand nombre à destination des étudiants mais aussi des juristes et des théologiens. Mais c’est durant les que les recherches concernant la culture historique firent des progrès décisifs. Durant ces deux siècles particulièrement troublés, les guerres firent naître chez les divers peuples une certaine idée de nation et de défense de celle-ci ainsi que des valeurs qui la représentent. L’exemple de la guerre de Cent Ans est en cela significatif car c’est à ce moment-là que les naissent les premiers sentiments nationaux français et anglais. Or, cette idée de nation s’appuie sur le passé et l’Histoire des deux royaumes respectifs. L’Histoire fut donc exploitée et étudiée plus en profondeur. Par ailleurs, c’est aussi une époque de centralisation des pouvoirs royaux. En cela, les rois et plus généralement les gouvernements justifièrent leurs droits et leurs ambitions sur des faits historiques, par la recherche dans le passé d’éléments historiques qui viendraient confirmer leur pouvoir. En fait, plus de personnes ont besoin de l’Histoire et se rendent compte de son intérêt, d’où une mise en valeur et un développement progressif de cette discipline. C’est aussi pendant ces siècles que les premières techniques d’imprimerie apparaissent, ce qui vient révolutionner la production et surtout la diffusion des ouvrages historiques dans la société. Les livres sont accessibles plus facilement et, chose nouvelle, les historiens commencent à posséder des livres personnels chez eux. Ces derniers étaient ainsi mieux informés, mieux documentés et s’aidaient de plus des sciences auxiliaires tels l’épigraphie ou encore la numismatique. Leur travail s’intensifia et se diversifia. Ainsi, avec les prémices de la Renaissance, l’Histoire devint autonome et se fixa désormais des objectifs plus ambitieux. À partir du, avec le mouvement de la Réforme qui s’ajoutait à ce processus, elle ne servait plus l’Église mais bien l’État moderne.Les ouvrages de l'Antiquité classique avaient déjà été abondamment redécouverts pendant tout le Moyen Âge. L'invention de l'imprimerie à la charnière entre le Moyen Âge et la Renaissance a permis une plus grande diffusion des ouvrages gréco-romains durant la Renaissance auprès des humanistes. Ce courant gagne l'histoire en lui apportant un goût amplifié pour l'étude des textes anciens, grecs ou latins, mais aussi de nouveaux supports d'étude : ainsi se développe un intérêt pour les inscriptions (l'épigraphie), pour les monnaies antiques (la numismatique) ou pour les traités (la diplomatique). Ces « sciences » nouvelles de l'époque moderne contribuent à enrichir les méthodes des historiens : en 1681, Dom Mabillon indique quels sont les critères qui permettent de déterminer l'authenticité d'un acte dans le "De Re diplomatica", notamment par la comparaison de sources différentes. Cependant, les mouvements de réforme ramènent l'histoire dans le giron de l'Église, ou du moins la maintiennent dans l'idée que le déroulement des événements est dicté par une force supérieure, immanente ou non. À l'époque, l'histoire ne se différencie pas de la géographie, ni même des sciences naturelles. Cependant, elle se divise en deux parties : Ce sens large de l'histoire s'explique par l'étymologie du mot (voir Antiquité ci-dessus). La question de l'unité du royaume que posent les guerres de religion en France, au, donne lieu à des travaux d'historiens qui appartiennent au courant de « l'histoire parfaite » ; ce courant s'attache à montrer que l'unité politique et religieuse de la France moderne est inéluctable, parce que présente dès les origines gauloises (Étienne Pasquier, "Recherches de la France"). Le carcan de la Providence, chez Bossuet ("Discours sur l’histoire universelle", 1681), tend quant à lui à dévaluer la signification de tout changement historique. En parallèle et durant l'ensemble de la période moderne, l'histoire est un instrument du pouvoir : elle est mise au service des princes, de Machiavel jusqu'aux panégyristes de Louis XIV, parmi lesquels on compte Jean Racine. Au, enfin, a lieu un changement majeur : l'esprit des « Lumières » et sa philosophie d'une part, la découverte de l'altérité des autres cultures avec l'« exotisme » d'autre part, suscitent un nouvel essor de l'esprit critique. Celui-ci s'exerce principalement dans la remise en cause des préjugés culturels et de l'universalisme classique. La tendance s'exprime chez Fénelon, qui s'intéresse aux mœurs du corps de la nation. Elle est également présente chez Voltaire dans son "Histoire de l'empire de Russie sous Pierre le Grand" ou encore dans "Le Siècle de Louis XIV" (1751). Enfin, un esprit similaire existe en Angleterre avec Edward Gibbon dans "A History of the Decline and Fall of the Roman Empire", souvent abrégée en "Decline and Fall" (1776-1788). Mais ce dernier, qui fait de la précision un aspect majeur du travail de l'historien, indique aussi par son œuvre les limites de l'histoire de la fin du : celle-ci, soumise à la morale, émet des jugements partisans alors que son objet reste limité.Le est une période riche en changements, à la fois dans la manière de concevoir et d'écrire l'histoire.La conception matérialiste de l'histoire apparaît pour la première fois sous la plume de Karl Marx et de Friedrich Engels dans "l'Idéologie allemande" (1845-1846). Mais cette conception ne sera rendue publique qu'avec la parution du "Manifeste du parti communiste" en 1847. La conception matérialiste de l'histoire, autrement appelée matérialisme historique, aura une influence décisive sur l'histoire en tant que science, et donnera naissance à toute une école. En particulier, Marx a fortement contribué à l'abandon des conceptions théologiques, idéalistes ou philosophiques de l'histoire (notamment celle de Hegel), et a encouragé l'étude de l'économie et de la sociologie pour comprendre l'histoire (mais pas seulement : Marx explique dans "l'Idéologie allemande" qu'il faut tenir compte de tous les facteurs matériels pouvant influencer les hommes : facteurs géographiques, hydrographiques, techniques, humains... La conscience, issue de facteurs matériels plus profonds, doit également être considérée comme un facteur matériel, décisif en de nombreuses occasions). Cependant, les historiens non-marxistes n'ont pas suivi Marx sur certains points : tout d'abord, la plupart n'acceptent pas de faire des pronostics en histoire, reconnaissant par là une séparation de l'histoire d'avec la politique (Marx lie au contraire les deux), ensuite ils récusent souvent l'articulation logique de la théorie, reprochant à Marx de donner trop d'importance à l'économie, enfin ils n'approuvent pas nécessairement que l'histoire ait un sens, et en particulier un sens révolutionnaire et communiste. En France, l'histoire est désormais considérée comme une discipline intellectuelle à part entière, distincte des autres genres littéraires, dès le début du siècle, alors que les historiens se professionnalisent et que sont fondées les Archives nationales françaises (1808). En 1821 est créée l'École nationale des chartes, première grande institution pour l'enseignement de l'histoire. En Allemagne, cette évolution s'était dessinée plus tôt et l'histoire était déjà présente dans les universités de la période moderne. L'institutionnalisation de la discipline y donne lieu à la mise en œuvre de vastes chantiers ayant pour but de réunir et de transcrire systématiquement les sources. Le plus connu d'entre eux est sans doute celui des "Monumenta Germaniae Historica", lancé en 1819. L'histoire y gagne une dimension d'érudition, encore d'actualité. Par la suite, la discipline puise dans cette érudition et dans son nouveau cadre institutionnel sa prétention à rivaliser avec les sciences, surtout lorsque ces dernières connaissent leur grand essor à la fin du siècle. Participant aux "MGH" et à la réunion des inscriptions latines en un "Corpus Inscriptionum Latinarum", l'historien allemand Theodor Mommsen, est celui qui contribue par excellence à donner à l'érudition des bases critiques, notamment dans sa "Römische Geschichte" (1863-1872). En France, dès les années 1860, l'historien Fustel de Coulanges écrit « l’histoire n’est pas un art ; elle est une science pure, comme la physique ou la géologie » (Préface de "La monarchie franque", 1888). Pourtant, l'histoire demeure partie prenante des débats de son temps : elle est alors influencée par les grandes idéologies, comme le libéralisme avec Alexis de Tocqueville et François Guizot. Elle est surtout influencée par le nationalisme, voire le racisme : avec la guerre de 1870, Fustel de Coulanges et Theodor Mommsen se déchirent, transposant dans le débat historique l'idéologie de leur nation. Chaque historien tend alors à mettre en valeur les qualités (le « génie ») de son peuple dans ses écrits : la période est celle de la fondation des grandes « histoires nationales ». En France, les historiens « romantiques » – parmi lesquels il faut citer Augustin Thierry (1795-1856) et Jules Michelet (1798-1874) – dressent une histoire où la qualité de la réflexion et l'exploitation critique des sources tranchent avec les productions précédentes. Mais l'histoire, si elle devient de plus en plus une science, n'en demeure pas moins un art, le style flamboyant de Michelet l'exalte au plus haut point. Ces progrès méthodologiques ne les empêchent pas, pour autant, d'être partisans en voulant contribuer au triomphe des idées politiques de leur temps : A. Thierry exprime ainsi les motivations qui l'ont conduit à devenir historien : « En 1817, préoccupé d'un vif désir de contribuer pour ma part au triomphe des opinions constitutionnelles, je me mis à chercher dans les livres d'histoire des preuves et des arguments à l'appui de mes croyances politiques. [...] Sans cesser de subordonner les faits à l'usage que j'en voulais faire, je les observais avec curiosité, même lorsqu'ils ne prouvaient rien pour la cause que j'espérais servir [...] » (préface aux "Lettres sur l'histoire de France"). Jules Michelet, par sa lecture de la Révolution française ("Histoire de la révolution française", 1847-1853), contribue également à la définition de la nation française contre la dictature des Bonaparte, puis contre le démembrement de la France après la défaite de Sedan, survenue peu avant sa mort. Toutefois, son interprétation de l'articulation entre les périodes de l'histoire, comme l'an mille et la césure entre le Moyen Âge et la Renaissance, est aujourd'hui assez largement remise en cause par les historiens contemporains. Avec la République, enfin, c'est l'histoire enseignée qui devient un outil de propagande au service de la formation des citoyens. Cette exploitation est appelée à se poursuivre au. Ernest Lavisse (1842-1922), par exemple, introduisait ainsi l'entreprise coloniale française en Algérie dans son "Histoire de France, cours élémentaire" (1913) : « En l’année 1830, le roi Charles X envoya des vaisseaux attaquer la ville d’Alger, parce que les Algériens faisaient beaucoup de tort à notre commerce en arrêtant et pillant nos navires. La ville fut prise. Ensuite il fallut conquérir l’Algérie ». L'histoire est devenue une « science sociale » en ce qu'elle se présente comme une discipline scientifique ancrée dans la société.Au début du, l'histoire a acquis une dimension scientifique incontestée.Installée dans le monde de l'enseignement, érudite, la discipline est influencée par une version appauvrie du positivisme d'Auguste Comte. Prétendant à l'objectivité, l'histoire a resserré les limites de son objet : le fait ou l'événement isolé, replacé au centre du travail de l'historien, est alors considéré comme la seule référence répondant correctement à l'impératif d'objectivité. Aussi, cette « histoire événementielle » se borne à établir des relations de causalité, substituant ainsi un discours qui se veut scientifique à la rhétorique. Sa principale transformation vient alors d'apports extérieurs : le marxisme, d'abord, introduit l'économie dans les préoccupations de l'historien. Ensuite, les bouleversements politiques, techniques, économiques ou sociaux que connaît le monde, sans oublier les conflits mondiaux, viennent inexorablement perturber le champ de l'histoire. C'est en se dégageant du positivisme qui l'a un temps marquée que la discipline se renouvelle réellement. De nouvelles sciences « auxiliaires » apparaissent ou se développent considérablement : l'archéologie, la démographie, la sociologie et l'anthropologie, dont le structuralisme l'influence.En France, naît au tournant des années 1930 un courant de pensée, appelé école des Annales parce qu'il s'était constitué autour d'une revue portant le nom d"'Annales d’histoire économique et sociale", qui agrandit le champ de la discipline, sollicite les autres sciences, en particulier la sociologie, et plus généralement transforme l'histoire en éloignant son objet du cadre événementiel et en l'inscrivant dans la longue durée. L'histoire des "Annales" est d'abord l'histoire économique et sociale : la revue périodique est fondée par Lucien Febvre et par Marc Bloch en 1929. Après la parenthèse tragique de la guerre, elle trouve en Fernand Braudel, désormais aux côtés de L. Febvre le continuateur de l'œuvre des années 1930. Ce dernier, en effet, « introduit les sciences sociales en histoire » : il recourt pour la première fois à la géographie, à l'économie politique et à la sociologie pour élaborer sa thèse de l'« économie-monde ». Le rôle du témoignage historique change : il demeure au cœur des préoccupations de l'historien mais il n'est plus l'objet. Désormais, il est considéré comme un outil pour inventer l'histoire, outil qui peut être pris dans n'importe quel domaine de la Connaissance. La vision du Moyen Âge, notamment, change complètement à la suite d'une relecture critique des sources qui fait la part belle à ce qu'elles ne mentionnent pas (Georges Duby). La "new economic history" d'outre-Atlantique relève du même type de démarche, mais avec un accent important mis sur les techniques quantitatives. Privilégiant la « longue durée » au temps court de l'« histoire événementielle » dans le sillage des "Annales", plusieurs historiens proposent jusqu'à aujourd'hui de repenser le champ de l'histoire dans le sillage de la revue : parmi eux, on peut citer Emmanuel Le Roy Ladurie ou Pierre Goubert.Il y a un prolongement des Annales avec une grande importance de l'histoire économique basée sur des méthodes quantitatives. On note également un âge d'or de la démographie historique avec l'étude des registres paroissiaux. À cette époque, on note l'apparition de la prosopographie, qui consiste à faire des catalogues de personnes selon un critère. Cela a permis le développement de l'histoire sociale à cette période. L’école des Annales a eu une grande importance, notamment par la diffusion de sa méthode à travers l’Europe, touchant même les États-Unis. Dès les années 1950, c’est Fernand Braudel qui se retrouve à la tête de cette école. La méthode des Annales françaises a dans un premier temps influencé l’historiographie polonaise, en effet c’est à cette période que l’historiographie polonaise s’est développée avec la création de l’Académie polonaise des sciences qui est à l’origine de l’amélioration de revues historiques comme la revue "" (revue trimestrielle d'histoire). Les Annales inspirent également les méthodes historiographiques britanniques. Ces méthodes ont été diffusées jusqu'aux États-Unis, notamment par l’intermédiaire d’historiens anglais comme ; les Annales sont donc connues outre-Atlantique.La dénomination « nouvelle histoire », rendue populaire en 1973 à travers la publication par Pierre Nora et par Jacques Le Goff de "Faire de l'Histoire", désigne le courant historiographique qui anime la troisième génération des "Annales". La nouvelle histoire est avant tout l'« histoire des mentalités » : il s'agit d'établir une histoire sérielle des mentalités, c'est-à-dire des représentations collectives et des structures mentales des sociétés. Avec elle, le champ de l'histoire s'élargit encore et la discipline s'intéresse davantage aux phénomènes de longue durée.L'histoire est aujourd'hui plus que jamais plurielle, s'étant scindée en plusieurs branches ou spécialités ; elle est aussi « éclatée » en ce sens que certaines de ses branches ne communiquent pas entre elles, voire n'ont plus ni sujet ni objet commun. Ainsi, l'histoire comprend aujourd'hui la microhistoire, qui s'intéresse à la spécificité des phénomènes sociaux, l'histoire du temps présent, créée il y a une vingtaine d'années et qui s'intéresse aux grandes ruptures de notre époque, et de nombreuses histoires transversales comme l'histoire des femmes et du genre, l'histoire de la sensibilité, ou encore l'histoire de l'entreprise. Depuis deux ou trois décennies, avec des décalages selon les périodes, l'histoire culturelle enregistre une nette montée en puissance. Et encore, très récemment, de nouveaux outils influencent déjà, à leur tour, le débat historique : ce sont, pour ne citer qu'eux, la climatologie et la génétique.La vision du Moyen Âge a profondément changé chez les historiens au cours du. D'une vision d'un âge sombre, les historiens passent à la vision d'une alternance entre périodes de difficultés et périodes de renouveau, et évoquent parfois des renaissances médiévales. Déjà amorcé au par Jean-Jacques Ampère, ce bouleversement est confirmé en 1927 par le médiéviste américain Charles H. Haskins, qui identifie une Renaissance au, catalysée par de nombreuses traductions d'ouvrages scientifiques et philosophiques grecs et arabes. Ce mouvement est aujourd'hui définitivement accepté par la communauté des médiévistes. Le Moyen Âge est d'abord étudié sous l'aspect économique et social par l'École des Annales. Puis il est étudié sous l'aspect des mentalités et des représentations, par exemple par Georges Duby. Enfin, il est aujourd'hui étudié plus globalement sous l'aspect culturel.L'histoire est une science humaine, de même que la sociologie, la psychologie, l'économie... sa vocation est de comprendre la place de l'Homme dans sa société. Les rapports que vont entretenir ces différents mouvements peuvent aller du conflit à la coopération. Le but est d'ici expliquer la relation de l'histoire aux autres sciences humaines. C'est à la fin du que la sociologie, sous l'impulsion de Émile Durkheim, Gabriel Tarde et René Worms se développe en France. Mais en sociologie, on retiendra surtout l'apparition de l'école durkheimienne dans cette période. Celui-ci définit la méthodologie de la sociologie dans "Les Règles de la méthode sociologique" en 1895 et l'applique à sa recherche sur "Le Suicide" en 1897. En 1898, Durkheim organise la sociologie autour de la revue "L'Année sociologique" en s'entourant de sociologues comme Maurice Halbwachs, Marcel Mauss, François Simiand, Paul Fauconnet ou Célestin Bouglé. La nouvelle discipline doit imposer ses règles, s'institutionnaliser et surtout, trouver sa place face à la prédominance de la matière historique. Celle-ci est alors solidement installée par l'École méthodique qui, reprenant le modèle allemand, s'était formée en 1870 à la suite de la défaite française contre l'Allemagne. Le Débat va alors commencer entre 1895 et 1905 entre les deux matières. Durkheim a en effet tendance à considérer l'histoire comme une simple technique de collecte des faits au service de la sociologie, la sociologie étant la seule pouvant généraliser et comprendre la logique des évènements. Ainsi les historiens méthodistes Charles-Victor Langlois et Charles Seignobos vont s'opposer à l'école durkheimienne, proposant une répartition des tâches qui reste actuellement ancrée dans les mentalités : l'histoire s'occupera du passé, la sociologie du présent. Pourtant cette rupture du temps va s'effriter sous l'impulsion de plusieurs historiens. Ainsi Henri Berr, fondateur de la "Revue de synthèse historique" tente dès 1900 le rapprochement sociologique à la démarche historique. Le plus célèbre « rassembleur » est sans conteste le célèbre historien Fernand Braudel qui, prenant les rênes de l'école des Annales dans la lignée directe de Lucien Febvre et de Marc Bloch, ne cessera d'appeler la réunification des sciences humaines à l'histoire. « L’Histoire que j’invoque est une histoire neuve capable pour se renouveler et s’achever de mettre à sac les richesses des autres sciences sociales ses voisines » (revue "L’Histoire") ; géographie, ethnologie, la statistique, l’économie, le droit et la sociologie qu’il jugera « Plus scientifiques que l’Histoire, mieux articulées [...] Nos méthodes ne sont pas les leurs, mais nos problèmes, oui bien » (revue "L’Histoire"). Braudel restera d’ailleurs toujours en contact avec des collègues comme le sociologue Georges Gurvitch, le démographe Sauvy, l’ethnologue Lévi-Strauss... On peut d’ailleurs retrouver certaines ressemblances. L’histoire palliée n’est pas sans rappeler la vision de Gurvitch qui distinguait plusieurs formes de temps, lorsque Lévi-Strauss distingue l’histoire comme s’intéressant aux faits conscients et l’ethnologie comme s’intéressant aux faits inconscients, Braudel affirme que l’école des Annales s’intéresse aux deux, et enfin Braudel n’hésite pas à appeler les historiens à suivre les modèles qu’Alfred Sauvy réalisa, modèles mathématiques, chargés d’analyser la population.
L'historiographie est l'histoire de la méthode de la discipline historique. Tout peut être objet d'histoire, par exemple le déroulement des événements, ou les modes de vie de sociétés. L'historien utilise différentes sources : des sources privées comme les témoignages écrits ou oraux ; des sources publiques (presse, archives) et des sources matérielles (objets, monnaie, vestiges archéologiques). Tous les objets, les sources et les méthodes de l'Histoire ont évolué. C'est le rôle de l'historiographie d'illustrer tous ces changements.
xwikis
De même que la vitesse décrit la modification de la position d'un objet au cours du temps, l'accélération décrit la « modification de la vitesse au cours du temps » (ce que les mathématiques formalisent par la notion de dérivée). Dans la vie courante, on distingue trois cas que le physicien regroupe sous le seul concept d'accélération : Lorsque l'on est soi-même soumis à une accélération, on ressent un effort : effort qui nous plaque contre le siège lorsque la voiture accélère (va plus vite), effort qui nous tire vers le pare-brise lorsque la voiture freine, effort qui nous tire sur le côté lorsque la voiture tourne (force centrifuge). Nous ressentons cet effort de manière similaire au poids. Le rapport entre l'accélération et l'effort est le domaine de la dynamique ; mais l'accélération est une notion de cinématique, c'est-à-dire qu'elle se définit uniquement à partir du mouvement, sans faire intervenir les efforts. Dans les unités internationales, la vitesse s'exprime en mètres par seconde (m/s). L'accélération est donc la « variation, par seconde, des mètres par seconde », soit des « (mètres par seconde) par seconde », (m/s)/s ; que l'on appelle « mètres par seconde au carré » (m/s). On exprime ainsi souvent cette grandeur en « nombre de "g" », par analogie avec la pesanteur. Par rapport à l'unité internationale d'accélération, le « mètre par seconde au carré » (m/s), on a =. Pour se faire une idée de l'accélération linéique, il peut être utile de penser en termes de « + "x" km/h par seconde », sachant que, par rapport aux unités internationales, Par exemple, si une voiture passe de 0 à en, elle a une accélération de ()/() = ≈ ≈. À l'inverse, lors d'un choc frontal, une voiture roulant à s'arrête en environ, ce qui représente une variation de vitesse de ()/() = ≈ ≈. On parle souvent de l'accélération due à un changement de direction dans le cas des manèges à sensation, comme les montagnes russes. C'est ainsi que l'on peut lire que dans certains manèges, on subit une accélération allant jusqu'à.La notion d'accélération est formalisée par Pierre Varignon le, comme un écart infiniment petit de vitesse d"v" pendant un temps infiniment petit d"t" mis pour modifier cette vitesse. Réitérant l'approche qu'il avait utilisée deux ans plus tôt pour définir la notion de vitesse, il utilise le formalisme du calcul différentiel mis au point quelques années plus tôt par Gottfried Wilhelm Leibniz (Isaac Newton ayant développé le formalisme du calcul des fluxions).On se place dans un référentiel (R) donné. Considérons un point matériel M de vecteur position formula_1 et de vecteur vitesse formula_2. Laccélération moyenne entre les instants "t" et "t" est le vecteur défini par : La norme de l'accélération s'exprime en mètre par seconde au carré (, ). Si le référentiel et le point matériel sont définis sans ambiguïté, on allège couramment la notationAvec les mêmes notations, on définit laccélération instantanée comme étant la dérivée du vecteur vitesse : Comme le vecteur vitesse est lui-même la dérivée du vecteur position formula_1 du point matériel M, il en résulte que formula_7 est la dérivée seconde de formula_1 : Physiquement, le vecteur accélération décrit la variation du vecteur vitesse. Ce dernier pouvant à la fois varier en valeur et en direction, la notion physique d'accélération est plus large que celle employé dans le langage courant, où celle-ci désigne uniquement une variation de la valeur de la vitesse. Du point de vue cinématique, un véhicule effectuant un virage à vitesse constante (en valeur) possède bien une accélération. Il est possible de montrer que celle-ci est normale au vecteur vitesse et dirigée vers le centre de courbure du virage (cf. expression intrinsèque de formula_7).Tout comme le vecteur position et le vecteur vitesse, le vecteur accélération par rapport à un référentiel donné peut s'exprimer dans les différents systèmes de coordonnées : cartésiennes, cylindro-polaires, et sphériques. Il est important de souligner que le choix du système de coordonnées est indépendant de celui du "référentiel" : le "même" vecteur accélération pourra donc s'exprimer différemment selon le système de coordonnées choisi.Dans un repère de Frenet il est possible de décomposer l'accélération en deux composantes : Il est possible de démontrer l'expression suivante : où "s"("t") est l'abscisse curviligne du point matériel et R est le rayon de courbure de la trajectoire au point considéré : c'est le rayon du cercle dit "osculateur" en ce point. Ce cercle osculateur est le cercle tangent à la trajectoire en ce point qui se rapproche le plus de cette trajectoire autour de ce point. Dans le cas du mouvement rectiligne, le rayon de courbure R tend vers l'infini, et donc l'accélération normale est évidemment nulle. Dans le cas d'un mouvement circulaire le rayon de courbure R est constant et correspond au rayon de la trajectoire. Si le mouvement est en plus uniforme, la composante tangentielle est nulle, et l'accélération est purement normale.Un solide, indéformable ou déformable, peut être décrit comme un ensemble de points ; on note Σ le domaine spatial (volume) occupé par le solide, et formula_20 la fonction de masse volumique en un point M. On peut définir un vecteur accélération en chaque point, et ainsi un champ de vecteurs accélération formula_21. Dans le cas d'un "solide indéformable", si l'on connaît l'accélération en un point A et le vecteur vitesse angulaire formula_22 du solide, on peut déterminer l'accélération en tout point B par la « loi de distribution des accélérations dans un solide indéformable », ou formule de Rivals : Ceci montre que le champ des accélérations n'est pas un torseur. Toutefois, à partir de ce champ, on peut définir le moment dynamique par rapport à un point A du solide Ce moment dynamique est un champ équiprojectif (dans tous les cas, même si le solide est déformable), c'est donc un torseur, appelé « torseur dynamique ». Sa résultante est la quantité d'accélération :Les lois de mouvement d'un corps sont la détermination de la position en fonction du temps formula_26, de la vitesse instantanée en fonction du temps formula_27 et de l'accélération instantanée en fonction du temps formula_28, les trois grandeurs étant des grandeurs vectorielles. Comme nous l'avons vu précédemment, le passage d'une grandeur à l'autre se fait par dérivation ou bien résolution d'une équation différentielle (ou, dans les cas simples, intégration). Ceci est le domaine de la cinématique.Si formula_29 alors formula_30 et le mouvement du point matériel est rectiligne et uniforme dans (R). On peut simplifier l'étude en posant l'axe "x" comme étant l'axe du vecteur vitesse, si celui-ci est non nul. Le mouvement du point matériel est alors complètement décrit par la seule donnée de "x"("t"), et l'on a les équations de mouvement : où "x" est l'abscisse initiale : "x"="x"("t"=0). Notons que si formula_32, alors le point est immobile dans le référentiel.Si la direction et la valeur de formula_7 sont constantes, le mouvement est dit uniformément accéléré. On noteSi formula_35 et formula_7 sont colinéaires, alors le mouvement est rectiligne (MRUA : mouvement rectiligne uniformément accéléré). On peut simplifier l'étude en posant l'axe "x" comme étant l'axe commun de l'accélération et du vecteur vitesse. Le mouvement du point matériel est alors complètement décrit par la seule donnée de "x"("t"), et l'on peut exprimer l'accélération comme étant un scalaire : On établit facilement que où De ceci, on peut également déduire la formule suivante : Par exemple, afin de déterminer la hauteur d'un pont, on lâche une pierre depuis le haut du pont. Si celle-ci met formula_44 secondes pour atteindre le sol, quelle est la hauteur du pont? Sachant que l'accélération vaut formula_45 et formula_46 (lâcher sans vitesse initiale), la réponse est : On a choisi arbitrairement formula_48. Autre exemple : une voiture a un mouvement rectiligne uniformément accéléré, l'accélération valant. Quelle distance a-t-elle parcouru lorsqu'elle atteint la vitesse de, départ arrêté? On a : donc, la distance formula_51 parcourue vaut :Dans le cas le plus général, la trajectoire d'un point matériel en mouvement uniformément accéléré est plane et correspond à un arc de parabole. Le cas typique est celui de la chute libre d'un corps dans le champ de pesanteur, lorsque l'on néglige le frottement de l'air. Il est important de souligner que la constance de formula_7 ne préjuge en rien de la forme de la trajectoire, qui dépend en fait des conditions initiales. Si nous considérons que : alors les lois de mouvement sont (voir la démonstration sur l'article "Trajectoire parabolique") : Pour une vitesse initiale formula_41 non nulle, un angle α ≠ π/2 + "k"π et des coordonnées initiales à l'origine ("x" = "y" = "z" = 0), on en déduit que : qui est l'équation d'une parabole. Si formula_59 ou si α = π/2 + "k"π, on se retrouve dans le cas précédent du MRUA d'axe "z".Lorsque la droite portant le vecteur accélération passe toujours par un même point, on parle de mouvement à accélération centrale. Un cas particulier important de ce type de mouvement, où la force causant l'accélération est de type newtonien, est donné par le mouvement képlérien, qui décrit le mouvement des planètes autour du Soleil. Un cas particulier simple est celui du mouvement circulaire uniforme : le point matériel est soumis à une accélération centripète valant (voir la section "Expression dans un repère de Frenet" ci-dessus) : où R est le rayon de la trajectoire et ω est la vitesse angulaire. Par exemple, une voiture roulant à une vitesse uniforme de () sur un rond-point de diamètre de (R = ) subit une accélération valantLe vecteur accélération dépend du référentiel choisi pour l'étude du mouvement. Le mouvement par rapport à un référentiel donné (R), il est possible de déterminer sa nature par rapport à un autre référentiel (R'), en mouvement par rapport à "(R)", et donc la relation entre le vecteur accélération d'un point matériel "M" par rapport à "(R)", noté formula_61, et celui du même point par rapport à "(R')", noté formula_61. Cette relation est parfois nommée la "loi de composition des accélérations", et il est possible de montrer qu'elle se met sous la forme suivante: avec: formula_65 étant le vecteur rotation instantané du référentiel "(R')" par rapport au référentiel "(R)", et formula_66 le vecteur position du point "M" dans le repère d'origine "O"' associé au référentiel "(R')". Le vecteur position de "M" dans "(R)" est donné par formula_69, par suite il vient pour le vecteur vitesse du point matériel dans "(R)": Par ailleurs formula_72 est le vecteur position de "M" dans "(R')" qui s'écrit dans la base du repère d'espace associé à ce référentiel: formula_73, par suite: formula_74. Le vecteur accélération de "M" dans "(R)" s'obtient en dérivant le vecteur vitesse formula_75 par rapport au temps, dans ce référentiel: or il vient aussitôt: et Finalement, on obtient la formule précédente. Le référentiel terrestre étant non galiléen, l'accélération de Coriolis joue un rôle important dans l'interprétation de beaucoup de phénomènes à la surface de la Terre. Par exemple le mouvement des masses d'air et des cyclones, la déviation de la trajectoire des projectiles à grande portée, le changement du plan de mouvement d'un pendule tel que montré par Foucault dans son expérience de 1851 au Panthéon de Paris, ainsi que la légère déviation vers l'est lors de la chute libre.L'étude des causes de l'accélération s'appelle la dynamique. L'accélération étant une variation du vecteur vitesse par rapport à un référentiel (R) au cours du temps, les causes de l'accélération sont les phénomènes faisant varier le vecteur vitesse. Ces phénomènes sont appelés des forces, et sont définies, en mécanique newtonienne, par le principe fondamental de la dynamique ( loi de Newton) : où "m" est la masse du corps. Il faut distinguer deux types de forces : Les forces d'inertie sont simplement un artefact de calcul provenant des lois de composition des mouvements.L'accélération, en tant que vecteur, n'est qu'un descriptif du mouvement. L'accélération, en tant que phénomène, est simplement un état dynamique (état dans lequel le vecteur vitesse varie). D'un point de vue causal, on ne peut donc pas à proprement parler de conséquences de l'accélération, mais plutôt de conséquences des interactions provoquant cet état accéléré. Considérons le cas d'un solide suivant un mouvement de translation linéique uniformément accélérée, sous l'effet d'une action de contact ou sous l'effet d'une action volumique, à l'équilibre (l'accélération est la même pour toutes les parties). Prenons un modèle simple de solide déformable : il est composé de deux solides indéformables de masse respective "m" et "m", reliées par un ressort de masse négligeable. Dans le cas d'une action de contact, le solide est poussé par une force formula_80, ce qui crée une accélération formula_7 d'intensité F/("m" + "m") (figure du haut). Si l'on isole le solide 2 (figure du milieu), il a également une accélération d'intensité "a" ; cela signifie qu'il subit de la part du ressort une force d'intensité F = "m""a", soit Isolons le ressort (figure du bas) ; il subit une force formula_83 de la part du solide 2 (principe des actions réciproques). Sa masse étant négligeable, la résultante des forces qui s'exercent sur lui est nulle, il est donc en compression sous l'effet d'un couple de forces formula_84. Cette accélération produit donc, par effet d'inertie, une déformation du solide, ici une compression. Si à l'inverse formula_80 était une force de traction s'exerçant sur le solide 2, le ressort serait en traction. Si l'on se place dans un modèle de solide continu, défini par une fonction de masse volumique ρ(M) sur un domaine spatial Σ. L'accélération au point M vaut formula_21 ; soit un petit volume dV autour de M, ce volume est donc soumis à des forces dont la résultante vaut Si le champ d'accélération est uniforme, on retrouve une forme similaire à l'action du poids. Cela explique qu'une accélération est ressentie de la même manière que la gravité. L'étude de cette déformation et de ses conséquences est similaire à la statique. Considérons maintenant que ce solide est accéléré par une action volumique. L'ensemble est soumis à une force globale formula_80, et chaque partie est soumise à une force volumique propre formula_89 et formula_90. Supposons que la force soit proportionnelle à la masse, ce qui est par exemple le cas du poids. Si l'on isole l'ensemble {solide 1, ressort, solide 2}, il est soumis à la seule force volumique : (résultat classique de la chute libre sans résistance de l'air). Si maintenant on isole le solide 2 seul, il est soumis à l'action de sa force volumique propre, formula_90, et à l'action du ressort, formula_94, on a : Donc, le ressort n'est pas comprimé ni étiré, le solide n'est pas déformé. Si la force volumique n'est pas proportionnelle à la masse (cas d'une force électromagnétique par exemple), il va y avoir une déformation.Comme énoncé plus haut, l'accélération est une grandeur cinématique, c'est-à-dire qu'elle décrit le mouvement. On a deux situations : L'accélération peut enfin être mesurée par des accéléromètres.Au voisinage de la Terre, tout corps doté d'une masse subit dans le référentiel terrestre une force appelée "poids". Pour l'essentiel, celle-ci correspond à la force de gravitation exercée par la Terre sur le corps, ce qui fait que le poids et la force de gravitation sont souvent confondus. À ceci s'ajoutent deux effets, celui de la rotation de la Terre sur elle-même, dépendant donc de la latitude du lieu, et dans une bien moindre mesure celui de l'influence des forces de gravitation exercées par les autres astres (termes de marée). Cette notion se généralise sans difficulté à un astre quelconque, au voisinage de celui-ci et dans un référentiel qui lui est lié. Le poids s'exprime sous la forme du produit de la masse du corps par une accélération formula_97, appelée "pesanteur", soit La valeur de formula_97 dépend du lieu considéré : la pesanteur constitue donc un champ d'accélération, qui peut être considéré comme uniforme au voisinage d'un lieu donné, pour de faibles variations d'altitude. La direction de formula_100 en un lieu donné de la surface de la Terre correspond par définition à la verticale de ce lieu. Cette propriété est utilisée par le fil à plomb. Le sens de formula_100 est par définition, le "bas". À la surface de la Terre la valeur de moyenne de "g" est : Dans le cas d'une masse qui n'est soumise qu'à cette seule force, lors du mouvement qui par définition est appelé la chute libre, et du fait de l'identité de la masse grave et de la masse inerte, tous les corps en chute libre, quelles que soient leurs masses, subissent (en un lieu donné) la même accélération. Par suite, si deux corps de masses différentes, par exemple une plume et une masselotte de plomb, sont lâchés au même moment de la même hauteur, ils arriveront à terre au même moment, à condition de s'abstraire de la résistance de l'air. En pratique cette expérience devra être faite dans un tube où le vide a été fait, ou sur un astre pratiquement dépourvu d'atmosphère comme la Lune. Par suite, et bien qu'en toute rigueur la pesanteur en tant que champ d'accélération corresponde à une notion "cinématique", elle possède un lien direct avec la notion "dynamique" de poids, et tout se passe « comme si » un corps laissé « libre » dans ce champ de pesanteur « acquiert » l'accélération formula_97. À partir du constat que masse grave et masse inerte ne peuvent être distinguées fonctionnellement, la relativité générale postule, sous le nom de principe d'équivalence, que la force de gravitation ne se distingue pas "localement" (c'est-à-dire si l'on considère uniquement un point) d'une accélération. Il est important sur le plan conceptuel de connaître cette équivalence, beaucoup de physiciens utilisant pour cette raison, en abrégé, le terme "accélération" pour désigner indifféremment une modification de vitesse ou la présence dans un champ de gravité, même en l'absence apparente (dans l'espace 3D) de mouvement.Tout comme le vecteur accélération est la dérivée du vecteur vitesse par rapport au temps, on peut définir la dérivée de l'accélération par rapport au temps. Il s'agit du vecteur d'à-coup, parfois désigné sous le terme anglais de "jerk", qui permet ainsi de quantifier les variations d'accélération et qui est utilisé dans un certain nombre de domaines. L'à-coup en jerks est donc la dérivée seconde de la vitesse et dérivée troisième de la distance parcourue.Ceux-ci sont décrits notamment sur l'article décrivant l'accélération de la pesanteur terrestre, de, utilisée aussi en tant qu'unité de mesure d'accélération :Le génie mécanique consiste à concevoir et fabriquer des machines, c'est-à-dire des systèmes effectuant des mouvements. Une partie importante est le dimensionnement, c'est-à-dire le choix des actionneurs (vérins, moteurs) et des pièces supportant les efforts. Si les masses mises en mouvement et/ou les accélérations sont importantes, les effets dynamiques — les efforts nécessaires pour créer les accélérations, ou bien les efforts résultant des accélérations — ne sont pas négligeables. La détermination de l'accélération instantanée au cours d'un mouvement est donc capitale pour que les pièces résistent, et pour déterminer la consommation d'énergie du système. Le ballet des robots autour d'une caisse automobile en cours d'assemblage, c'est impressionnant. Une usine d'automobiles consomme autant qu'une ville moyenne, et les robots y contribuent largement. C'est pourquoi Siemens et Volkswagen se sont attelés au problème, en visant les causes de surconsommation : les nombreuses accélérations et décélérations des bras robots, à chaque changement de direction. Les partenaires ont donc développé un logiciel de simulation qui crée des trajectoires moins abruptes pour la même tâche à réaliser. Et montré en laboratoire que l'on pouvait gagner jusqu'à 50 % d'énergie! Dans de nombreux cas, le cahier de charges se résume à « amener un objet d'un point A à un point B en une durée "t" », la durée "t" étant parfois exprimée comme une cadence (effectuer le mouvement "n" fois par heure). La conception consiste à : L'accélération joue donc un rôle capital :Le terme est aussi utilisé en mathématiques, par exemple l'accélération de la convergence d'une suite (par des procédés comme le Delta-2 d'Aitken) signifie que l'écart entre la valeur des éléments de la suite et sa limite est plus petit que pour la suite initiale à un rang "n" donné.
L'accélération est une grandeur physique vectorielle, appelée de façon plus précise « vecteur accélération », utilisée en cinématique pour représenter la modification affectant la vitesse d'un mouvement en fonction du temps. La norme (l'intensité) de ce vecteur est appelée simplement « accélération » sans autre qualificatif.
xwikis
Le vecteur vitesse est défini par la vitesse et la direction du mouvement. Si la résultante (c'est-à-dire la somme des vecteurs) des forces appliquées à un objet est nulle, cet objet n'accélère pas et donc se déplace sur une ligne droite à vitesse constante : le vecteur vitesse est constant. Par contre, un objet qui se déplace à vitesse constante et dont la trajectoire est un cercle change en permanence de direction de mouvement. Le taux de variation du vecteur vitesse est alors appelé accélération centripète. Cette accélération centripète "formula_1" dépend du rayon "r" du cercle et de la vitesse "v" de l'objet. Plus la vitesse est grande, plus l'accélération augmente, de même plus le rayon est petit, plus elle augmente. De manière plus précise, l'accélération centripète est donnée par la formule où ω = v / r est la vitesse angulaire. Le signe négatif indique que la direction de cette accélération est dirigée vers le centre du cercle, c'est-à-dire "opposée" au vecteur position formula_3. (On suppose que l'origine de formula_3 est placée au centre du cercle.) formula_5 désigne le vecteur unitaire dans la direction de formula_3. D'après la Seconde loi de Newton, formula_7, la force physique formula_8 doit être appliquée à une masse "m" pour produire une telle accélération. La quantité de force nécessaire pour se déplacer à la vitesse "v" sur le cercle de rayon "r" est: l'expression ayant été formulée de différentes manières équivalentes. Ici, formula_10 est le vecteur de vitesse angulaire. Ici encore, le signe négatif indique que la direction est dirigée vers l'intérieur vers le centre du cercle et dans la direction opposée au vecteur rayon formula_11. Si la force appliquée est moins forte - respectivement plus forte - que formula_12, l'objet va "glisser vers l'extérieur" - respectivement l"'intérieur" -, se déplaçant sur un cercle plus grand, - resp. plus petit. Si un objet se déplace sur un cercle à une vitesse variable, son accélération peut être divisée en deux composantes : l'accélération radiale (l'accélération centripète) qui change la "direction" de la vitesse, et une composante tangentielle qui change l'amplitude de la vitesse.Pour un satellite en orbite autour d'une planète, la force centripète est fournie par l'attraction gravitationnelle entre le satellite et la planète et elle agit en direction du barycentre des deux objets. Pour un objet accroché au bout d'une corde et tournant autour d'un axe de rotation vertical, la force centripète est la composante horizontale de la tension de la corde qui agit en direction du barycentre entre l'axe de rotation et l'objet. Pour un objet en mouvement circulaire uniforme, cette force vaut formula_13, "v" étant la vitesse et formula_14, le rayon du cercle.Exemple : une balle de 1 kg va à 2 m·s à une distance de 0,5 m du poteau central, donc formula_15 une force de 8 newtons (0,8 kg) où la conversion en kilogramme-force s'exprime comme suit : formula_16.La force centripète ne doit pas être confondue avec la force centrifuge. Cette dernière est une force fictive dite d'inertie qui intervient si on se place dans un référentiel en rotation, pour interpréter l'éloignement d'un corps qui échappe à cette rotation. Pour pouvoir utiliser les lois de Newton il convient de se placer dans un référentiel non-accéléré, dit référentiel galiléen. Dans un tel référentiel les forces d'inerties disparaissent tout simplement au profit des seules forces réelles (non fictives). En référentiel galiléen nous sommes dans l'inertiel, en non galiléen en centrifuge, il y a donc encore confusion. La force centripète ne doit pas non plus être confondue avec la force centrale. Les forces centrales sont une classe de forces physiques entre deux objets qui suivent deux conditions : Par exemple, la force gravitationnelle entre deux masses ou la force électrostatique entre deux charges électriques sont des forces centrales. La force centripète maintenant un objet en mouvement circulaire est souvent une force centrale, mais ce n'est pas la seule. La force centrifuge n'est pas la réaction de la force centripète. La réaction de la force centripète existe bien mais partira par exemple de la terre vers la lune dans le cas du couple Terre-Lune.Le cercle de gauche montre un objet se déplaçant sur un cercle à vitesse constante à quatre instants différents sur l'orbite. Son vecteur position est formula_17 et son vecteur vitesse formula_18. Le vecteur vitesse formula_18 est toujours perpendiculaire au vecteur position formula_17 (car formula_18 est toujours tangent au cercle) ; ainsi, comme formula_17 se déplace en cercle, formula_18 fait de même. Le mouvement circulaire de la vitesse est indiqué sur le dessin de droite, avec le mouvement de l'accélération formula_24. La vitesse est le taux de variation de la position, l'accélération est le taux de variation de la vitesse. Comme les vecteurs position et vitesse se déplacent conjointement, ils tournent autour de leurs cercles respectifs au même instant "T". Ce temps est la distance parcourue divisée par la vitesse : et par analogie, En égalant ces deux équations et en résolvant pour formula_27, on obtient: la comparaison des deux cercles indique que l'accélération pointe vers le centre du cercle R. Par exemple, à un instant donné, le vecteur position formula_17 pointe vers 12 heures, le vecteur vitesse formula_18 pointe vers 9 heures qui (en regardant sur le cercle de droite) a un vecteur d'accélération pointant vers 6 heures. Ainsi le vecteur accélération est opposé au vecteur position et pointe en direction du centre du cercle.Une autre stratégie de dérivation est d'utiliser un système de coordonnées polaires, en supposant que le rayon reste constant, et de dériver deux fois. Soit formula_31 le vecteur décrivant la position d'une masse à un instant "t". Comme on suppose que le mouvement est circulaire uniforme, on a formula_32 où "r" est constant (rayon du cercle) et formula_33 est le vecteur unitaire pointant depuis l'origine vers la masse. La direction est décrite par "θ", angle entre l'axe des abscisses (x) et le vecteur unitaire, mesuré dans le sens trigonométrique (sens contraire des aiguilles d'une montre). Exprimé dans le système des coordonnées cartésiennes en utilisant les vecteurs unitaires formula_34 (axe des abscisses, "x") et formula_35 (axe des ordonnées, "y"), on a "Note: Contrairement aux vecteurs unités cartésiens, qui sont constants, la direction du vecteur unité en coordonnées polaires dépend de l'angle "θ", et donc ses dérivées dépendent du temps. En dérivant pour obtenir le vecteur vitesse : où "ω" est la vitesse angulaire dθ/dt, et formula_40 est le vecteur unitaire qui est perpendiculaire à formula_33 et qui pointe dans la direction des "θ" augmentant. En coordonnées cartésiennes, on a formula_42. Ce résultat indique que le vecteur vitesse est dirigé autour du cercle et en re-dérivant on obtient l'accélération formula_24 Et ainsi, la composante radiale de l'accélération est :
Le terme force centripète (« qui tend à rapprocher du centre », en latin) désigne une force permettant de maintenir un objet dans une trajectoire incurvée, généralement une conique (cercle, ellipse, parabole, hyperbole). En effet, tout objet décrivant une trajectoire de ce type possède en coordonnées cylindriques une accélération radiale non nulle, appelée accélération centripète, qui est dirigée vers le centre de courbure. D'un point de vue dynamique, le principe fondamental de la dynamique (PFD) indique alors la présence d'une force radiale dirigée elle aussi vers le centre de courbure.
xwikis
La représentation mathématique d'un système mécanique est importante en mécanique (et en physique en général). Cette représentation sera plus ou moins complexe suivant le niveau de détail du modèle et les phénomènes que l'on cherche à modéliser. Le modèle du point matériel est le plus simple que l'on puisse envisager pour un système mécanique. Aucune information sur la forme géométrique du système réel, la répartition de la matière (des masses) en son sein, etc. n'est conservée. La seule grandeur physique caractéristique du système est sa masse "m". La validité de ce modèle dépend d'une part de la nature du mouvement ainsi que du phénomène que l'on cherche à modéliser. Les deux exemples suivants permettent de préciser ces derniers points. Exemples: mouvements de révolution et de rotation propre de la Terre. Dans un référentiel héliocentrique, il est possible d'étudier le mouvement de révolution de la Terre en considérant cette dernière comme un point matériel "T" de masse "M = ". En effet son rayon "R" ≈ est très inférieur à la distance moyenne Terre - Soleil "D" ≈, ou encore au périmètre de l'orbite (environ ). Il est donc possible de considérer la Terre tout entière comme réduite à un point. Cependant, pour l'étude du mouvement de rotation propre de la Terre, dans le référentiel géocentrique, il est évident que l'on ne saurait considérer cette dernière comme un simple point matériel. Il faut tenir compte de sa forme et de la répartition des masses en son sein : le modèle le plus simple, bien connu, est celui d'une sphère de rayon "R" et de centre "T", homogène ou au moins à répartition sphérique de masse.
On appelle point matériel ou masse ponctuelle un système mécanique qu'il est possible de modéliser par un point géométrique "M" auquel est associée sa masse "m".
xwikis
L'expression de la force centrifuge (« "vis centrifuga" ») a été découverte par Christian Huygens en 1659, donc bien avant que les lois de la dynamique ne soient mises au point par Isaac Newton et que la notion générale de force ne soit clairement dégagée. Les théorèmes qu'il a découverts sont publiés en 1673 en annexe de son "Horologium oscillatorium". Le mémoire de 1659 ne sera publié qu'en 1703, une dizaine d'années après sa mort. Depuis Galilée, on sait que les corps tombent en chute libre d'un mouvement uniformément accéléré. Pour Huygens, un corps exerce une traction sur un fil qui le retient lorsque ce corps a une tendance à se mouvoir dans la direction du prolongement du fil d'un mouvement uniformément accéléré. Selon lui, cette règle s'applique non seulement au corps pesant, mais également à un corps tournant circulairement au bout d'un fil autour d'un point fixe. Dans ce dernier cas, la traction qu'on exerce sur le fil s'oppose à la force centrifuge qui, si le fil se rompt, éloignera le corps de sa trajectoire circulaire pour lui faire suivre une trajectoire rectiligne tangente au cercle. Relativement au cercle, au moment où le fil se rompt, la distance entre le point qu'occupe le corps sur la tangente et le point qu'il aurait occupé sur le cercle croît d'un mouvement uniformément accéléré. La comparaison à la chute libre permet alors à Huygens de déterminer l'expression de la force centrifuge par rapport au poids. Il énonce en particulier que : En notation moderne, la proposition V énonce que, si "R" est le rayon de la trajectoire circulaire, et si "v" est la vitesse acquise à l'issue d'une chute libre d'une hauteur "R"/2, (soit formula_1 où "g" est l'accélération de la pesanteur), alors l'accélération centrifuge est égale à "g" soit formula_2. Les propositions I et II énoncent alors que l'accélération centrifuge est formula_2 dans tous les cas. L'expression "force fictive" apparaît chez Coriolis en 1844.Elle provient directement de la cinématique classique et des trois lois du mouvement de Newton. Son intensité est donnée par la formule : Ces deux relations équivalentes sont valables dans le Système international d'unités avec les notations et unités suivantes :(convertir les unités si besoin) : La force centrifuge est représentable par un vecteur qui est perpendiculaire à l'axe instantané de rotation.La force centrifuge et le poids s'exerçant sur un objet de masse "m" sont deux forces qui sont proportionnelles à "m", (selon le principe d'équivalence). Aussi, est-il souvent plus évocateur de considérer, non pas les forces F, mais les accélérations F/"m". L'accélération est une grandeur cinématique, dont l'unité SI est le mètre par seconde carrée, (m/s). On peut également utiliser le "nombre de g", défini par le rapport entre l'accélération considérée et l'accélération de la pesanteur terrestre, laquelle est environ. En langage courant, le nombre de g est donc le dixième de la valeur de l'accélération exprimée en m/s.Selon les vitesses (linéaires ou angulaires) et les rayons de courbure "R", le calcul numérique donne approximativement :Il existe des cas où l'effet centrifuge peut être recherché, par exemple lors de l'essorage du linge dans un tambour de machine. Inévitable pour les systèmes en rotation, il peut constituer un désagrément pour les passagers d'un véhicule négociant un changement de direction. Tout le monde a déjà expérimenté cette sensation dans une voiture prenant un virage, on ressent alors la force centrifuge qui pousse les passagers vers l'extérieur du virage. Mais à y bien regarder, le fond du siège tire le passager vers l'intérieur sans quoi il ne prend pas le virage avec la voiture, et c'est à l'inertie (faculté de tout corps matériel à s'opposer au mouvement imposé) qu'on doit cette sensation. Un objet posé sur le tableau de bord se voit glisser vers l'extérieur de la voiture au premier virage venu, l'adhérence au tableau de bord étant alors insuffisante pour lui faire suivre le virage, l'objet part en réalité tout droit (donc vers l'extérieur pour un observateur placé dans le véhicule). Vu de l'extérieur, on observerait une trajectoire tangente à celle du virage pris par le véhicule, en aucun cas une trajectoire radiale dans la direction de la force dite centrifuge! Cet exemple montre bien que cette notion est fortement liée au référentiel. L'absence de force implique toujours une absence de variation de mouvement (soit la ligne droite). On a alors recours à des artifices pour annuler, ou plutôt compenser cet effet : combinaison anti-"g" des pilotes d'avions de chasse, système pendulaire de certains trains, virages relevés des routes, inclinaison des véhicules à moins de quatre roues dans les virages (vélos, motos et scooters à deux roues, scooters à trois roues équipés de l'Hydraulic Tilting System).C'est l'emploi le plus simple de l'effet centrifuge. Le mouvement de rotation imposé au linge induit des accélérations transmises aussi aux particules d'eau. Alors qu'elles restaient collées au repos, par capillarité aux textiles, les forces de cohésion deviennent insuffisantes lorsque l'ensemble tourne suffisamment vite. L'équilibre local n'est plus garanti, l'eau est éjectée.C'est le même principe employé pour séparer les éléments constituant des liquides hétérogènes, comme le sang. Le champ de force induit par l'effet centrifuge s'apparente à un champ de pesanteur plus fort qui favorise la séparation d'éléments de densités différentes. L'enrichissement de l'uranium repose sur ce principe, mais est technologiquement plus compliqué car le métal doit d'abord être dissout en hexafluorure d'uranium, dont le point triple est à 1,5 atm et à 64 °C, donc à faible température. Le fluor n'a qu'un isotope naturel stable, l'hexafluorure d'uranium a donc une masse qui diffère juste par l'isotope de l'uranium qu'il contient. Il "suffit" de les séparer à grande vitesse.Le schéma donné reproduit le principe du régulateur de James Watt. Entraîné, via la courroie, par la machine, le rotor voit ses masselottes s'écarter. Une tringlerie commande alors une vanne. L'action sur la vanne a un effet inverse sur la puissance fournie à la machine: c'est le principe de l'asservissement. Trop vite on ferme la vapeur, trop lent on ouvre, le système finissant par trouver le juste équilibre, et par conséquent un régime régulé.Les voyages en train sont souvent longs. Il est donc appréciable de pouvoir circuler dans les voitures pour se dégourdir les jambes. Les lignes anciennes sont parfois sinueuses, et les déplacements dans les allées sont alors difficiles à négocier. L'idée du train pendulaire exploite l'effet centrifuge pour incliner les voitures, de telle sorte que la "force centrifuge" s'ajoute au poids pour donner un "poids apparent" exactement perpendiculaire au plancher. De ce fait les passagers ne ressentent plus les efforts de cisaillement le long du corps qui tendent à faire perdre l'équilibre. Dans certains cas cela permet d'augmenter la vitesse mais l'effet est alors reporté sur les voies qui doivent retenir les trains. Là encore on a recours aux virages relevés pour reprendre avec une meilleure incidence la force centripète appliquée aux essieux. Ce qui impose un passage en courbe à une vitesse bien particulière: trop faible, le train penche vers l'intérieur, trop forte on est "attiré" vers l'extérieur. La relation pour calculer l'angle auquel les rails doivent être inclinées est: formula_6La Terre ne constitue pas un référentiel strictement inertiel. Par rapport au référentiel géocentrique, la Terre est animée d'un mouvement de rotation (qui produit par ailleurs l'alternance jour/nuit). Les corps sur Terre sont donc soumis à la force centrifuge ; c'est pour cette raison que les pas de tir des fusées sont situés de préférence à proximité de l'équateur, car c'est là que l'effet est maximal (effet de « fronde ») ; c'est le cas du Centre spatial de Kourou (env. de latitude Nord) et de Cap Kennedy (env. de latitude Nord). Cette force centrifuge fait partie du poids, celui-ci ne se limite donc pas à l'attraction terrestre.Nous considérons ici que le mouvement s'effectue dans un plan (un peu comme le dessin sur la démonstration de la force centrifuge au-dessus). Le calcul reste valable si l'avion exécute un virage plus « complexe » (trajectoire gauche). Comme le montre la formule plus haut, l'accélération centrifuge (et donc la force centrifuge) est directement liée à la vitesse linéaire de l'appareil : puisque formula_8 d'après la loi de Newton. En considérant un Grumman F-14 Tomcat, capable de voler à, ou un Mig-29, atteignant Mach 2,3 (2,3 fois la vitesse du son), on comprend qu'un pilote aux commandes de ce type d'avion subit des accélérations de l'ordre de ( la gravité terrestre). Les pilotes de chasse sont spécialement entraînés pour supporter ces accélérations extrêmes. De plus, ils sont équipés d'une combinaison anti-G pour contrebalancer les effets qu'elles pourraient entraîner (voile rouge, voile gris ou voile noir). Ces deux effets néfastes sont dus à des accélérations, "que le pilote perçoit comme positive ou négative" (et il est important de bien comprendre que c'est le pilote qui perçoit l'accélération alors que cette dernière n'a pas changé, comme dans l'illustration ci-dessus). Le voile rouge consiste en un afflux de sang dans la tête alors que le voile noir résulte du reflux du sang vers les jambes. La combinaison anti-G est un ensemble de poches qui se gonflent pour bloquer ces phénomènes.Une petite masse est fixée excentrée sur l'arbre d'un micro-moteur. Entraînée à grande vitesse de rotation, l'effet centrifuge provoque la réaction du palier qui fait vibrer le dispositif. Ceci est utilisé :L'effort que l'on peut transmettre par une courroie asynchrone est limité par l'adhérence entre la courroie et la poulie. Aux grandes vitesses de rotation, la force centrifuge relâche l'effort normal de la courroie sur la poulie, et donc réduit l'adhérence.
La force centrifuge, nom courant mais « abusif » de l'effet centrifuge, est un cas particulier de force fictive qui apparaît en physique dans le contexte de l'étude du mouvement des objets dans des référentiels non inertiels. L'effet ressenti est dû aux mouvements de rotation de ces référentiels et se traduit par une tendance à éloigner les corps du centre de rotation. C'est, par exemple, la sensation d'éjection d'un voyageur dans un véhicule qui effectue un virage.
xwikis
En astronomie, la "trajectoire", est la courbe que décrit le centre de gravité d'une planète accomplissant sa révolution autour du Soleil, ou d'un satellite naturel autour d'une planète. La trajectoire apparente est la ligne que décrit un astre sur le fond du ciel lors de sa révolution, telle que la perçoit un observateur terrestre.Dans le domaine de l'écologie, on parle de trajectométrie pour signifier l'étude des déplacements des animaux. Ceux-ci peuvent être suivis directement ou équipés d'émetteurs / récepteur GPS ou d'émetteurs VHF.En balistique, la trajectoire est la courbe que décrit le centre de gravité d'un projectile pendant son trajet dans l'espace. Une trajectoire balistique est la phase non propulsée de la trajectoire d'un missile sol-sol. La discipline ayant pour objet l'étude et la surveillance des trajectoires des missiles et des engins spatiaux est la trajectographie.La trajectoire d'un point est, dans un référentiel, l'ensemble des positions successives occupées par ce point au cours du temps. On introduit en mathématique le formalisme des arcs paramétrés pour décrire d'une part la trajectoire, d'autre part la façon dont elle est parcourue, ou paramétrage. Des résultats mathématiques établissent des différences fondamentales entre les trajectoires possibles d'une masse ponctuelle sur différentes surfaces :Dans le domaine de la physique des particules, la trajectoire désigne le trajet d'une particule élémentaire, ou d'un élément émis à partir d'une source de rayonnement.En sciences humaines et sociales, on appelle trajectoire la suite des positions sociales occupées par un individu durant sa vie ou une partie de sa vie. Pour les besoins de l'analyse, les très nombreuses trajectoires différentes des individus d'un groupe sont souvent regroupées en un nombre restreint de trajectoires types. Ces trajectoires sociales diffèrent souvent entre groupes sociaux et leur distribution se modifie au cours du temps. Le plus souvent, les études se concentrent sur un domaine social particulier. Par exemple : L'étude des trajectoires sociales nécessite le suivi d'individus au cours du temps et ne peut pas être réalisée au moyen d'une succession de collectes indépendantes de données. Les données peuvent être obtenues :
En mathématiques et en sciences physiques, la trajectoire est la ligne décrite par n'importe quel point d'un objet en mouvement, et notamment par son centre de gravité.
xwikis
La première personne à utiliser le mot « géographie » était Ératosthène (276-194 ) pour un ouvrage aujourd'hui perdu mais l'arrivée de la géographie est attribuée à Hérodote (484-420 ) ; aussi considéré comme étant le premier historien. Pour les Grecs, c'est la description rationnelle de la Terre en comprenant principalement la géographie physique. Il s'agit d'une science qui répond à une curiosité nouvelle, et qui va déterminer la géopolitique en définissant les territoires à conquérir et à tenir, ce qui implique la réalisation de cartes. Pour Strabon, la géographie est la base de la formation de celui qui voulait décider. Quatre traditions historiques dans la recherche géographique sont l'analyse spatiale des phénomènes naturels et humains (la géographie comme une étude de la répartition des êtres vivants), des études territoriales (lieux et régions), l'étude des relations entre l'Homme et son environnement, et la recherche en sciences de la terre. Avec l'évolution de la recherche scientifique, plusieurs domaines de la géographie ont évolué vers un statut de science à part entière. On peut citer la climatologie, l'océanographie, la cartographie, etc. ce qui a eu pour effet de principalement recentrer les activités du géographe sur les interactions humaines (aspect social) et de son rapport à son environnement (aspect spatial). Les géographie physique et mathématique sont les branches de la géographie qui ont le plus subit cette évolution des sciences alors que la géographie humaine a profité de ce changement pour passer de la géopolitique à une étude plus rationnelle et enrichie des rapports humains et des relations qu'ils entretiennent avec leurs environnements à travers des disciplines nouvelles. Néanmoins, la géographie moderne est une discipline englobante qui cherche avant tout à mieux comprendre notre planète et toutes ses complexités humaines et naturelles, non seulement où les objets sont, via l'élaboration de cartes, mais comment ils ont changé et viennent à l'être. Longtemps les géographes ont perçu leur discipline comme une discipline carrefour (Jacqueline Bonnamour), « pont entre les sciences humaines et physiques ». L'approche géographique d'un phénomène ne se limite pas uniquement à l'utilisation de la cartographie (l'étude des cartes). La grille de questionnement, associée à la cartographie, permet d'ajuster l'analyse de l'objet — l'espace — et d'expliquer pourquoi on trouve tel ou tel phénomène ici et pas ailleurs. La géographie s'applique donc à déterminer les causes, aussi bien naturelles qu'humaines ; et lorsqu'ils observent des différences, leurs conséquences. Aujourd'hui, une division de la géographie en deux branches principales s'est imposée à l'usage, la géographie humaine et la géographie physique. Cependant la géographie reste par excellence une discipline de synthèse qui interroge à la fois « les traces » laissées par les sociétés (mise en valeur des espaces ou impacts) ou la nature (orogenèse des montagnes, impact du climat...) et les dynamiques en œuvre aussi bien dans les sociétés (émergence socio-économique de la façade asiatique pacifique, désindustrialisation progressive des pays développés à économie de marché) qu'au sein de l'environnement physique (« Changement global », montée du niveau marin...). La géographie s'intéresse donc à la fois aux héritages (physiques ou humains) et aux dynamiques (démographiques, socioéconomiques, culturelles, climatiques, etc.) présents dans les espaces. Par ailleurs cette discipline tend à intégrer divers champs culturels tels que la peinture paysagiste, le roman ou encore le cinéma.Dans le bassin méditerranéen, la géographie est à l'origine composée de mesures expérimentales et de récits sur des voyages et des lieux pour répertorier l'univers connu. Les cartes et l'exploration sont surtout le fait des savants du monde grec. Ainsi, Claude Ptolémée répertorie tout l'univers connu dans son ouvrage "Géographie". Anaximandre réalise l'une des premières cartes du monde connu. Les Grecs sont la première civilisation connue pour avoir étudié la géographie, à la fois comme science et comme philosophie. Thalès de Milet, Hérodote (auteur de la première chorographie), Ératosthène (première carte du monde connu – l'écoumène –, calcul de la circonférence terrestre), Hipparque, Aristote, Ptolémée ont apporté des contributions majeures à la discipline. Les Romains ont apporté de nouvelles techniques alors qu'ils cartographiaient de nouvelles régions. Ces précurseurs développent quatre branches de la géographie qui vont perdurer jusqu'à la Renaissance :Après la Renaissance et les grandes découvertes, la géographie s'impose comme une discipline à part entière dans le domaine scientifique. Nicolas Copernic développe la théorie de l'héliocentrisme selon laquelle le Soleil est au centre de l'Univers et que la Terre tourne autour du Soleil. Gérard Mercator publie en 1569 une mappemonde en dix-huit feuillets appelée « projection Mercator » qui fournit aux navigateurs une réelle description des contours des terres.Entre le, plusieurs courants se développent tentant de démontrer l'interaction entre l'homme et la nature, avec plus ou moins de succès et de rigueur d'approche : L'École française de géographie, créée par Paul Vidal de La Blache, développe aussi une spécificité : la géographie régionale. Il s'agit de traiter de l'unique, de la région (« idiographie » ou travail sur les spécificités), évitant ainsi les dérives nomothétiques, mais tombant dans une connaissance encyclopédique. Élisée Reclus est l'auteur d'une encyclopédie (la "Nouvelle Géographie universelle", en 19 tomes). Son regard géographique fut influencé par ses convictions anarchistes.La nouvelle géographie se développe à partir des années 1960 aux États-Unis et gagne la France, la Suisse et surtout l'Allemagne dans les années 1970. Elle est directement influencée par les géographies anglo-saxonnes et scandinaves. Inspirée par les mathématiques (statistiques) et les règles de l'économie, cette géographie tente d'établir des « lois » universelles (science nomothétique). En créant des connaissances multidisciplinaires, la géographie donne des clés de lecture et d’analyse des grands enjeux contemporains liant espaces et sociétés. Elle s’adresse à divers publics : les politiques, les médias, les scientifiques, ainsi que la société dans son ensemble. Dans notre monde de plus en plus globalisé, cette discipline permet notamment d'appréhender de manière multiscalaire et critique les flux de biens, d'informations et de personnes afin de résoudre les défis posés par les changements climatiques, l'urbanisation, ou encore les migrations et les conflits armés. La géographie constitue ainsi un outil d'expertise et d’éducation de ces enjeux, permettant d'agir sur un plan local, national et global.La géographie mathématique, se concentre sur la surface de la Terre, l'étude de sa représentation mathématique et sa relation à la Lune et au Soleil. Elle est la première forme de science géographique apparue pendant l'antiquité grecque et comprend aujourd'hui les disciplines scientifiques et techniques suivantes :La géographie physique est une discipline qui a pour but de. Elle s'organise en plusieurs spécialités : la géomorphologie (structurale et dynamique), la climatologie, l'hydrologie, la biogéographie et la paléogéographie. Ces disciplines concourent à l'analyse du milieu naturel, on dit plus communément aujourd'hui, des paysages, qui est un "géosystème" : ensemble géographique doté d'une structure et d'un fonctionnement propres, qui s'inscrit dans l'espace et dans le temps (échelles spatio-temporelles). Le géosystème comporte des composants abiotiques, biotiques et anthropiques qui sont en interaction : Ainsi par exemple, la géomorphologie analyse l'une des composantes du milieu naturel, en relation étroite avec les autres disciplines de la géographie physique et des sciences de la Terre (géologie). On distingue une géomorphologie structurale qui correspond dans le relief à l’expression directe de la structure, d’une géomorphologie dynamique (voire climatique) dont les formes sont liées à l’action d’un climat particulier. Cette discipline s'associe également à l'analyse du milieu dans son ensemble dans le cadre de projets d'aménagements ou de conservation des milieux naturels La géographie physique a initialement pour objet principal le milieu. C'est la branche de la géographie qui a dominé jusque dans les années 1950-1970 par le biais de la géomorphologie, en particulier structurale, et donc l'ensemble de la discipline. L'étude de géographie physique et du paysage était la base de l'étude de la géographie pour le père de la géographie française, Paul Vidal de La Blache. Pour comprendre l'organisation des sociétés humaines, il fallait analyser le milieu dans lequel vivaient les hommes. L'historien Lucien Febvre a qualifié cette démarche possibiliste, « la nature distribue les cartes, l'homme joue la partie » (J.-P. Alix, "L'Espace humain") (possibilisme). Les évolutions épistémologiques des années 1960 ont fortement affaibli la géographie physique, des géographes tel qu'Yves Lacoste ont fortement critiqué une emprise trop forte de la géographie physique comme élément explicatif de l'organisation des sociétés humaines (déterminisme). La géographie physique a aujourd'hui profondément changé. Elle s'intéresse de plus en plus au rôle de l'homme dans la transformation de son environnement physique. Parmi les concepts les plus utilisés, on trouve l'anthropisation (voir par exemple les atouts et les contraintes dans les travaux de J.-P. Marchand, université de Bretagne, sur le climat de l'Irlande). La place de la géographie physique fait débat au sein même de la géographie. Certains voient en la géographie physique une science de la nature, d'autres comme J.-P. Marchand affirme : « géographie physique, science sociale ». L'unité de la discipline est souvent remise en question pour deux raisons. Certains géographes physiciens se sont fortement rapprochés des unités de recherches des sciences de l'environnement. Certains géographes humanistes rejettent au nom du déterminisme une explication physique de l'organisation des espaces humains. Certains géographes physiciens intègrent les concepts de la géographie humaine et des sciences sociales. Ils plaident pour un renouveau de la géographie physique parfois appelée, géographie de l'environnement. Les études dans le domaine du "développement durable" en sont des exemples. Yvette Veyret en géomorphologie, Martine Tabaud en climatologie ou encore Paul Arnoud en biogéographie tentent de réconcilier "géographie physique" et "géographie humaine" en alliant études environnementales, prise en compte des acteurs géopolitiques et des aménagements.La géographie humaine est l'étude spatiale des activités humaines à la surface du globe, donc l'étude de l'écoumène, c'est-à-dire des régions habitées par l'homme. L'analyse de géographie humaine se fait à cette époque par le prisme de densités : on cherche à comprendre les préférences qui guident les hommes dans le choix du lieu où ils vont habiter. La géographie universitaire du début du insiste sur le poids de l'histoire. Dans cette approche, l'interaction entre les hommes et la nature au moyen de leurs connaissances et de leur histoire propre conduit à distinguer les sociétés et les régions en fonction de leur genre de vie. La géographie humaine était au début du le parent pauvre de la discipline. Comme la géographie physique, c'était avant tout une discipline très descriptive et peu analytique. Dans les années 1920-1930, une approche économique de la géographie humaine se développe autour d'Albert Demangeon proche de l'école des Annales. Mais, c'est toujours la géographie régionale qui domine lors de cette période. Dans les années 1960 se développe la nouvelle géographie, ou analyse spatiale, qui a l'ambition de dégager des lois universelles à l'organisation de l'espace par l'homme. Cette approche positiviste occupera longtemps une place de choix au sein des courants géographiques. La géographie humaine est renouvelée à la fin des années 1970 par Yves Lacoste, créateur et fondateur de la revue "Hérodote" en 1976 (intitulée d'abord "Stratégies géographies idéologies", puis en 1983 "Revue de géographie et de géopolitique") et auteur de l'essai "La Géographie, ça sert d'abord à faire la guerre". Il réhabilite alors une approche politique de la géographie, science dont il pense qu'elle peut être utilisée pour servir la cause des "opprimés". Une certaine partie des géographes rejettent entièrement la géographie physique en affirmant la géographie comme une science sociale, cette vision est notamment relayée dans la revue "Espace-Temps" fondée en 1975 par Jacques Lévy et Christian Grataloup Aujourd'hui, la géopolitique tend à analyser les conséquences de la mondialisation (géoéconomie) et la gestion des ressources naturelles (l'or ; l'or bleu - l'eau ; l'or noir - le pétrole ; l'or vert - la forêt) sont les objets les plus étudiés par la géographie humaine. La géographie humaine s'est aussi enrichie d'une approche culturelle (la géographie culturelle étudie les pratiques et les modes de vie des populations. La géographie du Genre héritière du postmodernisme et sous-branche de la géographie culturelle se développe en France depuis la fin des années 1990.La "géographie régionale" est un courant géographique qui recherche à diviser l'espace en régions. La première étape de cette démarche consiste donc à regrouper sous cette appellation des lieux auxquels on attribue une certaine homogénéité. Ensuite, on pourra dire en quoi cette région est un individu géographique, en quoi elle se distingue des autres régions. Dès les années 1950 dans le monde anglo-saxon, puis avec un retard d'une dizaine, voire une vingtaine d'années en France, le paradigme de la région est vivement critiqué, notamment autour de la revue "L'Espace géographique". Si l'approche régionale est considérée obsolète, c'est en vertu de bouleversements mondiaux comme la révolution des transports ou la mondialisation. Ces critiques vont favoriser l’émergence d'un courant qui se veut plus scientifique et objectif : "l'école de l'analyse spatiale". Depuis les années 1970 et 1980, la géographie a vu se développer de nouvelles branches de sa discipline en accord avec une approche pluridisciplinaire (notamment l'utilisation des outils en provenance des disciplines économiques, mathématiques, sciences politiques, sociologiques, et informatiques), inspirée par les géographies scandinave, nord-américaine et anglaise, notamment à travers les approches variées de :L'économie spatiale est un domaine aux confins de la géographie économique et de la microéconomie. Elle étudie les questions de localisation économique, et les relations économiques entre le mondial (mondialisation) et le local (aménagement du territoire, pôle de compétence, délocalisation, etc.). La notion d'échelle – ou approche multiscalaire – est essentielle en géographie : suivant que le géographe étudie toute la planète (petite échelle) ou seulement une partie de celle-ci (grande échelle), on parle de géographie générale ou de géographie régionale. De nos jours, on préfère toutefois parler de géographie thématique à la place de géographie générale et de géographie des territoires à la place de géographie régionale.Avant les années 1970, l'astronomie était une tout autre science. Depuis l'exploration spatiale, la géographie est aussi l'étude des caractéristiques physiques de tous les corps célestes ; aucun mot spécifique n'a été créé pour chacun. Depuis que leurs surfaces commencent à être connues, une même approche guide les études.Seul sélénographie semble utilisé. Le terme "aréographie" pour Mars, par exemple, a bien été proposé, mais n'a rencontré que très peu de succès.La géographie nécessite d'être capable de situer les différentes parties de la Terre les unes par rapport aux autres. Pour ce faire, de nombreuses techniques ont été développées à travers l'histoire. Longtemps les géographes se sont posé quatre questions majeures lorsqu'ils regardaient la Terre, s'inscrivant en cela dans une démarche descriptive et analytique : Comme les interrelations spatiales sont la clé de cette science synoptique, les cartes sont un outil clé. La cartographie classique a été rejointe par une approche plus moderne de l'analyse géographique, les systèmes d'information géographique (SIG) informatisés. Dans leur étude, les géographes utilisent quatre approches interdépendantes :La cartographie étudie la représentation de la surface de la Terre et des activités humaines. Bien que d'autres sous-disciplines de la géographie s'appuient sur des cartes pour présenter leurs analyses, la réalisation de cartes est assez abstraite pour être considérée séparément. Les cartographes doivent apprendre la psychologie cognitive et l'ergonomie pour comprendre quels symboles véhiculent les informations sur la Terre le plus efficacement, et la psychologie comportementale pour inciter les lecteurs de leurs cartes à agir sur l'information. Ils doivent apprendre la géodésie et les mathématiques assez avancées pour comprendre comment la forme de la Terre affecte la distorsion des symboles de carte projetés sur une surface plane pour la visualisation. On peut dire, sans trop de controverse, que la cartographie est la graine à partir de laquelle le plus grand domaine de la géographie a grandi.Un système d'information géographique (SIG) est un système d'information capable d'organiser et de présenter des données alphanumériques spatialement référencées, ainsi que de produire des plans et des cartes. Ses usages couvrent les activités géomatiques de traitement et diffusion de l'information géographique. La représentation est généralement en deux dimensions, mais un rendu 3D ou une animation présentant des variations temporelles sur un territoire sont possibles, incluant le matériel, l’immatériel et l’idéel, les acteurs, les objets et l’environnement, l’espace et la spatialité. L'usage courant du système d'information géographique est la représentation plus ou moins réaliste de l'environnement spatial en se basant sur des primitives géométriques : points, des vecteurs (arcs), des polygones ou des maillages (raster). À ces primitives sont associées des informations attributaires telles que la nature (route, voie ferrée, forêt, etc.) ou toute autre information contextuelle (nombre d'habitants, type ou superficie d'une commune par ex.). Le domaine d'appartenance de ces types de systèmes d'information est celui des sciences de l'information géographique. Cet usage se vulgarise par la possibilité d'insérer facilement dans les pages d'un site Internet des cartes superposant des données à un fond cartographique, au moyen d'interfaces de programmation (API, pour "Application Programming Interface"). Les exemples les plus connus en sont Google Maps API, Microsoft®Bing Maps, etc. Pour les développeurs désireux d'intégrer les standards majeurs de l'information géographique, la bibliothèque libre Javascript Leaflet réunit une large communauté d'organismes officiels et de spécialistes.La télédétection désigne, dans son acception la plus large, la mesure ou l'acquisition d'informations sur un objet ou un phénomène, par l'intermédiaire d'un instrument de mesure n'ayant pas de contact avec l'objet étudié. C'est l'utilisation à distance de n'importe quel type d'instrument (par exemple, d'un avion, d'un engin spatial, d'un satellite ou encore d'un bateau) permettant l'acquisition d'informations sur l'environnement. On fait souvent appel à des instruments tels qu'appareils photographiques, lasers, radars, sonars, sismographes ou gravimètres. La télédétection moderne intègre normalement des traitements numériques mais peut tout aussi bien utiliser des méthodes non numériques.La géostatistique est une discipline à la frontière entre les mathématiques et les sciences de la Terre. Son principal domaine d'utilisation a historiquement été l'estimation des gisements miniers, mais son domaine d'application actuel est beaucoup plus large et tout phénomène spatialisé peut être étudié en utilisant la géostatistique. L'analyse des données géographiques : géographes, urbanistes et aménageurs utilisent de plus en plus de vastes tables de données fournies par les recensements ou par des enquêtes. Ces tables contiennent tant de données détaillées qu'une méthode est nécessaire pour en extraire les principales informations. C'est le rôle de l'analyse multivariée (appelée aussi, sous ses diverses formes : analyse des données, analyse factorielle ou analyse des correspondances ou "Statistique multivariée"). Il s'agit de transformer la table des données en matrice des corrélations des variables pour en extraire les "vecteurs propres" (ou "facteurs" ou "composantes principales") et produire un changement de variables. Premier avantage : certaines variables du recensement (prix du sol, revenus, loyers, etc) seront remplacées par un facteur unique qui les résumera en opposant ménages riches/ménages pauvres dans la ville. Au lieu de dessiner plusieurs cartes redondantes, une carte du facteur représentant la structure sociale apportera une information synthétique. Deuxième avantage, l'expérience montre que l'opposition riches/pauvres constitue l'information fondamentale fournie par les recensements dans toutes les grandes villes analysées dans le monde. Toutes les cartes représentant des données socio-économiques répéteront cette structure. Mais il existe d'ordinaire d'autres phénomènes intéressants (opposition jeunes/vieux, retraités/actifs, quartiers récents/quartiers de peuplement ancien, quartiers ethniques, etc) qui seront cachés par ce phénomène dominant. L'analyse multivariée produit de nouvelles variables orthogonales par construction, c'est-à-dire, indépendantes. Ainsi, chaque facteur représentera un phénomène social différent. L'analyse permettra de reconnaître la structure cachée qui sous-tend les variables. Ces méthodes sont très puissantes, indispensables mais offrent aussi de nombreux pièges. Différentes formes d'analyse multivariées sont utilisées, selon la métrique choisie (en général, métrique euclidienne usuelle ou Chi-deux, voir "Test du χ2"), selon la présence ou absence de rotations, selon l'utilisation de « communalités », etc. Aujourd'hui, l'utilisation d'ordinateurs puissants et de logiciels statistiques largement répandus rend ce type d'analyse tout à fait banal, ce qui multiplie les risques d'erreur. L’ethnographie est la science de l'anthropologie dont l'objet est l'étude descriptive et analytique, sur le terrain, des mœurs et des coutumes de populations déterminées. Cette étude était autrefois cantonnée aux populations dites alors « primitives ».L'urbaniste Pierre Merlin précise que « "les géographes ont souvent eu tendance à considérer, en France notamment, l'aménagement (et en particulier l'aménagement urbain, voire l'urbanisme) comme un prolongement naturel de leur discipline. Il s'agit en fait de champs d'action pluridisciplinaires par nature qui ne sauraient être l'apanage d'une seule discipline quelle qu'elle soit. Mais la géographie, discipline de l'espace à différentes échelles, est concernée au premier chef" ». Il convient par ailleurs de préciser que dans cette partie, les géographes dits « professionnels » et par conséquent spécialisés dans une science particulière ne sont pas ou ne se sentent pas toujours considérés comme des géographes selon la nature de leur formation et du rapprochement que l'on peut faire avec la géographie. En effet, la plupart de ces professions (et notamment celles de géographie physique et mathématique) ont été tellement approfondies pour devenir des sciences à part entière allant au-delà de la simple analyse spatiale, que l'on emploie des termes plus précis comme climatologue, océanographe, etc.Si les revues géographiques ont parfois des origines anciennes, bon nombre d'entre elles publient maintenant des versions électroniques. Revues internationalesL'enseignement de la géographie a fait l'objet de plusieurs études, notamment de la part de Jacques Scheibling ou d'Isabelle Lefort, montrant, depuis son apparition en tant que véritable discipline scolaire en France dans les années 1870 jusqu'à nos jours, son évolution en parallèle avec celle de la géographie savante, son utilisation à des fins politiques et idéologiques ( selon Jacques Scheibling), surtout après la défaite contre la Prusse en 1870 (il s'agissait alors de faire prendre conscience aux élèves de l'unité de leur pays, de leur identité nationale et de préparer à la Revanche) et pendant les conquêtes coloniales, et ses tentatives pour se sortir du rôle d'auxiliaire de la discipline historique. De 1870 à nos jours, de nombreuses réformes ont été mises en place faisant évoluer la discipline géographie dans l'enseignement secondaire et aussi à l'université. Ces réformes portent autant sur le contenu des programmes, qui évoluent en fonction des avancées de la géographie savante et du contexte social et historique (avec par exemple une domination de l'enseignement de la géographie régionale au début du, sous l'ère vidalienne), que sur les méthodes d'enseignement, l'aspect pédagogique, comme l'introduction dans les années 1960-1970 de manuels plus lisibles, avec de nombreuses photographies en couleurs. Aujourd'hui, l'enseignement de la géographie se définit plus en fonction de contraintes matérielles, comme les classes surchargées, la diminution du nombre d'heures, etc.Sites et revues scientifiques consacrés à la géographie de façon globale :
La géographie (du grec ancien – "geographia", composé de « η γη » ("hê gê") (la Terre) et « γραφειν » ("graphein") décrire, puis du latin, littéralement traduit par « dessin de la Terre ») est une science (ou famille de sciences --cf. infra, sous-titre Évolution--) centrée sur le présent, ayant pour objet la description de la Terre et en particulier l'étude des phénomènes physiques, biologiques et humains qui se produisent sur le globe terrestre, à un certain niveau d'abstraction relative qui s'y prête, pluridisciplinarité comprise voire transdisciplinarité en un certain sens. Le portail de l'information géographique du gouvernement du Québec définit la géographie comme « une science de la connaissance de l’aspect actuel, naturel et humain de la surface terrestre. Elle permet de comprendre l’organisation spatiale de phénomènes (physiques ou humains) qui se manifestent dans notre environnement et façonnent notre monde ».
xwikis
Dans un espace euclidien de dimension 2, un domaine a une aire s'il est un ensemble mesurable pour la mesure de Jordan et son aire est égale à cette mesure.L'aire "S" d'une surface plane suit quatre propriétés : La propriété d'additivité est étendue, par récurrence, à un entier naturel "n" supérieur à deux quelconque : si "A", "A"... "A" sont des surfaces deux à deux disjointes d'aires respectives "S"("A"), "S"("A")... "S"("A"), alors ce qui se note plus rigoureusement : Mais cette propriété d'additivité "finie" ne suffit pas, ne serait-ce que pour prouver la formule de calcul de l'aire d'un disque (voir plus bas). Elle est donc étendue à une famille infinie dénombrable de surfaces planes ("A") deux à deux disjointes dont les aires sont supposées connues, avec le résultat analogue au précédent : On parle alors de σ-additivité (« sigma-additivité »).Une unité de longueur (notée 1u.l.) étant préalablement choisie, on définit l'unité d'aire (notée 1u.a.) par 1u.a.=(1u.l.). Toutes les surfaces sont mesurées en unités d'aire. La figure de base pour le calcul d'une aire est le carré unité, de côté 1u.l. ; il permet de calculer l'aire du rectangle. À l'aide de l'aire du rectangle, il est possible de déterminer l'aire d'un triangle rectangle (vu comme un demi-rectangle) ou d'un parallélogramme, puis celle d'un triangle quelconque et, par suite, d'un polygone quelconque. La formule de l'aire d'un disque est plus complexe à démontrer : elle nécessite le passage par une limite de suite. L'idée d'approcher successivement une surface complexe par une suite de surfaces plus simples (en général, des rectangles ou des polygones) est fondamentale. Une surface qui peut être « correctement » approchée par des rectangles, au point qu'on puisse en déduire son aire par un calcul de limite est dite "quarrable". Dans certains cas, l'analyse vient au secours de la géométrie, lorsque les raisonnements par découpage et recollement ne suffisent plus. Certains calculs d'aires nécessitent le recours à des intégrales (notion d' "aire sous la courbe"), qui peuvent parfois être calculées à partir de primitives d'une fonction. D'autres cas sont plus pathologiques : les mathématiciens ont établi une théorie de la mesure pour généraliser les résultats sur les aires. Pour les fractales, les aires ne sont pas calculables — ou non satisfaisantes. La notion de dimension de Hausdorff généralise celle d'aire, pour un objet fractal plan.Ci-dessous sont données les formules de calcul d'aire usuelles les plus courantes et des démonstrations, qui illustrent les raisonnements géométriques souvent utilisés pour résoudre les problèmes d'aire : « coupé-collé », parfois en imaginant une infinité de découpages par des considérations sur les limites. Un rectangle dont la longueur et la largeur sont égales à des nombres entiers "m" et "n" peut être vu comme composé de "m" lignes contenant chacune "n" carrés unité. Son aire est donc égale à.Si les dimensions du rectangle sont des fractions "m"/"p" et "n"/"q", on considère qu'on a « découpé » le rectangle de dimensions "m" et "n" en "p" parts égales, puis chacune de ces parts à nouveau en "q" parts égales. Le rectangle de dimensions "m" et "n" contient donc fois celui de dimensions "m"/"p" et "n"/"q". L'aire de ce dernier rectangle est donc égale à. Ce résultat se généralise au cas où la longueur et la largeur du rectangle sont des nombres réels, mais le raisonnement est plus abstrait : il nécessite un passage à la limite, en considérant que tout nombre réel est la limite d'une suite de nombres rationnels. Un carré est un rectangle dont la longueur et la largeur sont égales à un même nombre appelé "côté" du carré. Un carré de côté "c" possède une aire égale à "c" × "c", ce qui se note "c". Réciproquement, tout nombre de la forme "c" (où "c" est positif) peut être considéré comme l'aire d'un carré de côté "c", ce qui explique que "c" se lit « "c" au carré » ou « le carré de "c" ».La formule de calcul de l'aire d'un triangle la plus courante est : Tout triangle rectangle dont les cathètes (ou petits côtés) mesurent "a" et "b" peut être considéré comme la moitié d'un rectangle de dimensions "a" et "b" partagé en deux par une de ses diagonales. L'aire de ce triangle rectangle est donc égale à formula_3. Plus généralement, tout triangle de hauteur d'un triangle "h" et de côté associé "b" (dans ce cas, le côté est appelé "base") est la moitié d'un rectangle de dimensions "h" et "b", ce qui donne la formule classique de calcul d'aire d'un triangle : D'autres méthodes permettent de calculer l'aire d'un triangle et, par suite, l'aire d'un polygone quelconque, en utilisant le fait que tout polygone peut être partagé en un nombre fini de triangles. C'est notamment en partageant un polygone régulier en triangles dont un sommet est son centre qu'on obtient les formules usuelles de calcul de l'aire d'un polygone régulier.On se convainc de ce résultat par un partage du disque en un nombre arbitrairement grand de triangles. En considérant "n" points "A", "A"... "A" régulièrement espacés sur un cercle de centre "O" et de rayon "R", on obtient un polygone régulier à "n" côtés constitué de "n" triangles isocèles de même aire "OA'A', "OA'A', etc. L'aire du polygone régulier est donc "n" fois celle de l'un de ces triangles. Si la hauteur de chacun de ses triangles est "h", l'aire de chaque triangle est. En multipliant par "n", l'aire du polygone égale donc la moitié de la hauteur "h" multipliée par le périmètre du polygone. Lorsque le nombre "n" de points tend vers l'infini, la hauteur "h" tend vers "R", et le périmètre du polygone vers celui du cercle, soit 2π"R", ce qui donne bien le résultat annoncé. Connaissant le rayon du cercle, une autre méthode, utilisée par Archimède consiste à diviser le disque en secteurs, comme montré sur la figure à droite. Chaque secteur a une forme à peu près triangulaire et les secteurs peuvent être réarrangés pour former un parallélogramme. La hauteur de ce parallélogramme est, et la largeur est la moitié de la circonférence du cercle, ou. Ainsi, la surface totale du disque est Bien que cette méthode de division en secteurs ne soit qu'approximative, l'erreur devient de plus en plus petite à mesure que le cercle est divisé en un plus grand nombre de secteurs. La limite de la somme des surfaces des parallélogrammes approximatifs est exactement, qui est la surface totale du disque.Le plan euclidien étant muni d'un repère orthonormé, pour une fonction numérique "f" positive et continue, l'intégrale de Riemann de "f" sur un intervalle permet d'exprimer facilement l'aire du domaine délimité par : Cette aire vaut alors I(1u.a.) où le nombre I désigne l'intégrale formula_5 N.B. Lorsque le repère cartésien n'est plus orthonormé, la mesure de la surface (l'aire) précédente sera égale à I(Mu.a.) où Mu.a désigne l'aire de la "maille élémentaire" du repère (c'est-à-dire l'aire du parallélogramme construit sur les deux vecteurs de base du repère): l'intégrale correspond donc à la quantité de "mailles élémentaires" contenues dans la surface mesurée. Cette aire peut être évaluée par des méthodes numériques en approchant l'aire sous la courbe par des surfaces usuelles : rectangles ou trapèzes notamment. Dans certains cas, un calcul de limite permet de déterminer la valeur exacte de l'intégrale, par un raisonnement semblable à celui utilisé ci-dessus pour le disque. Un raisonnement mêlant des considérations sur les aires et du calcul différentiel permet de prouver que où "F" est une primitive de "f" sur. Ainsi, la connaissance de primitives d'une fonction permet d'élargir l'ensemble des aires calculables par « découpage » vues précédemment. Ainsi les raisonnements sur les aires et le calcul différentiel se nourrissent et s'enrichissent mutuellement. Les calculs d'aire ont de ce fait un retentissement sur de nombreux domaines des mathématiques, par le biais des intégrales, notamment les probabilités ou les statistiques par le calcul de la valeur moyenne d'une fonction.Si le calcul d'aires permet d'améliorer la connaissance de probabilités via les intégrales, la réciproque est également vraie. Soit une surface "S", dont l'aire est connue, qui en contient une autre, "L" d'aire inconnue. La méthode de Monte-Carlo consiste à envoyer des points au hasard dans "S". On dénombre alors le nombre total "n" de points et le nombre "n" qui se sont trouvés, par hasard, dans "L". Il est alors probable que le rapport des aires de "L" et "S" soit proche du rapport de "n" sur "n". La marge d'erreur sera statistiquement d'autant plus faible que le nombre de points "n" sera grand.Un problème d'aire a traversé les siècles, depuis au moins Anaxagore () jusqu'à 1882, lorsque Ferdinand von Lindemann prouve que π est un nombre transcendant : celui de la quadrature du cercle qui consiste à construire, à la règle et au compas, un carré d'aire égale à celle d'un disque donné.Le périmètre est, avec l'aire, l'une des deux mesures principales des figures géométriques planes. Malgré le fait qu'elles ne s'expriment pas dans la même unité, il est fréquent de confondre ces deux notions ou de croire que, plus l'une est grande, plus l'autre l'est aussi. En effet l'agrandissement (ou la réduction) d'une figure géométrique fait croître (ou décroître) simultanément son aire et son périmètre. Par exemple, si un terrain est représenté sur une carte à l'échelle 1:, le périmètre réel du terrain peut être calculé en multipliant le périmètre de la représentation par et l'aire en multipliant celle de la représentation par. Il n'existe cependant aucun lien direct entre l'aire et le périmètre d'une figure quelconque. Par exemple, un rectangle possédant une aire égale à un mètre carré peut avoir comme dimensions, en mètres : 0,5 et 2 (donc un périmètre égal à ) mais aussi 0,001 et 1000 (donc un périmètre de plus de ). Proclus () rapporte que des paysans grecs se sont partagé « équitablement » des champs suivant leurs périmètres, mais avec des aires différentes. Or, la production d'un champ est proportionnelle à l'aire, non au périmètre : certains paysans naïfs ont pu obtenir des champs avec de longs périmètres, mais une aire (et donc une récolte) médiocre.L'isopérimétrie traite, en particulier, la question de trouver la surface la plus vaste possible, pour un périmètre donné. La réponse est intuitive, c'est le disque. Ceci explique pourquoi, notamment, les yeux à la surface d'un bouillon ont une forme circulaire. Ce problème, d'apparence anodin, fait appel à des théories sophistiquées pour obtenir une démonstration rigoureuse. On simplifie parfois le problème isopérimétrique en limitant les surfaces autorisées. Par exemple on cherche le quadrilatère ou le triangle d'aire la plus vaste possible, toujours pour un périmètre donné. Les solutions respectives sont le carré et le triangle équilatéral. De manière générale, le polygone à "n" sommets ayant la plus grande surface, à périmètre donné, est celui qui se rapproche le plus du cercle, c'est le polygone régulier. L'isopérimétrie ne se limite pas à ces questions. On recherche aussi une zone d'aire la plus vaste possible pour un périmètre donné, avec des géométries différentes. Par exemple, dans le cas d'un demi-plan, la réponse est le demi-disque. Ce concept donne naissance à une famille de théorèmes, dit isopérimétriques, à des majorations dites "inégalités isopérimétriques", ainsi qu'à un rapport, appelé "quotient isopérimétrique". L'inégalité isopérimétrique indique qu'une surface de périmètre "p" et d'aire "a" vérifie la majoration suivante : Le terme de gauche, est appelé quotient isopérimétrique, il est égal à 1 si, et seulement si la surface est un disque. Si l'origine de cette question date d'au moins, ce n'est qu'en 1895, à l'aide de méthodes dérivées du théorème de Minkowski que la question est définitivement résolue sous sa forme antique. Ces méthodes permettent de démontrer le théorème isopérimétrique et de le généraliser à des dimensions supérieures dans le cas d'une géométrie euclidienne. Le problème d'isopérimétrie dans l'espace à trois dimensions consiste à chercher, le plus grand volume contenu dans une surface d'aire donnée. La réponse est la sphère, ce qui entraîne notamment la forme des bulles de savon. Voir l'article isopérimétrie pour les aspects élémentaires de cette question. Des éléments de réponse, faisant usage d'outils mathématiques plus sophistiqués, sont proposés dans l'article Théorème isopérimétrique. Une surface minimale est une surface de l'espace à trois dimensions qui, sous certaines contraintes, minimise l'aire au voisinage de chacun de ses points. Cela signifie qu'une petite variation de cette surface rend l'aire plus grande. Pour un ensemble donné de contraintes, il peut exister plusieurs surfaces minimales. Les surfaces minimales sont spontanément prises par un film de savon qui s'appuie sur un cadre car de telles surfaces minimisent également les forces exercées sur le film. La recherche de telles surfaces est appelée en mathématiques "problème de Plateau", elle nécessite des raisonnements de calcul différentiel.A contrario, le problème d'obtenir, pour un volume donné, la figure avec la plus grande superficie possible se pose. Une solution mathématiquement simple existe : une surface sans épaisseur possède un volume nul. De telles formes se trouvent dans la nature : une feuille de plante verte est généralement très peu épaisse mais large, afin d'exposer la plus grande surface possible au soleil, pour favoriser la photosynthèse. Mais une grande surface du limbe foliaire de la feuille favorise également la transpiration, les plantes devant lutter contre des périodes de sécheresse (pins, cactus...) ont ainsi souvent des feuilles plus épaisses afin de diminuer leur superficie et donc lutter contre le dessèchement. Une autre stratégie possible consiste à prendre une solide et à le percer d'un grand nombre de trous. Par exemple, l'éponge de Menger est construite à partir d'un cube qu'on partage trois tranches égales suivant chacune des trois dimensions. Cela donne vingt-sept cubes égaux, puis on enlève les cubes centraux. On obtient alors un nouveau solide, de volume inférieur et d'aire supérieure au précédent, constitué de vingt cubes. Puis on reprend le même procédé pour chacun de ces vingt cubes, puis à nouveau pour les cubes ainsi obtenus, etc. En répétant le procédé indéfiniment, on obtient un objet fractal qui possède une aire infinie et un volume égal à zéro, tout en ayant des dimensions (longueur, largeur, profondeur) égales à celles du cube de départ. Des formes très découpées comme l'éponge de Menger se trouvent dans la nature, lorsqu'il s'agit de favoriser les échanges entre deux milieux : par exemple les poumons de mammifères (afin de maximiser les échanges gazeux dans un volume réduit), les branchies, intestins... La surface spécifique d'un matériau est sa superficie par unité de masse : plus la surface spécifique est grande, plus l'objet peut échanger avec son environnement, plus il est poreux. La surface spécifique est notamment une caractéristique physique importante d'un sol, qui détermine sa capacité à retenir des éléments nutritifs et à les échanger avec des plantes.Selon Hérodote, la géométrie dans l'Égypte antique prend son origine dans la nécessité de répartir équitablement les surfaces des champs cultivés après les crues du Nil. Les Égyptiens connaissaient les formules usuelles de calcul des aires des polygones et la majorité des problèmes de géométrie conservés de cette époque concernent des problèmes d'aires. À Babylone, l'aire "A" était calculée à partir du périmètre "P" d'un cercle suivant une procédure équivalente à la formule : Même lorsqu'ils connaissaient le diamètre d'un cercle, les scribes passaient toujours par le calcul de son périmètre (en multipliant le diamètre par 3) pour ensuite obtenir son aire. La procédure était la suivante, comme dans cet exemple, extrait de la résolution d'un problème où il est demandé de déterminer le volume d'une bûche cylindrique dont le diamètre était : En Égypte, le calcul s'effectuait à partir du diamètre "D" : Le raisonnement consistait probablement à inscrire un octogone et un cercle dans un carré. La figure ci-contre illustre ce raisonnement : si le carré a pour côté le diamètre "D" du disque, l'octogone construit sur le tiers du côté du carré possède une aire de L'aire du disque est considérée comme légèrement supérieure à celle de l'octogone, soitAl-Khwârizmî, dans son "Abrégé du calcul par la restauration et la comparaison", analyse et résout les équations du second degré par des considérations géométriques sur des aires de carrés, poursuivant en cela la tradition de l'algèbre géométrique remontant à l'Antiquité.La superficie d'un espace au sol ou d'une surface physique plane ou gauche est sa mesure physique exprimée avec une unité de mesure. L'unité correspondante du Système international est le mètre carré ou l'un de ses multiples ou sous-multiples, comme les ares ou hectares. Cette mesure est parfois désignée par le terme « surface » lui-même, qui partage la même étymologie. Les calculs de superficie liés à la notion de rendement agricole et à l'imposition fiscale ont motivé la notion d'aire en géométrie. La modélisation d'un terrain par une surface géométrique simple permet une évaluation efficace de sa superficie. La superficie des entités administratives (par exemple en France, celle d'une commune, d'un département...) peut prendre plusieurs valeurs différentes selon qu'elle est mesurée en se limitant aux terres émergées ou en prenant en compte les surfaces en eau.
En mathématiques, l'aire est une grandeur relative à certaines figures du plan ou des surfaces en géométrie dans l'espace. Le développement de cette notion mathématique est lié à la rationalisation du calcul de grandeur de surfaces agricoles, par des techniques d'arpentage. Cette évaluation assortie d'une unité de mesure est aujourd'hui plutôt appelée superficie.
xwikis
Les fondements de la mécanique, en tant que science et au sens moderne du terme, sont posés par Galilée. Elle n'est alors pas dissociée des arts mécaniques, c'est-à-dire des techniques de construction des machines. En 1559, le mot désigne ainsi « la partie des mathématiques qui a pour objet la connaissance des lois du mouvement et la théorie de l'action des machines ». On désignera un peu plus tard du nom de mécanicien (attesté en 1696) la personne qui « possède la science de la mécanique et celle qui invente, calcule, construit des machines ». Ce n'est qu'au, à partir de 1840, que ce terme désigne « celui ou celle qui monte et entretient des machines », et que la distinction se fait plus nettement entre la mécanique en tant que science et la mécanique en tant que technique. Si le mot apparaît à la renaissance dans son sens moderne, cette science plonge cependant ses racines en des temps beaucoup plus anciens et son histoire est indissociable de l'astronomie.Aux origines, la mécanique, qui ne porte pas encore ce nom, regroupe les réflexions, encore d'ordre philosophique ou religieux, visant notamment à expliquer les mouvements des astres. La régularité des mouvements des objets célestes n'échappe pas aux premiers astronomes, qui conçoivent alors le ciel et ses mobiles comme une sorte de gigantesque machine.Les contributions d'Archimède à la construction d'une science mécanique, alors encore en devenir, sont absolument fondamentales. Ce sont notamment à partir de ses réflexions sur l'équilibre des corps que Galilée posera les bases de la mécanique moderne. Il ne s'agit pas encore de théorie du mouvement, mais d'une mécanique statique, c'est-à-dire d'une science visant à comprendre l'agencement des corps au repos.C'est Aristote qui posera le premier les bases d'une véritable théorie mécanique. Tous les corps de l'univers tirent selon lui l'origine de leur mouvement d'un premier moteur, les mouvements étant transmis par contact. À cela s'ajoute l'idée que les objets se meuvent pour atteindre le lieu propre qui leur est destiné, où ils trouveront l'immobilité. La théorie du mouvement d'Aristote comporte de nombreuses difficultés dont le Stagirite était bien conscient. L'une des principales portait sur le mouvement de la flèche, dont on ne comprenait pas ce par quoi elle pouvait être portée après avoir été lancée par l'archer. Les idées d'Aristote domineront cependant largement la manière de concevoir le mouvement jusqu'au début du second millénaire, en l'absence de théorie alternative véritablement plus crédible. Il faudra attendre la théorie de l'impetus.La notion d'impetus vise en particulier à répondre aux apories de la théorie d'Aristote. L'impetus est une sorte de vertu motrice qui se consomme et s'épuise à mesure qu'un corps se meut. Bien qu'intuitivement assez proche de la notion d'énergie cinétique, l'impetus en était en fait très éloigné, car elle continuait à porter l'idée de mouvement absolu (et donc l'idée d'une possible immobilité absolue). Dans cette théorie, il y a une différence de nature entre l'objet mobile, porteur d'un certain impetus, et l'objet immobile, sans impetus. Il faut attendre Galilée pour dépasser ces conceptions erronées du mouvement.Reposant sur les acquis de Galilée puis de Newton, la mécanique classique peut s'appuyer sur différents formalismes, notamment ceux de la mécanique analytique. Les notions de lagrangien ou d'hamiltonien y jouent un rôle fondamental.Au début du, et alors que la mécanique classique semble être un édifice inébranlable, deux théories viennent la remettre radicalement en cause : la mécanique quantique et la mécanique relativiste.La mécanique classique ou la mécanique newtonienne est l'étude des corps en mouvement ou des corps au repos. Le mot "statique" signifie ici équilibre, le corps ne subit aucune condition dynamique (accélération, force). On peut aussi considérer que deux conditions dynamiques dans lesquelles elles s'annulent sont appliquées sur un corps, alors ce corps est en équilibre. La statique est l'étude des conditions d'équilibre d'un point matériel où des forces d'équilibre sont appliquées. La mécanique newtonienne est une branche de la physique. Depuis les travaux d'Albert Einstein, elle est souvent qualifiée de mécanique classique. Elle est parfaitement adaptée aux questions "de tous les jours", mais connait des limites pour les cas extrêmes (par exemple pour des vitesses proches de la vitesse de la lumière, pour des objets extrêmement massifs comme les trous noirs, les interactions à l'échelle atomique et subatomique).Pour simplifier, la mécanique relativiste modifie la mécanique classique, en gérant correctement les vitesses proches de celles de la lumière (contrairement à la mécanique classique), et en interdisant les vitesses supérieures à la lumière (qui sont possibles, par théorie, dans la mécanique classique).La mécanique quantique permet d'expliquer, à l’échelle atomique et subatomique, les phénomènes non explicables par la mécanique classique, comme le rayonnement du corps noir, l'effet photo-électrique, ou l'existence des raies spectrales.Pour tout objet physique ayant une masse, toute modification de son état entraîne une dépense ou une dissipation d'énergie.L'idée du principe de moindre action est que tout changement (de direction, de vitesse) sera réalisé en transférant le moins d'énergie possible d'un système à l'autre, pour réaliser le changement en question. Autrement dit, ce changement sera celui qui transférera le moins d'énergie parmi tous les changements possibles (principe de moindre action), et ce changement ne transférera pas plus d'énergie que ce qui est strictement nécessaire (premier principe de la thermodynamique), si on néglige les pertes dues au frottements, à la conversion d'énergie (second principe de la thermodynamique).Les unités du Système international utilisées en mécanique sont principalement :
La mécanique (du grec ancien "", « l'art de construire une machine ») est une branche de la physique dont l'objet est l'étude du mouvement, des déformations ou des états d'équilibre des systèmes physiques. Cette science vise ainsi à décrire les mouvements de différentes sortes de corps, depuis les particules subatomiques avec la mécanique quantique, jusqu'aux galaxies avec la mécanique céleste.
xwikis
L'origine du nom de Silésie ("Schläsing" en silésien germanique et "Ślůnsk" en silésien slave) n'a pas encore été précisée. Il se rapporte sans doute aux Sillings, l'un des deux principaux rameaux du peuple vandale qui depuis le est installé sur un territoire correspondant à peu près à l'actuelle Silésie, faisant alors partie de l'ancienne "Germania magna" à l'ouest de la Vistule. Après les grandes invasions, au, des tribus de Slaves occidentaux arrivèrent et s'installèrent sur les rives de l'Oder. Selon d'autres interprétations, la région était une zone autochtone des Slaves depuis l'époque de la culture lusacienne présente à la fin de l'âge du bronze et au début de l'âge du fer. Le nom de la région remonte possiblement à la tribu slave des Slézanes (en polonais : "Ślężanie"), mentionnée par le Géographe bavarois vers la fin du, qui s'étaient établis en Basse-Silésie. Leur nom correspondait également à la rivière Ślęza et le mont Ślęża dans les Sudètes centrales.La région s'étend le long du cours supérieur et moyen de l'Oder. Les vastes plaines sur ses rives s'étendent jusqu'aux montagnes des Sudètes et des Beskides au sud, où elle jouxte les régions de la Bohême et de la Moravie. Au nord, la Silésie voisine avec la région de Grande-Pologne et, à l'est, avec la Petite-Pologne. À l'ouest, les rivières Bóbr et Kwisa marquent la limite medievale de la région avec celui de la Lusace. Les principaux affluents de l'Oder dans la Silésie sont la Barycz, au droit, l'Olza, la Nysa Kłodzka, la Ślęza et la Bystrzyca. En outre, les Beskides de Silésie au sud-est, un massif des Carpates occidentales, sont la source de la Vistule. Les chaînes des Sudetes le long de la frontière sud comprennent notamment les monts des Géants, dont le point culminant (1 603 m) est le sommet de la Sniejka, ainsi que les monts de la Jizera, les Góry Sowie (« monts des Hiboux »), les monts Tabulaires et les monts Śnieżnik. La métropole Wrocław, la quatrième ville de la Pologne forte d'une population de plus de 630 000 habitants, est la capitale régionale. Dès le début de l'époque moderne, les frontières politiques de la Silésie ont subi de profonds changements. Aujourd'hui, la région historique est répartie entre : Les domaines de Krosno ("Crossen"), tout au nord-ouest, étaient en 1482 déjà tombés entre les mains des margraves de Brandebourg. Dans le cadre des guerres de Silésie, en 1742, la majeure partie de la région, plus le comté de Glatz, a été conquise par la Prusse ; seule la Silésie autrichienne resta à la couronne de Bohême au sein de la monarchie de Habsbourg. Après le Congrès de Vienne, en 1815, la province de Silésie prussienne fut établie comprenant, outre les acquisitions silésiennes et Glatz, la partie nord-est de la Haute-Lusace. À la suite de la Première Guerre mondiale, l'ancienne Silésie autrichienne a été intégrée dans la Tchécoslovaquie nouvellement constituée ; une partie de la Haute-Silésie a été rattachée à la voïvodie autonome de Silésie au sein de la République de Pologne. La Silésie tchèque était rattachée au Troisième Reich de 1938 à 1945 dans le cadre de la région des Sudètes. Après la Seconde Guerre mondiale, la région fut vidée de ses habitants allemands. Elle est actuellement peuplée de Polonais et de Tchèques. L'Allemagne a gardé une petite portion de l'ancienne province de Silésie entre Hoyerswerda et Görlitz (ville principale), rattachée au "Land" de Saxe, qui reconnaît la langue sorabe locale, ce qui était déjà le cas à l'époque de la RDA.La civilisation des champs d'urnes (1000 à 1200 pour cette région) serait originaire de la région de Silésie, ainsi que de Hongrie et de Lusace. La région est occupée par les Vandales à partir du Ceux-ci, venus des rives de la Baltique sont repoussés par les Goths vers le sud et s'établissent durablement dans le bassin de la Vistule (où se fixent les tribus vandales Hasdings) jusqu'aux rives de la moyenne Oder où s'établissent les tribus des vandales Sillings qui ont peut-être donné son nom à la Silésie. Au début du, fuyant les Huns, et associés à d'autres peuples germains, les Vandales déclenchent un grand mouvement de migration vers l'ouest de l'Europe et, franchissant le gelé au cours de l'hiver 406 débordent les défenses de l'Empire romain : ce sont les Grandes invasions.La région est peu après repeuplée de tribus slaves, les Slézanes qui lui auraient aussi possiblement donné son nom; tout comme il pourrait également provenir des Élisiens ou (H)Elisi, (un peuple germano-celte associé aux Lugii desquels la ville de Legnica ("Lugidunum") tient son nom. D’après le Géographe bavarois, les Slézanes possédaient une quinzaine de "castra". Cette région a été soumise par la Grande-Moravie avant de passer sous l’autorité des souverains tchèques. Au, elle fut l'objet d'un conflit entre la dynastie tchèque des Přemyslides et la dynastie polonaise des Piast. À partir de 990, le duc Mieszko de Pologne contestait sur cette région avec Boleslav II de Bohême. Le conflit armé a duré à l'année 1137, lorsque fut signée la paix de Kłodzko par Boleslas III Bouche-Torse et Sobeslav Ier de Bohême, grâce à la médiation de l'empereur Lothaire III. Après avoir appartenu au royaume de Pologne, le duché de Silésie est né pendant l'époque du démembrement territorial. Boleslas III, meurt en 1138, partage son État entre ses quatre fils, chacun recevant un duché héréditaire. Ladislas II le Banni reçoit la Silésie avec Wrocław comme capitale. L’aîné des représentants mâles de la dynastie Piast, il devient le "princeps" (ou "senior") et à ce titre, gouverne également la Petite-Pologne à Cracovie. Ladislas est mort en exil à Altenbourg en Thuringe; ses fils n'ont pu pas revenir à la Silésie avant l'an 1163 Le duché autonome, sous le règne de Henri Ier le Barbu entre 1201 et 1238, a engagé la colonisation germanique. Son fils, Henri II le Pieux, est tué à la bataille de Legnica en 1241, alors qu’il commande la chevalerie polonaise contre les Mongols. Plus tard, la Silésie éclate en plusieurs petites principautés qui étant de plus en plus sous l'influence des rois de Bohême de la maison de Luxembourg. Finalement, en 1335, la Pologne renonça à la Silésie pour laisser la seigneurie à la couronne de Bohême et le roi Jean. En 1348, son fils Charles IV l'a mis sous la suprématie du Saint-Empire.La Silésie fut rattachée à la monarchie de Habsbourg autrichienne qui domina la Bohême dès 1526, puis à la Prusse en 1763 par le traité de Hubertsbourg qui mit fin aux guerres de Silésie. Le a vu de profondes transformations s'opérer dans la région lorsque le charbon y a été exploité en grandes quantités, avec la naissance des grandes villes de Silésie autour de la métallurgie. Après 1871, elle fit partie de l'Allemagne unifiée. En 1919 au traité de Versailles, la Silésie d'Opole ("Oppeln" en allemand), partie de la Silésie peuplée de polonophones (surtout dans les campagnes, les villes étant davantage germanisées), fut soumise à un plébiscite, qui entraîna de nombreux conflits : insurrections polonaises, interventions de corps francs allemands notamment autour de l'. Peuplée d'Allemands (en Basse-Silésie) et de Polonais (en Haute-Silésie), le plébiscite du 21 mars 1921 en Haute-Silésie donna presque 60 % des voix en faveur de l'Allemagne, selon un clivage peu propice à un découpage : les villes comme Katowice ("Kattowitz") votant pour l'Allemagne tandis que des régions bien à l'ouest, plus rurales, votèrent pour la Pologne. La région fut néanmoins scindée selon des lignes absurdes sur le plan économique. La SDN garantit pour quinze ans une protection des minorités (ce qui permit aux Juifs d'échapper à certaines persécutions durant les premières années du régime hitlérien). Cette scission créa une tension vive entre Allemands et Polonais. En septembre 1939, Adolf Hitler et l'armée nazie envahirent la région et rattachèrent au Reich non seulement l'ancienne Haute-Silésie prussienne mais aussi toute une zone, (incluant Oświęcim) jusqu'aux portes de Cracovie ainsi que l'ancienne Nouvelle-Silésie ("Reichsgau Oberschlesien"). La population polonaise (minorité) fut sujette à des discriminations (voire des expulsions) si elle ne s'inscrivait pas dans la "Deutsche Volksliste", et les Juifs furent massacrés.En janvier 1945, les Soviétiques reprirent la région de Haute-Silésie, bien connue pour son bassin houiller, quasiment intact. Plus loin, notamment à Wroclaw les Allemands résistèrent avec acharnement, menant à la destruction d'une partie de la cité. Les Allemands subirent à leur tour la discrimination, furent massacrés, emprisonnés, puis expulsés. Une grande partie de la population originaire de Haute-Silésie (déjà là en 1939) reçut néanmoins le statut d'autochtone et put rester en Silésie. En Basse-Silésie, où l'écrasante majorité de la population était allemande, la région fut complètement vidée, puis repeuplée par des Polonais. En Haute-Silésie, les maladresses du gouvernement communiste menèrent un grand nombre de polonophones (de dialecte silésien) de la région à se définir comme « Allemands » (s'ajoutait à cela une puissante incitation économique, notamment dans les années 1980, années pendant lesquelles les conditions de vie en Pologne se dégradèrent) ; cela permit à certains de faire des demandes d'émigration vers l'Allemagne. Depuis la reconnaissance de la ligne Oder-Neisse par l'Allemagne (1970 puis 1990) et l'intégration de la Pologne dans l'UE, les relations économiques se sont normalisées. Après la défaite allemande de 1945, la population allemande fut ainsi souvent chassée vers l'ouest, ou contrainte d'émigrer en RFA. Ils s'y constituèrent en associations ("Landsmannschaften"). Des mineurs d'origine allemande furent cependant gardés en Pologne pendant les années 1950 pour combler des manques de main-d'œuvre.
La Silésie (en, en, en ) est une région historique en Europe centrale qui s'étend dans le bassin de l'Oder sur trois États : la majeure partie est située dans le Sud-Ouest de la Pologne, une partie se trouve au-delà de la frontière avec la République tchèque et une petite partie en Allemagne.
xwikis
Le moyen le plus commun de mesurer une masse est de la comparer à d'autres à l'aide d'une balance. En fait une balance compare des poids, le poids étant le produit de la masse par l'accélération de la pesanteur, dans un contexte où cette accélération peut être considérée comme constante. La mesure des masses se faisant usuellement au sein d'un fluide (l'air), en toute rigueur il faut aussi tenir compte de la poussée d'Archimède, qui est proportionnelle au volume et n'est donc pas la même pour deux corps de même masse mais de densités différentes. La correction est prise en compte pour les mesures très précises. Avec l'émergence de la mécanique céleste au, il est devenu courant de mesurer les masses relatives des corps célestes. La masse n'est plus alors directement mesurée, mais calculée, à travers l'effet qu'elle exerce sur la trajectoire des autres corps. Cette masse, qui est statiquement à l'origine de la force de gravitation, est toujours une « masse pesante ». On peut de même estimer une masse par la perturbation du champ de gravité qu'elle induit. Cette mesure par gravimétrie n'est utilisable que pour les objets extrêmementLa mécanique classique a dégagé un certain nombre de propriétés de la masse : Toutefois, la physique moderne montre que ces propriétés ne sont vérifiées que dans les conditions de l'expérience courante ; mais peuvent ne plus l'être en physique quantique ou en mécanique relativiste. La masse est à laChaque culture a eu ses unités de masse, et des unités différentes étaient souvent utilisées pour des produits différents. Dans les anciennes unités de mesure françaises on peut relever les poids de marc, dont le quintal reste d'usage courant. Les unités de mesure anglo-saxonnes sont beaucoup plus variées, et la livre y reste d'usage courant. Il faut se rappeler que la livre, en France, n'avait pas la même valeur sur tout le territoire : la provençale, la parisienne ou encore la bretonne n'avaient pas tout à fait la même valeur et aujourd'hui encore, la livre tout comme le gallon n'ont pas la même valeur aux États-Unis et auOn peut aussi estimer indirectement la masse à partir du poids, c'est-à-dire que l'on mesure la force qu'exerce l'objet à peser ; le dispositif est en fait un dynamomètre. C'est le cas le plus courant des pèse-personne et des balances électroniques. Cette méthode ne donne pas le même résultat de mesure sur la Terre et sur la Lune, parce que le dynamomètre compare le poids à une force indépendante de la gravitation (celle du ressort), alors que le poids, qui est la force de gravitation s'exerçant sur un corps donné, dépend du lieu, et sera différent sur Terre et surEn sciences physiques, on peut distinguer de nombreux aspects à travers lesquels apparaît la notion de masse, ou traduisant ce concept. À ce jour, l'expérience montre que tous ces aspects conduisent à des valeurs identiques, l'ensemble construisant progressivement ce qu'est le concept abstrait de « masse » en physique.Depuis que le commerce existe, le « poids » d'un objet est ce qui permet d'apprécier une « quantité de matière », principe à la base de la vente par pesée : plus il y a de matière, et plus le prix à payer est fort ; plus le poids d'or est grand, et plus grande est sa valeur. C'est cette notion qui conduit historiquement au premier concept de « masse », en tant que grandeur essentiellement additive (en termes modernes, une grandeur extensive). Pour l'expérience quotidienne, le champ gravitationnel terrestre est une donnée constante ; et il n'y a pas de raison de distinguer entre le poids concret, accessible aux sens, et une masse abstraite qui en serait la cause. Pour la pensée scolastique, gouvernée par les enseignements d'Aristote, le poids est une qualité intrinsèque de la matière, laquelle est par nature attirée vers le bas parce que c'est son lieu de repos ; mais c'est une propriété des seuls corps lourds susceptibles de chuter : l'air n'a pas de poids et reste àAvec la physique galiléenne, au début du, l'étude de la chute des corps et les premières études de dynamique permettent de dégager ce qui deviendra la notion de « masse inerte », qui est la mesure de la résistance interne d'un objet à un changement de mouvement lorsqu'une force lui est appliqué. La révolution introduite par Galilée est celle de la "mesure" des lois du mouvement. En pratique, dans ces premières expériences, la force en question est celle de la pesanteur, ou une fraction deAvec la mécanique newtonienne, à la fin du, la logique causale ayant conduit à imaginer une « force d'inertie » est inversée : dans la loi du mouvement il n'y a pas une « force d'inertie » découlant d'une qualité d'inertie (scalaire), qui s'oppose à la variation de vitesse que tend à créer la « masse pesante » (comprise comme vectorielle). L'approche analytique du calcul différentiel traite avant tout de position, de vitesse et d'accélération, et sépare alors ces questions de toute préoccupation relative à la masse. Celle ci étant introduite, il apparaît que d'une manière générale, il est nécessaire d'appliquer une « force » pour créer une variation de vitesse en proportion de la quantité de matière, laquelle est alors mesurée par une « massePour Newton encore, la masse représente essentiellement une quantité de matière, qui est définie par le produit d'un volume (caractéristique géométrique) par une densité (propriété intrinsèque dépendant de la nature du matériau considéré). Un siècle plus tard, à la fin du, Antoine Lavoisier découvre ensuite expérimentalement la loi de conservation de la masse:. De ce fait, c'est bien la masse qui est une qualité intrinsèque et conservatoire de la matière, et non la masse volumique. Cette loi, qui se révéla approximative, confirmait la définition de la masse et permit de s'en servir comme constante dans les transformations chimiques (d'où la classification des éléments chimiques en fonction de leur masse atomique dans le tableau de Mendeleiev) et fut un élément de mesure permettant, entre autres, de mettre en évidence l'existence des atomes. La notion de « quantité de matière » s'en est progressivement dégagée pour les besoins de la chimie. L'analyse précise des masses impliquées dans les transformations chimiques conduira à la loi des proportions définies, puis à la loiEn relativité restreinte, cependant, la résistance d'un corps à une variation de vitesse devient d'autant plus grande que cette vitesse se rapproche de celle de la lumière : le principe fondamental de la dynamique reste valable sous sa forme formula_7, mais la « masse inerte » qui est définie ainsi ne peut plus être considérée comme constante ; elle ne se limite pas à la « masse au repos » de la matière, parce que l'énergie elle-même correspond à une masse inertielle, suivant le principe d'équivalence entre masse et énergie. La masse d'inertie relativiste est alors définie par rapport à la masse au repos formula_8 et la vitesseLa relativité générale posera comme principe qu'il n'est pas possible de distinguer une accélération reflétant un changement de vitesse d'une accélération gravitationnelle, ce qui revient à poser que par nature, la « masse inerte » est égale à la « masse grave ». La relativité générale dérive entre autres du principe d'équivalence qu'Einstein présente comme une « interprétation » de l'égalité de la masse inerte et de la masse grave en termes de relativité du mouvement accéléré. La courbure de l'espace-temps est une manifestation relativiste de l'existence de la masse, et l'on peut considérer que la nature phénoménologique de la masse est sa capacité à courber l'espace-temps. Dans la métrique de Schwarzschild, la présence d'une masse formula_14 se caractérise par la courbure qu'elle impose à l'espace, dont la déformation est donnée par le « rayon de Schwarzschild », ou rayon gravitationnel (formule où le facteur formula_15 est la masse linéique de Planck)La masse des particules élémentaires (leptons et quarks) est une propriété intrinsèque de ces particules (qu'elle soit due ou non au boson de Higgs). Autrement dit, les particules élémentaires ont chacune une masse bien définie. Mais si macroscopiquement, la masse est associée à la matière, dans le détail la « matière » n'est pas un concept aussi bien défini que celui de « masse ». À l'échelle subatomique, non seulement les fermions (qui sont les particules usuellement associées à la notion de « matière ») ont une masse au repos, mais une masse au repos est également associée à quelques bosons, qui sont les particules vecteurs de force etEn particulier, le boson de Higgs, qui semble avoir été découvert le par l'expérience CMS et ATLAS au CERN, est, dans la théorie du modèle standard, considéré comme responsable de l'acquisition de masse par les particules. En mécanique classique, la masse inerte apparaît dans l'équation d'Euler-Lagrange comme un paramètre "m" : En remplaçant le vecteur "x" par une fonction d'onde pour quantifier cette relation, ce paramètre "m" apparaît dans l'opérateur d'énergie cinétique : Dans la forme covariante (invariante par transformation relativiste) de l'équation de Dirac, et en unités naturelles, l'équation devient : Bref, la masse "m" apparaît à présent comme une constante associée au quantum que décrit la fonction d'onde ψ associée à la particule. Dans le modèle standard de la physique des particules élaboré à partir des années 1960, il a été proposé que ce terme constant pouvait provenir du couplage entre le champ ψ et un champ additionnel Φ, le Champ de Higgs électrofaible. Dans le cas de fermions, le mécanisme de Higgs (et al.) conduitLa masse d'un corps physique renvoie donc à deux natures phénoménologiques distinctes. La masse grave (du latin "gravis", lourd) est une propriété de la matière qui se manifeste par l'attraction universelle des corps, et au quotidien, par leur poids. Concrètement, en présence d'un même champ de gravité extérieur (celui de la Terre par exemple), la masse de 20 kg subira une force (le poids) deux fois plus grande que la masse de 10 kg ; par ailleurs, une masse de 20 kg crée autour d'elle un champ de gravité deux fois plus intense qu'une masse de 10 kg. La masse grave (gravifique, gravitationnelle) d'un corps est définie par Isaac Newton comme une mesure de la quantité de matière de ce corps, c'est la grandeur physique intervenant dans le calcul de la force de gravitation créée ou subieIl n'y a aucune raison fondamentale imposant que masse inerte et masse grave soient identiques, ce n'est qu'un fait empirique. À part le fait d'être toutes les deux proportionnelles à la quantité de matière (proportionnalité approximative comme cela a été montré à partir du début du ), la masse grave et la masse inerte semblent "a priori" n'avoir aucun lien entre elles, et constituer deux propriétés de la matière tout à fait indépendantes l'une de l'autre. Mais inversement, et bien que les deux soient conceptuellement distinctes, aucune expérience n'a jamais pu mettre en évidence une quelconque différence entre les deux. Le fait de désigner ces deux manifestations sous le même terme de « masse » présuppose qu'il s'agit de la même grandeur physique, ce qui est effectivement la conception usuelle, mais obscurcit le caractère extraordinaire de cette proportionnalité. Pour mieux toucher du doigt cette différence, on peut discuter de deux qualités scalaires conservatoires et extensives de laL'équivalence entre masse inerte et masse grave est parfois appelé le « principe d'équivalence galiléen », ou encore la version faible du principe d'équivalence. La conséquence la plus directe de ce principe se rencontre en effet dans la loi de la chute libre, dont l'étude par Galilée l'avait conduit à dégager la notion d'inertie, étude à l'occasion de laquelle il avait pu constater que la loi de la chute était indépendante de la masse des corps "et de leur nature". En termes modernes, si une masse pesante formula_39 est placée dans un champ gravitationnel formula_40, elle subit une forceCe fait d'expérience constitue le principe d'équivalence entre masse inerte et masse grave. Albert Einstein l'admit tel quel, et en donna une interprétation en termes de relativité du mouvement. Ce fut une avancée fondamentale vers la formulation des lois de la relativité générale. Albert Einstein développa la relativité générale en partant du principe que laMême si masse inerte et masse grave sont expérimentalement égales, il est parfois utile, dans des problèmes d'analyse dimensionnelle, de faire comme si ces deux quantités pouvaient varier indépendamment et correspondaient donc à des dimensions différentes. Comme signalé par ailleurs, la constante de gravitation "G" peut être vue comme un facteur d'échelle entre masse inertielle et masse grave ; on peut chercher comment un problème varie en fonction du rapport entre les forces deDans l'histoire du concept de masse inerte, le chapitre le plus important est celui de la reformulation due à Ernst Mach, qui visait à éliminer de la définition les éléments qu'il qualifiait de « métaphysique » pour ne plus reposer que sur des phénomènes observables. En effet, dans la mécanique newtonienne, la force est définie par le produit de l'accélération et de la masse inerte, mais cette dernière n'est elle-même définie qu'à travers la force. La reformulation claire qu'il en donna est une définition considérée à présent comme « classique ». C'est à partir de cette définition que Albert Einstein a tenté de définir la masse dans sa théorie de la relativité générale, mais à son grand regret, l'approche de Mach ne peut pas se transposer en mécanique relativiste. L'approche de Mach est fondée sur le principe d'action et réaction, en appliquant le principe de proportionnalité entre accélérations pour définir le rapport entre masses sans avoir à passer par les forces en présence. Considérons un système isolé, constitué de deux corps (ponctuels) indicés « 1 » et « 2 », qui interagissent l'un sur l'autre. Quelle que soit la force agissant entre les deux corps, on peut observer expérimentalement que les accélérations subies par les deux corps sont toujours proportionnelles et dans un rapport constant de l'un à l'autre : Le point important est que ce rapportQue ce soit la « masse inerte » ou la « masse pesante », la masse est une grandeur physique qui apparaît toujours positive dans l'expérience courante. Cet état de fait empirique n'exclut pas que l'on puisse rencontrer un jour une masse négative, et n'interdit donc pas d'en explorer les propriétés sur le plan de la physique théorique, à défaut de pouvoir faire de la physique expérimentale. Des scientifiques se sont penchés sur la question car rien n'impose "a priori" que toute masse devrait être positive. En envisageant le concept de masse négative, il est important de considérer lequel des concepts de masse est négatif. En physique théorique, une masse pesante négative est un concept hypothétique postulant l'existence de masse de « charge » négative, tout comme il existe des charges électriques positives et négatives. Comme rappelé ci-dessus, il n'y a pas de raison impérative, sur le plan théorique, pour que la masse inerte et la masse pesante soient systématiquement égales ; et la masse pesante peut être vue comme une « charge grave » gouvernant le mouvement de la matière dans un champ gravitationnel, de même qu'une « charge électrique » gouverne le mouvement de la matière dans un champ électrique. Dans ce cadre, et à partir du moment oùL'idée initiale de tachyon dérive directement de l'équation donnant la masse relativiste : si une particule dépasse la vitesse de la lumière, son terme en formula_71 devient un nombre imaginaire pur. Et, « par conséquent », une particule se déplaçant plus rapidement que la vitesse de la lumière « doit » avoir une masse imaginaire pure, le quotient des deux permettant de retrouver les lois usuelles sur l'énergie. Une telle approche littérale, cependant, n'a jamais été prise au sérieux, que ce soit en mécanique relativiste ou en mécanique quantique. En mécanique quantique, on définit effectivement un champ tachyonique (ou plus simplement, un tachyon) comme un champ quantique associé à une masse imaginaire. De fait, et bien que des tachyons (en tant que particules
En physique, la masse est une grandeur physique positive intrinsèque d'un corps. En physique newtonienne, c'est une grandeur extensive, c'est-à-dire que la masse d'un corps formé de parties est la somme des masses de ces parties. Elle est conservative, c'est-à-dire qu'elle reste constante pour un système isolé n'échangeant pas de matière avec son environnement. Dans le cadre du modèle standard de la physique des particules, la masse des particules résulte de leur interaction avec le champ de Higgs.
xwikis
Mikael Agricola nait "Michael Olaui" ou "Mikkel Olofsson "(en ) vers 1510 dans l'ancienne municipalité de Pernå en Uusimaa, à l'époque en Suède, actuellement en Finlande. Il est le fils d'Olavi ou Olof et le prénom de sa mère n'est pas connu. Son père, paysan, meurt au début des années 1541 tandis que sa mère meurt vers 1550. Il est nommé en référence au saint patron de l'église de Pernå. La date exacte de sa naissance, comme la plupart des détails de sa vie, est inconnue. Sa famille était une famille paysanne assez riche selon la comptabilité du bailli local. Il avait trois sœurs. Ses professeurs ont apparemment décelé son aptitude pour les langues et son recteur Bartholomeus l'envoie à Vyborg pour étudier à l'école latine mais aussi pour une formation sacerdotale, à l'école d'Érasme. On ne sait pas si sa première langue était le finnois ou le suédois. Pernå était principalement un district de langue suédoise, mais la langue qu'il a utilisée dans ses travaux indique qu'il était un locuteur natif de la langue finnoise. Cependant, il maîtrisait les deux langues et était peut-être un enfant bilingue.Quand Mikael Agricola fait ses études à Vyborg, il prend le nom de famille "Agricola" (qui signifie en ). Les noms de famille, basés sur le statut et l'activité du père étaient communs pour les érudits de la première génération, à l'époque. C'est probablement à Vyborg qu'il entre pour la première fois en contact avec la Réforme et l'Humanisme. Le château de Vyborg était dirigé par un comte allemand,, qui avait servi le roi de Suède, Gustave Vasa. Le comte était un partisan de la Réforme et il organisait déjà des cérémonies luthériennes. En 1528, Mikael Agricola suit son professeur à Turku, qui est alors au centre du côté finlandais dans le royaume suédois et la capitale de l' évêché. Là, Agricola devient scribe dans le bureau de l'évêque "Martinus Skytte". Tandis qu'il est à Turku, il rencontre le premier étudiant finlandais de Martin Luther : il s'agit de, qui diffuse avec empressement, les idées de la Réforme. Särkilahti meurt en 1529 et il appartient à Mikael Agricola de poursuivre le travail de Särkilahti. Il est ordonné prêtre, vers 1531. En 1536, l'évêque de Turku envoie Mikael Agricola étudier à Wittenberg en Allemagne. Il se concentre sur les conférences de Philippe Mélanchthon, qui est un expert en grec, la langue originale du Nouveau Testament. À Wittenberg, Mikael Agricola, sous la direction de Luther. Agricola est recommandé au roi suédois Gustav Vasa de la part des deux réformistes. Il envoie deux lettres à Gustav, demandant une confirmation de bourse. Lorsque la confirmation arrive, Agricola s'achète des livres, comme les œuvres complètes d'Aristote. Il essaie de lire et de comprendre un document plus important, le texte original du Nouveau Testament, imprimé pour la première fois par Erasmus en 1516. À partir de 1537, il commence à traduire le Nouveau Testament, en finnois.Agricola est consacré évêque d'Åbo en 1554 sans l'approbation du pape. En conséquence, il commence une réforme de l'Église finlandaise suivant la pensée luthérienne. Il traduit le Nouveau Testament (le Se Wsi Testamenti), le livre des prières, l'hymne et la messe en finnois et par le biais de ce travail fixe les règles de l'orthographe qui sont à la base de l'écriture moderne du finnois. La profondeur de ce travail est particulièrement remarquable, puisqu'il l'accomplit en seulement trois ans. Il meurt le à Nykyrka.
Mikael Agricola (né vers 1510 à Pernaja – mort le à Uusikirkko) est un pasteur finlandais qui devient évêque. Linguiste, théologien, humaniste, il est également un érudit dans de nombreux domaines telles les sciences de la nature, le droit et la médecine. Réformateur dans la province suédoise de Finlande, il souligne l'importance de la Bible. Écrivain et traducteur, il est l'auteur de la version finnoise du Nouveau Testament.
xwikis
La mesure des longueurs remonte probablement aux premiers temps du Néolithique et de la sédentarisation associée : si une civilisation de chasseurs-cueilleurs peut se contenter d'estimer ses trajets en journée de marche (donc, par une unité de temps), la mesure de longueur devient nécessaire dès qu'il s'agit d'estimer géométriquement des droits sur des champs, ou de discuter le prix de vente d'une étoffe. Les premières mesures de longueur dont on trouve des traces historiques sont liées à l'homme, « mesure de toute chose » : la coudée pour des mesures de longueur (notamment des étoffes), la perche de dix pieds pour les mesures d'arpentage, le millier de double pas (mille romain) pour les mesures de distance. Ces unités de base varient évidemment d'une personne à l'autre, ou d'une population à l'autre, et étaient éminemment variables dans le temps et dans l'espace, quoique représentant "en gros" les mêmes quantités : le double pas d'un individu étant à peu près la valeur de sa taille, le mille romain de suppose que le soldat romain mesure à peine... Par ailleurs, ces unités de base pouvaient admettre des multiples ou sous-multiples suivant des valeurs plus ou moins conventionnelles : un pouce est le douzième d'un pied et est le quart d'un palme de main, etc.La notion fondamentale est celle de distance entre deux points, qui peut être mesurée directement par une règle ou une chaîne d'arpenteur. L'étape suivante dans l'abstraction consiste à estimer la longueur d'une ligne courbe, ce qui se fait en imposant à une corde flexible mais inextensible les tours et détours de cette courbe, puis en mesurant la longueur de cette corde une fois tendue en un segment droit : c'est ainsi que l'on mesure un tour de tête. Pour l'arpenteur géomètre, la longueur d'un chemin prend la forme d'une somme de longueurs élémentaires, chaque tronçon de chemin étant suffisamment peu courbe pour pouvoir être assimilé à un petit segment de droite. Si la courbure du chemin devient trop importante, il suffit de prendre des segments plus petits pour retrouver une approximation satisfaisante. C'est cette pratique qui est à la base de la rectification des courbes théoriques (cercles, ellipses, etc.), visant non plus à mesurer mais cette fois à "calculer" la longueur d'un arc, d'une courbe dite en conséquence courbe rectifiable, sous forme d'une limite de la somme d'une infinité de segments infiniment petits. Dès l'époque d'Archimède, les grecs savent calculer avec une bonne approximation le périmètre d'un cercle, par la méthode des polygones inscrits ou exinscrits. Le développement de la géométrie analytique a permis d'étendre cette approche à des courbes de plus en plus complexes.En géométrie et physique classique, la notion de longueur est comprise comme quelque chose d'intrinsèque à l'espace, et indépendant de l'observateur. Même si les géométries non euclidiennes étaient connues depuis le début du, personne n'était allé s'imaginer que l'espace physique pouvait être autre chose que l'espace euclidien avant la fin du. C'est avec la relativité restreinte que la physique découvrit que la mesure d'une distance entre deux points ou de la longueur d'un objet dépendait en réalité de l'observateur, et n'était donc pas une mesure intrinsèque. Cependant, même en relativité générale, on considère que l'espace entourant un observateur lui apparaît comme "localement" euclidien. Mais même ce cadre familier est remis en cause par la mécanique quantique, où l'on voit que pour des distances de l'ordre de la longueur de Planck, la mesure d'une distance cesse d'avoir un sens physique, et les dimensions de temps et d'espace ne peuvent même plus être facilement distinguées dans ce qui apparaît alors comme une espèce de mousse quantique indifférenciée.Par abus de langage, on qualifie également de « longueur » la grandeur physique qui traduit d'une manière générale l'extension spatiale de quelque chose, la grandeur suivant une dimension d'espace. L'extension spatiale peut cependant recouvrir des cas assez différents, qui ne sont pas tous désignés par le terme de « longueur » : Sur ces deux derniers points, la dérivée par rapport au temps sera qualifiée de vitesse. Sur les deux premiers, on parlera plutôt de croissance.Le terme de « longueur » est plutôt réservé à la mesure géométrique d'un objet, d'une distance ou d'un chemin. Une telle longueur est alors un scalaire extensif (la longueur hors tout d'un train est la somme des longueurs de ses composants). Par définition, une longueur est une grandeur additive : la longueur d'un chemin est la somme des longueurs de ses parties. C'est de plus une grandeur toujours positive. Un « déplacement» est en revanche une grandeur vectorielle (caractérisée par une direction et une norme) et intensive (elle est définie en chaque point, et ne peut pas être additionnée d'un point sur l'autre). Le long d'une courbe, le déplacement élémentaire formula_1 est une grandeur intensive dont l'intégrale sur l'ensemble du segment peut conduire : Dans les deux cas, l'intégrale est donc une grandeur extensive (scalaire ou vectorielle). Mais il est clair que par exemple, sur une courbe fermée, la « longueur » peut mesurer le périmètre d'un corps, alors même que le « déplacement » sera nécessairement nul entre le point de départ et le point d'arrivée.En géométrie analytique, certaines courbes peuvent être définie par une équation. On peut alors calculer la longueur d'un arc par le calcul d'une intégrale. La longueur est la mesure physique d'une distance. Dans le cas général, la longueur d'une trajectoire entre un point "O" et un point "T" est l'intégrale curviligne du vecteur déplacement élémentaire d'un point cheminant le long de cette trajectoire entre les deux points. Si le point "P" a pour coordonnées formula_4 dans un repère orthonormé, la longueur de sa trajectoire sera : Il est possible de reparamétrer la courbe parcourue par le point "P" en fonction de la longueur formula_6 parcourue : Avec ce paramétrage, la dérivée partielle de la position du point par rapport à son abscisse curviligne est un vecteur normé, tangent à la courbe, et la longueur de la trajectoire est directement donnée par l'intégrale curviligne :L'unité internationale pour la mesure de la longueur est le mètre (en abrégé : m). Dans le Système international d'unités, on peut aussi l'exprimer : Il existe des unités de longueur en dehors du Système international, en particulier le pouce, le pied et le mille.En géométrie, on cherche fréquemment à calculer la longueur de courbes. Cela permet par exemple de déterminer les dimensions d'un objet à partir du plan, pour permettre sa construction. Par exemple, pour construire un réservoir cylindrique, il faut connaître la longueur de tôle que l'on va rouler pour former la virole (le corps central).La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur est celle de l’objet complètement développé. La longueur d'un objet est perpendiculaire à sa largeur. Pour mémoire, le symbole de la "largeur" est « l » (lettre « l » minuscule) ; mais cette notion n'a pas de réalité mathématique distincte. La longueur d'un objet permet d’apprécier sa taille. La longueur est une dimension spatiale, qui peut être mesurée à l'aide d'unités, telles que celles identifiées par le Système international d'unités : le mètre et ses multiples ou sous-multiples. La longueur d’un objet physique n’est pas une propriété intrinsèque ; celle-ci peut dépendre de la température, de la pression, de la vitesse, etc.Mesurons une page de papier avec une règle formée de 3 décimètres gradués en millimètres (mm) ; la page a pour largeur et pour longueur. On note en résumé : et Il est impossible de mesurer l'épaisseur de la feuille avec la même règle. Par contre, on peut mesurer l'épaisseur d'une pile de 500 feuilles (une rame) et constater que 500 × l'épaisseur =. On peut en déduire que l'épaisseur d'une feuille est un dixième de millimètre.Pour les petites longueur — entre et —, on utilise des instruments tels que le pied à coulisse ou le micromètre « Palmer ». En deçà du micromètre — nanomètre (nm), picomètre (pm), femtomètre (fm) —, on ne peut plus utiliser la vue pour mesurer un objet (problème de diffraction, la longueur d'onde de la lumière visible étant de l'ordre de ). Il faut alors utiliser d'autres rayonnements, comme un faisceau d'électrons. On parle plutôt de « distance » entre deux points, pour désigner la mesure de la longueur du segment de droite séparant ces deux points. La « distance » entre deux points pas trop proches ni trop éloignés — entre et quelques m — se mesure avec une règle droite (une toise) qui peut être graduée. Pour mesurer un objet, on fait correspondre les deux extrémités de l'objet avec des points de la règle. Bien sûr il faut que l'objet et la règle soient rigides, indéformables. On peut également utiliser une corde ou un ruban gradué (mètre ruban), ce qui permet d'avoir un instrument facile à ranger et à transporter ; il faut alors s'assurer que le ruban est bien tendu pour la mesure, et son élasticité ne doit pas être trop importante. Pour les grandes distances — entre et quelques km —, on utilise des phénomènes optiques, comme la différence de parallaxe ou bien l'échelle créée par l'éloignement pour un télémètre stadimétrique, ou bien encore la trigonométrie, avec la technique de triangulation. On utilise également des phénomènes ondulatoires, typiquement la durée d'aller-retour d'une onde : onde sonore pour un sonar, onde lumineuse pour un télémètre laser, onde radio pour un radar. En sismologie, on utilise la différence de vitesse de propagation des onde P et S pour déterminer la distance de l'hypocentre d'un séisme.La mesure des distances en astronomie se fait par la mesure du temps que met la lumière ou plus généralement les ondes électromagnétiques pour parcourir la ligne droite qui sépare deux objets, ou bien le phénomène du décalage vers le rouge. On utilise des unités telles que :La longueur peut dans certaines situations, représenter une durée, comme dans la longueur des jours, ou dans l’expression « à longueur de journée » qui signifie pendant toute la journée ou encore dans « traîner en longueur » qui veut dire durer trop longtemps. En informatique, la longueur d’un mot écrit dans un alphabet quelconque correspond au nombre de lettres qui composent le mot. De même, la longueur d’une chaîne de caractères correspond au nombre de caractères qui constituent la chaîne.
En géométrie, la longueur est la mesure d'une courbe dans un espace sur lequel est définie une notion de distance. La longueur est une mesure linéaire sur une seule dimension, par opposition à la surface qui est une mesure sur deux dimensions, et au volume dont la mesure porte sur trois dimensions. La longueur d'une courbe ne doit pas être confondue avec la distance entre deux points, laquelle est généralement plus petite que la longueur d'une courbe les reliant, la distance la plus courte étant celle mesurée suivant une ligne droite.
xwikis
Les calculs de volume ont évolué au cours de l'histoire en suivant les progrès du calcul infinitésimal. C'est ainsi que les premiers volumes ont été calculés grâce à la méthode d'exhaustion, puis en utilisant le principe de Cavalieri et pour finir en calculant des intégrales triples. Pour les solides simples (parallélépipède et objets de révolution), il existe des formules mathématiques permettant de déterminer leur volume d'après leurs dimensions caractéristiques.Le volume est une grandeur additive : le volume d'un système physique est la somme des volumes de ses parties. Ce n'est en revanche pas une grandeur algébrique : physiquement, il n'existe pas de « volume négatif » (dont serait fait le sac de voyage de Mary Poppins) dont la superposition avec un système physique de volume positif donnerait un système composé de volume globalement nul, ou du moins réduit : tous les volumes sont de même signe, et par convention, sont comptés positivement. C'est pour cette raison que dans la formule du produit mixte, le résultat est pris en valeur absolue. L'interprétation physique du produit mixte est qu'un volume physique est le produit scalaire d'une surface par un déplacement : Le déplacement est un vecteur, mais la surface orientée est un pseudovecteur, si bien que le volume ainsi défini est théoriquement une grandeur qui change de signe lorsqu'on fait subir au système une isométrie indirecte (symétrie miroir par exemple). De fait, si par exemple le volume d'une sphère est, une inversion polaire changera effectivement en et conduira logiquement à un volume négatif. Sur le plan de l'équation aux dimensions, et en tenant compte de la grandeur d'orientation, le déplacement est un vecteur de dimension et la surface un pseudovecteur de dimension, le produit des deux est un pseudoscalaire de dimension, c'est-à-dire qu'il a le même caractère qu'un flux. La physique reste effectivement inchangée si tous les volumes sont comptés négativement, mais en pratique les volumes physiques sont comptés positivement, ce qui revient à multiplier le volume au sens précédent par le symbole de Levi-Civita (lui-même en ). Le volume d'un corps physique est alors un scalaire vrai, à cause de la convention d'orientation. De même, alors qu'un élément de surface est normalement un pseudovecteur en, la convention d'orientation qui veut que son orientation sur une surface fermée soit dirigée vers l'extérieur revient à le multiplier par la convention d'orientation en, ce qui en fait alors un vecteur vrai en. L'utilisation de cette convention d'orientation peut être problématique dans l'analyse dimensionnelle, parce qu'elle correspond à une grandeur par ailleurs généralement invisible dans les données du problème.Un domaine de dimension 3 peut généralement être décrit par trois paramètres indépendants, et. Pour tout point appartenant à ce domaine, le vecteur position formula_4 (où désigne une origine fixe quelconque) a pour différentielle : Une variation élémentaire des trois paramètres forme l'élément de volume (ou volume élémentaire) (ou simplement si l'on n'a pas besoin de rappeler que trois variables varient indépendamment), défini par : Le module d'un vecteur position s'exprimant en mètres (m), un élément de volume s'exprime en mètres cubes (m). Le signe de est positif si les vecteurs formula_7, formula_8 et formula_9, pris dans cet ordre, forment un trièdre direct, et négatif s'ils forment un trièdre inverse.En coordonnées cartésiennes orthonormées, le point courant est repéré par, et, de telle sorte que : où formula_11, formula_12 et formula_13 sont les vecteurs unitaires, fixes, de trois axes orthogonaux (et, pris dans cet ordre, forment un trièdre direct). On a alors : On en déduit aisément que :En coordonnées cylindriques, le point courant est repéré par, et, de telle sorte que : où formula_13 est le vecteur unitaire de l'axe d'un repère orthonormé, tandis que formula_18, vecteur unitaire, a pour coordonnées cartésiennes, et. On a alors : où formula_22 est le vecteur unitaire de coordonnées cartésiennes, et. Les vecteurs formula_18, formula_22 et formula_13 sont unitaires et orthogonaux deux à deux (et, pris dans cet ordre, forment un trièdre direct). On en déduit aisément que :En coordonnées sphériques, le point courant est repéré par, et, de telle sorte que : où formula_28, vecteur unitaire, a pour coordonnées cartésiennes, et. On a alors : où formula_30 est le vecteur unitaire de coordonnées cartésiennes, et, et formula_22 celui de coordonnées, et. Les vecteurs formula_32, formula_30 et formula_22 sont unitaires et orthogonaux deux à deux (et, pris dans cet ordre, forment un trièdre direct). On en déduit aisément que :L'unité de volume du Système international est le mètre cube (m) et ses dérivés (dm, cm, mm). Mais d'autres unités de volume persistent surtout dans les pays anglo-saxons (voir Conversion des unités). Les volumes de matière liquide ont souvent leurs unités propres (litre, pinte, baril). La mise en place du système métrique a grandement simplifié le nombre d'unités de volume utilisées qui dans l'Ancien Régime en comptait plus de vingt (voir Unités de mesure de l'Ancien Régime). Pour les gaz où l'on veut connaître la quantité de matière (nombre de molécules) contenue dans un volume donné quelles que soient la pression et la température, deux définitions de correction existent : Les volumes décrits ci-dessus correspondent à des volumes dits corrigés. Le volume qui ne tient pas compte de ces corrections est dit brut. On rencontre ces volumes dans l'élaboration des débits et du pouvoir calorifique des gaz. Dans l'Union européenne, de nombreux volumes (et masses), sur les produits de consommation, sont indiqués en quantité estimée. Ils sont marqués comme tel, d'un « e » minuscule. En mathématiques, l'unité de volume n'apparaît pas dans les formules. Elle est implicitement donnée par le volume du "cube unité". Si, par exemple, pour des questions d'échelle, le "cube unité" a pour arête, un volume de "X" "cubes unité" correspond à.Dans la suite on notera :Ce sont les cinq seuls polyèdres réguliers convexes. Leurs volumes respectifs sont donnés par les formules suivantes :La formule générale est toujours : (volume = aire de la base × hauteur), que le prisme ou le cylindre soit droit ou pas. En particulier,La formule générale est toujours :.Le théorème de Guldin (ou règle de Pappus) permet de calculer le volume d'un solide de révolution engendré par la révolution d'un élément de surface plane autour d'un axe situé dans son plan et ne le coupant pas, pour peu que l'on connaisse le centre de gravité de l'élément de surface. Cette formule permet de déterminer les volumes suivants :Si formula_47 est une partie bornée de formula_48, le volume du cylindre ayant pour génératrice la frontière de formula_47, délimité par le plan et la surface d'équation – avec positive et continue sur formula_47 – est : Dans le cas où le domaine formula_47 est défini par des conditions simples,, ce calcul se ramène à : Si formula_54 est une partie bornée de formula_55 et si la fonction constante 1 est intégrable sur formula_54, le volume de formula_54 est alors : Dans le cas où le domaine formula_54 est défini par des conditions simples, et, ce calcul se ramène à : Par linéarité de l'intégration, un domaine difficile à définir peut être partitionné en plusieurs sous-domaines exprimables eux en conditions simples. Si le domaine formula_54 s'exprime mieux en coordonnées cylindriques par des conditions simples formula_62, le calcul peut s'exprimer par : Si le domaine formula_54 s'exprime mieux en coordonnées sphériques par des conditions simples formula_67, le calcul peut s'exprimer par : Dans le cas où le domaine formula_54 est un solide de révolution dont la frontière est engendrée par la rotation d'une courbe d'équation autour de l'axe, le calcul du volume se réduit à une intégrale simple : Enfin, le théorème de flux-divergence permet de réduire le calcul de volume à une intégrale de surface : où formula_74 est la frontière de formula_54, et formula_76 le vecteur unitaire normal à dirigé vers l'extérieur de formula_54.
Le volume, en sciences physiques ou mathématiques, est une grandeur qui mesure l'extension d'un objet ou d'une partie de l'espace.
xwikis
À partir du début du, les Mésopotamiens ont compté en base 60 en utilisant une numération de position dérivée du système de numération de type additif et de base mixte des Sumériens. Ce système est généralement associé à la civilisation babylonienne, qui occupe le sud mésopotamien après -1800 et jusqu'au début de notre ère. Cette base a traversé les siècles : on la retrouve aujourd'hui dans la notation des angles en degrés ou dans le découpage du temps.Le symbole de la minute temporelle est « min » (invariable, sans point). Le Système international d'unités (SI) n'admet ni le symbole « m », qu'il utilise pour le mètre, ni « mn ». Depuis le décret du, le symbole min est le seul légal en France : L'emploi d'une ou de deux primes (caractères « ′ » et « ′′ ») comme symboles respectifs de la minute et de la seconde temporelles est incorrect, ces signes désignant la minute et la seconde d'arc, subdivisions du degré d'arc. Voir la remarque au sujet de la navigation.On parle de minute indivisible lorsque la minute est définie comme la plus petite unité et que les mesures sont arrondies à la minute supérieure ou, en d'autres termes, lorsque toute minute entamée est comptée entièrement. La minute est alors dite indivisible parce qu'elle ne peut pas être divisée, par exemple en secondes. Un tel système est notamment utilisé dans les télécommunications, pour la facturation des communications. Elle s'y oppose à la facturation à la seconde. Il existe aussi des systèmes de facturation hybrides, dans lesquels seule la première minute est indivisible, la suite de la communication étant facturée à la seconde. La minute indivisible est également dans la législation européenne, pour le calcul du temps de travail d'un conducteur routier, mesuré par un chronotachygraphe. La minute indivisible a ainsi été instaurée le par un règlement du Conseil européen :
La minute est une unité pratique de mesure du temps. C'est une unité en dehors du Système international (SI) dont l’usage est accepté avec le SI. C'est une unité traditionnelle de temps, d'usage courant dans le monde entier. Par analogie avec l'unité d'angle, la minute est définie comme une durée de. Une heure contient.
xwikis
Du latin « "materia" » (bois, matériaux de construction) correspondant au grec « "hyle" » (matériaux forêt, jungle, bois, construction). En langue française, on trouve historiquement du jusqu'au le concept de substance matérielle tangible.<br> En général, avec le terme matière des philosophes ont fait référence à la réalité sensible, tout ce qui peut être objet d'expérience.La matière peut se retrouver dans plusieurs états ou phases. Les quatre états les plus connus sont solide, liquide, gazeux, et plasma. Il existe aussi d'autres états un peu plus exotiques, tels que cristal liquide, condensat de Bose-Einstein, superfluide et fluide supercritique. Lorsque la matière passe d'un état à l'autre, elle effectue une transition de phase. Attention : un changement d'état n'est pas une transformation chimique! Ce phénomène est étudié en thermodynamique "via" les diagrammes de phase. La transition de phase se produit lorsque certaines caractéristiques de la matière changent : pression, température, volume, densité, énergieLa matière au niveau fondamental est constituée de quarks et de leptons. Les quarks se combinent pour former des hadrons, principalement des baryons et des mésons "via" la force forte, et sont présumés toujours confinés ainsi. Parmi les baryons se trouvent le proton (dont la charge électrique est positive) et le neutron (de charge électrique nulle), qui eux se combinent pour former les noyaux atomiques de tous les éléments chimiques du tableau périodique. Normalement, ces noyaux sont entourés d'un nuage d'électrons (de charge électrique négative et exactement opposée à celle du proton). L'ensemble formé par un noyau et un nuage qui comprend autant d'électrons négatifs que de protons positifs présents dans le noyau est un atome. Il est électriquement neutre, sinon, c'est un ion. Les atomes peuvent s'agencer entre eux pour former des structures plus grosses et plus complexes, telles que les molécules. Une quantité de particules de matière s'exprime avec l'unité : la mole. La chimie est la science qui étudie comment se combinent les noyaux et les électrons pour former divers éléments et molécules. Chaque particule élémentaire et, par extension, toute particule composite est associée à une (anti-)particule d'antimatière (par exemple électron-positron ou proton-antiproton). Une particule d'antimatière se distingue de sa partenaire par le fait que sa charge électrique soit opposée. En outre, les nombres baryoniques et leptoniques sont conservés. Toutefois, de telles particules possèdent la même masse. Bien que les lois fondamentales de la physique n'indiquent pas une préférence pour la matière par rapport à l'antimatière, les observations cosmologiques indiquent que l'Univers est presque exclusivement constitué de matière. À noter que la plus grande partie (99,99 % du volume) d’un atome est constituée de vide. C’est ce que l’on appelle une structure lacunaire, qui a été prouvée par l’expérience de Lord Ernest Rutherford. Les noyaux (donc la matière à proprement dit) de deux atomes qui constituent la « matière » sont séparés par une grande distance de vide.Les travaux d'Albert Einstein en relativité restreinte nous ont légué la fameuse équation, où "E" est l'énergie au repos d'un système, "m" est sa masse et "c" est la vitesse de la lumière dans le vide. Cela implique donc que la masse est équivalente à de l'énergie et inversement. Ainsi par exemple lorsque plusieurs particules se combinent pour former des atomes, la masse totale (au repos) de l'assemblage est plus petite que la somme des masses des constituants (au repos) car en fait une partie de la masse des constituants est convertie en énergie de liaison, nécessaire pour assurer la cohésion de l'ensemble. On appelle ce phénomène le défaut de masse. Ce même physicien a établi le lien entre la courbure de l'espace-temps et de la masse-énergie grâce à la théorie de la relativité générale : la masse (l'inertie) de la matière (ou une équivalence en énergie) courbe l'espace-temps « indique » les géodésiques à suivre, les trajectoires possibles. Ainsi, en relativité générale, la matière et l'énergie sont regroupées sous la même bannière et une façon d'en mesurer la quantité est d'observer la courbure de l'espace-temps qui les contient.À l'origine, la matière désigne l'élément naturel destiné à être « informé » (travaillé) par l'homme (le bois, l'argile) ; puis elle est devenue progressivement le fond indifférencié, le réceptacle. Devenue pur concept, elle est atteinte par une opération de l'esprit et correspond à ce qui pourrait subsister si l'on faisait abstraction de toutes les qualités particulières d'une chose. Elle n'est pas un simple matériau passif mais manifeste une certaine nécessité interne qui autorise à la faire figurer parmi les causes ou même les principes. C'est Aristote qui porte cette notion au statut de concept.Il y a dualisme entre matière et esprit. L'une est solide, rigide, tangible et immobile de même que limitée, alors que l'esprit est évanescent, créateur, dynamique et principalement sensitif. Ainsi, le fait de mélanger esprit et matière faisait partie du plan de Dieu. L'homme est ainsi à la frontière entre le monde créé qui comporte les trois premiers règnes (minéral, végétal et animal) et le monde créateur. Or, de cette situation l'homme sur cette terre se voit attribuer une tâche, une finalité à savoir élever la matière, créer un lien entre le monde créé et le monde créateur, ceci afin que la Vie puisse circuler librement dans toute la création. En d'autres termes, l'Esprit jouerait un rôle primordial sur la matière, selon John Eccles qui reçut le prix Nobel de physiologie et de médecine en 1963.Teilhard de Chardin affirmait que nos pensées sont des énergies vivantes, des énergies psychiques qui imprègnent le milieu. Ainsi,. Teilhard qui inventa le principe de noosphère, sorte de milieu d'énergies psychiques qui envelopperait la terre, affirme ainsi que selon la nature des pensées humaines bonnes ou mauvaises, ces dernières imprégnant le milieu, seraient, entre autres, capables de dégénérer les organismes de vie, viendraient alors les maladies. Cette thèse rejoint en fait la parabole du jardin d’Éden dont Adam et Ève furent chassés par leur péché. Dans ce cas, la matière n'est rien d'autre qu'une pâte à modeler pour l'esprit, pour l'être humain, et que nous avons la création dans notre charge. La matière, au sens propre comme au sens figuré, est notre poids à porter.Dans l'économie moderne, on produit de plus en plus d'informations, qui sont stockées et diffusées sur des supports d'information matériels. Les principaux supports d'information sont le papier, et, de plus en plus, les équipements électroniques qui stockent de l'information (matériels informatiques, réseaux, bases de données, systèmes de gestion électronique des documents, systèmes de gestion de contenu) ou la diffusent (réseaux). Dans ce qu'on appelle quelquefois l'économie de l'immatériel, on fait souvent passer l'information du support papier au support électronique dans un processus appelé dématérialisation. On voit que les termes « économie de l'immatériel » et « dématérialisation » sont peu appropriés, car en réalité on ne fait que changer le support de l'information. Le nouveau support, électronique, est lui aussi matériel. On présente quelquefois la dématérialisation comme un avantage du point de vue du respect de l'environnement et du développement durable. Mais en réalité les choses ne sont pas si simples, car l'utilisation des deux types de supports d'information consomme de l'énergie et des ressources naturelles (bois pour le papier, métaux pour les équipements électroniques) et génère des déchets (les vieux papiers et les déchets d'équipements électriques et électroniques). Le bilan global n'est donc pas si simple à établir du point de vue de l'environnement et du développement durable.Matière en physique et chimie Matière et support d'information Philosophie
En physique, la matière est ce qui compose tout corps ayant une réalité tangible. C'est-à-dire plus simplement c'est une substance matérielle et donc occupe de l'espace. Les quatre états les plus communs sont l'état solide, l'état liquide, l'état gazeux et l'état plasma. Réciproquement, en physique, tout ce qui a une masse est de la matière. <br> La matière ordinaire qui nous entoure est formée de baryons et constitue la matière baryonique. Cette définition exclut les bosons fondamentaux, qui transportent les quatre forces fondamentales, bien qu'ils aient une masse et/ou une énergie.
xwikis
La température est une notion qui a évolué avec la connaissance de la matière. On peut distinguer diverses étapes du concept.On s'intéresse ici aux états thermodynamiques d'équilibre et aux possibilités (ou à l'impossibilité) de passer de l'un à l'autre par une transformation quasi-statique, c'est-à-dire s'effectuant par une suite d'états d'équilibre. Cette partie de la thermodynamique devrait en toute logique s'appeler thermostatique mais ce mot est défini comme adjectif dans un autre sens. \mathrm{d}T=\frac{\left(\frac{\partial p}{\partial T}\right)_V}{\mu C_V-p}\mathrm{d}T=\frac{1}{\lambda}\left(\frac{\partial p}{\partial T}\right)_V\mathrm{d}T</math>On remarque que cette équation définit la température à une constante multiplicative près, en effet si l'on pose λ ne change pas puisque et ce qui conduit à une équation identique pour w(θ).On a donc montré qu'il existe une variable d'état T telle que formula_6 soit une différentielle exacte. Il reste à la préciser en choisissant une échelle de référence, laquelle est implicitement liée à une équation d'état. Pour des raisons évidentes on va prendre μ = 0. L'équation sur w se simplifie en Prenons le cas d'une transformation isovolume d'un état 1 vers un état 2, l'expression de w devient On reconnait la loi de Gay-Lussac pour un gaz parfait L'équation d'état du gaz parfait est assez naturellement le meilleur choix pour l'échelle de référence. En différentiant on fait apparaître la redistribution d'une énergie donnée sur les divers niveaux d'occupation (chaleur) et la variation d'énergie liée à la variation de volume (travail) On définit l'entropie canonique par on peut définir une différentielle exacte D'où la valeur de β par identification avec l'expression classique de la thermodynamique formula_2 Le raisonnement s'applique de la même manière pour le système continu que constitue la translation des particules, les quantités discrètes étant remplacées par les distributions d'énergie et de populations de particules de masse m et de vitesse v et, d'après la loi de distribution des vitesses de MaxwellOn parle ici de thermodynamique hors équilibre, c'est-à-dire des chemins permettant de passer d'un état d'équilibre à un autre par des processus de transport ou de relaxation dans un milieu proche de l'équilibre thermodynamique. Cette dernière condition étant nécessaire pour exprimer les flux sous forme de lois linéaires. Au, Fourier établit la loi éponyme qui semble faire de la température le potentiel scalaire permettant de connaître le flux de chaleur En fait la thermodynamique hors équilibre montre que cette expression devrait être écrite T est l'affinité, laquelle constitue le potentiel lié à l'énergie U. T apparaît également dans les phénomènes de diffusion de la matière par l'intermédiaire du gradient formula_21 où μ est le potentiel chimique.Le zéro absolu, qui correspondrait à une matière totalement figée, est interdit par le principe d'incertitude de la mécanique quantique qui prohibe tout état où l'on connaîtrait simultanément position et vitesse. La description continue du degré de liberté en translation n'est donc pas pertinente pour les très basses températures. On ne peut pas pour compter les états prendre de boîte de taille inférieure à la longueur de Planck. La température étant indissolublement liée à l'entropie, c'est cette valeur qui va guider une définition du zéro absolu comme température associée à l'entropie minimale où g est la dégénérescence du niveau d'énergie le plus bas. Si on peut considérer que, en théorie, g = 1 il n'en va pas de même en pratique où de faibles perturbations du système mesuré vont lever la dégénérescence et empêcher l'obtention du zéro absolu. La valeur la plus basse de a été atteinte dans un gaz de sodium au Massachusetts Institute of Technology par l'équipe de Wolfgang Ketterle. </math> D'où la limite correspondant à l'énergie minimale où g est la dégénérescence du niveau fondamental.Le second principe de la thermodynamique a permis de définir la température et une échelle de référence pour celle-ci, basée sur l'équation d'état du gaz parfait (voir encadré « Température et entropie »). L'instrument primaire de mesure est donc assez naturellement un thermomètre à hydrogène, gaz dont le comportement est proche de celui du gaz parfait et qui est peu sensible au phénomène d'adsorption pariétale comme le sont les gaz nobles. Comme on sait définir le zéro absolu il reste à définir un point de référence. La norme actuelle choisit d'utiliser le point triple d'une eau de composition isotopique donnée comme constituant par définition la valeur 273.16K.Le rayonnement est constitué de photons qui se comportent au plan thermodynamique comme un gaz. Les échanges matière-rayonnement peuvent permettent à ce dernier d'acquérir un équilibre thermodynamique caractérisé par la distribution de Planck à la température T du milieu matériel qui constitue la température du rayonnement. Il faut voir que, en l'absence d'interaction photon-photon pour assurer des échanges d'énergie, il faut multiplier les interactions photon-matière pour aboutir à l'équilibre thermodynamique. Un tel rayonnement est appelé rayonnement du corps noir. Il est obtenu par l'utilisation d'une enceinte fermée. Le rayonnement que l'on rencontre dans de nombreux domaines est s'éloigne de celui-ci en comportant des raies d'émission ou d'absorption. L'équilibre thermodynamique du rayonnement correspond à une distribution angulaire de celui-ci isotrope. À l'opposé, un rayon lumineux de fréquence ν correspond à une entropie minimale. Celle-ci tend vers zéro lorsque l'on va vers les grandes longueurs d'onde.L'équilibre thermodynamique entraîne l'existence d'une température unique pour tous les degrés de liberté du milieu : translation, décrite par la statistique de Maxwell, rotation, vibration et énergie interne, décrites par la statistique de Boltzmann. Dans certaines situations créés par l'introduction d'énergie dans le système il se crée des états proches de l'équilibre qui peuvent être raisonnablement bien décrits par plusieurs températures. C'est par exemple le cas d'un plasma froid avec des températures de translation différentes pour les électrons et les particules lourdes : ions, atomes, molécules. On peut séparer localement les divers degrés de liberté en effectuant une forte détente (voir figure) en se basant sur les temps caractéristiques différents pour les divers couplages entre ceux-ci. Un tel système relaxe rapidement vers l'équilibre thermodynamique.Dans le cas où l'énergie injectée dans le milieu est très importante la distribution microscopique s'éloigne notablement des distributions d'équilibre. Il peut cependant se créer des états stationnaires comme dans l'effet Sunyaev-Zel'dovich issu de d'interactions Compton multiples (comptonisation). Ce milieu possède une entropie et une énergie interne pour chaque constituant, électrons et photons. On peut donc lui associer deux températures mais celles-ci n'ont que peu d'intérêt car elle ne permettent pas de caractériser les distributions d'énergie correspondantes.Certains systèmes quantiques liés à la résonance magnétique nucléaire dans les cristaux ou les gaz ultrafroids possèdent des distributions d'énergie particulière pouvant être entièrement peuplés dans l'état de plus basse énergie (zéro absolu) mais également dans l'état de plus haute énergie. Dans les deux cas l'entropie est nulle par définition. Entre les deux extrêmes l'entropie est finie, ce qui fait que S est une fonction de U d'abord croissante, puis décroissante. Si on adopte la définition standard de la température cela conduit à une valeur infinie au maximum d'entropie, suivie de valeurs négatives pour les hautes énergies. Ce problème est lié à la définition de l'entropie de Boltzmann mais disparaît si l'on utilise une définition alternative donnée par Willard Gibbs. Ce problème illustre s'il en était besoin la difficulté de la définition de la température.
La température thermodynamique est une formalisation de la notion expérimentale de température et constitue l’une des grandeurs principales de la thermodynamique. Elle est intrinsèquement liée à l'entropie.
xwikis
Les Celtes ont migré en Europe de l'Ouest et se seraient établis en Gaule vers -1200, mais il faut attendre l'âge du fer (-800) pour pouvoir l'affirmer. La Gaule formait un territoire qui longeait le Rhin jusqu'à la Méditerranée. Des années après l'invasion en -58 de la Gaule par les légions romaines de Jules César, Auguste va la partager en trois provinces romaines, dont celle de la Gaule belgique située la plus au nord de la Gaule, et qui borde le Rhin. Puis viendront les Francs au, les royautés mérovingienne puis carolingienne (751) qui en sont issues ; le royaume (devenu Empire)La plus ancienne trace de présence humaine dans les territoires qui forment actuellement la Belgique a été trouvée à Hallembaye, aux environs de la montagne Saint-Pierre (province de Liège), et date d'environ 800 000 ans. Ensuite, aux environs de 400 000 av. J.-C., des hommes s’installent en bord de Meuse. De à 35 000 av. J.-C., ces territoires sont peuplés de Néandertaliens surtout dans la province de Liège (Grottes Schmerling aux Awirs) et dans la province de Namur (Homme de Spy). Des traces de néandertaliens sont trouvées en 2014 en Flandre, à Wavre-Sainte-Catherine. À partir de 30 000 av. J.-C., l’homme de Néandertal fait place à l’homme moderne. Il ne faut pas oublier qu'au cours des maximums glaciaires, le niveau de la mer était beaucoup plus bas et on pouvait aller de la Gaule vers la Bretagne à pied sec. La montée des eaux de la mer du Nord a possiblement déplacé les populations qui résidaient sur le Doggerland vers les rives du continent (dont la Belgique) et des îles britanniques. Des vestiges de l’époque néolithique existent à Spiennes où se trouvait une mine préhistorique de silex. Le Néolithique en Belgique commence avec l’arrivée des groupes attribués au Rubané récent, vers 5 300 avant notre ère, venant de l’est par le couloir danubien. Le Néolithique moyen est connu par une colonisation plus étendue et l’exploitation des mines de silex sur plusieurs gisements notamment à Spiennes (Hainaut). De tels sites sont associés aux habitats Michelsberg sur le plateau lœssique nord de la Meuse, comprenant souvent des villages fortifiés avec des enceintes, des palissades et/ou des fossés. Le Néolithique récent est représenté par des mégalithes (par exemple, des dolmens de Wéris et près de Durbuy), attribuées à la culture « Seine-Oise-Marne ». La culture d'Hilversum; datée entre 1 870 et 1 050 ans av.Après les grandes invasions du et, la région devient le cœur du premier royaume franc, dont la capitale est Tournai sous Childéric. Vers 496, Clovis (466-511), roi des Francs, reçoit le baptême à Reims et abandonne Tournai pour Paris. La christianisation massive débute en 630, avec le soutien des moines. Sous l'impulsion de l'empereur Charlemagne, qui agrandit son empire, la vallée de la Meuse devient le centre politique et économique de l'empire franc. Il s'installe à Aix-la-Chapelle (796) pour le centraliser dans ses territoires. À Charlemagne succéda Louis le Pieux. Son règne fut marquéZwentibold reçut en 895 d'Arnulf de Carinthie le gouvernement de la Lotharingie avec titre de "roi". Quand il mourut en 900, la Lotharingie revint à la Germanie. En France, les ascendants des Capétiens et les Carolingiens se disputent le trône. Les souverains du royaume occidental essaient à plusieurs reprises de s'emparer de la Lotharingie. Charles le Simple envahitÀ partir du, les villes commencent à se développer, principalement dans le comté de Flandre et en pays mosan. L'industrie de la laine se développe elle aussi, et plus tard, le commerce maritime, avec la ligue hanséatique. La région devient l'un des cœurs de l'économie européenne, avec l'Italie. Les laines sont importées d'Angleterre, avec laquelle se tissent des liens qui compteront pendant les conflits entre Capétiens et Plantagenêt. Les principales villes sont alors, à l'ouest, Bruges, Gand, Ypres et Tournai, et en pays mosan, Huy, Namur, Dinant et Liège. L'urbanisation de la future moyenne Belgique est plus lente ; seule Nivelles présente au un caractère urbain. Situées plus à l'intérieur du pays, les autres villes brabançonnes comme Bruxelles, Louvain et Malines, attendent la fin du pourJusqu'en 1795, le territoire actuel de la Belgique était principalement divisé en deux pays distincts : les Pays-Bas du Sud et la principauté de Liège. LaÀ l'issue de la guerre de Cent Ans, les territoires (à l'exception de la principauté de Liège) et les Pays-Bas actuels (dont les limites remontent au ) sont aux mains des ducs de Bourgogne, vassaux des rois de France. Sous ceux-ci, Philippe le Bon puis son fils Charles le Téméraire, le pays connaît une expansion économique dont profitent les villes et, notamment, Bruxelles qui accueille le pouvoir dans le palais des anciens ducs de Brabant. Sur les cartes de l'époque, l'ensemble des grands Pays-Bas depuis lesCharles Quint était né en 1500 à Gand, héritier à la fois des Habsbourg, des ducs de Bourgogne et de l'Espagne. Il se considère comme flamand et bourguignon. Élu empereur du Saint-Empire romain germanique, il cumule cette couronne avec ses titres sur les Pays-Bas, où il est communément appelé le roi, et avec sa royauté sur l'Espagne qu'il doit à ses ascendants paternels, ainsi qu'à la possession des colonies d'Amérique. Il règne sur les Dix-Sept Provinces de 1515 à 1555, tentant de renforcer le pouvoir central, en réduisant les libertés constitutionnelles de chaque État provincial. Lors de l'apparition du protestantisme, il éradiqua le luthéranisme et surmonta l'anabaptisme, mais leÀ l'avènement de Philippe II, les Pays-Bas du Nord et du Sud forment un tout dépendant d'une même autorité, les États-Généraux, équivalant d'un parlement, mais réservé à quelques grandes abbayes, au haut clergé, aux grandes baronnies et à quelques chef-villes et leur émanation, le Conseil d'État, véritable gouvernement aristocratique soumis au souverain. À cette époque, le système féodal - qui attribue les territoires et les peuples en fonction de l'hérédité - groupe l'ensemble du Nord et du Sud que les cartographes dénomment le Leo Belgicus. Mais, sous Charles-Quint, une partie importante de la population est convertie au calvinisme, davantage au Nord qu'au Sud. Le pouvoir du roi (titre par lequel on désigne Charles Quint), ne peut s'accommoder d'une dissidence religieuse qui menace le souverainLode Wils, dans son "Histoire des nations belges" présente les Pays-Bas espagnols/autrichiens comme un État fédéral catholique, gouverné par des rois étrangers. Ce sentiment d'appartenir à un État-nation conduira notamment à l'émergence d'une "historiographie nationale des Pays-Bas méridionaux", portant sur l'histoire des Belges (Des Roches en 1782, puis Dewez en 1805 et De Smet en 1822), appuyée sur des descriptions d'anciens géographes tels que Guichardin, de Wastelain et d’Ortelius. Déjà, sous le régime espagnol, les cartographes désignaient les Pays-BasC’est à cette époque qu’eut lieu le renversement de ce que l'on appela plus tard l’Ancien Régime dans les différentes régions qui composent aujourd’hui la Belgique. Cette époque marque également le début de leur unification politique. Jusque-là, sous ce régime, chacune des principautés avait sa législation propre, ses pratiques juridiques, sa fiscalité et ses coutumes reconnues par des « privilèges » attribués au cours des siècles par la noblesse et les souverains obligés d'abandonner, petit à petit, des morceaux de leur pouvoir devant les revendications et les soulèvements. Dans l'ensemble, cependant, les pouvoirs locaux ne contestaient pas une autorité supérieure comme celle des ducs de Bourgogne ou de Charles Quint, mais dès que la population et les nobles ressentaient un excès d'autoritarisme, ils réagissaient jusqu'à la révolte armée. Ainsi, l'autoritarisme de Philippe II avait dressé contre lui le peuple, comme cela s'était déjà passé contre les ducs de Bourgogne et Charles Quint. Durant le sanglant conflit contre le pouvoir espagnol, le titre royal de Philippe II ne fut cependant pas contesté, au début, car on continuait à l'appeler le roi, même si on lui contestait le droit d'enfreindre les traités garantissant les droits acquis par le peuple. Cette situation que l'on peut qualifier de « schizophrénie politique » qui consistait à combattre un pouvoir royal que l'on prétendait respecter se compliquait encore par les oppositions entre catholiques et protestants. Quant aux différences linguistique entre les différentes contrées, elles ne constituaient pas un sujet de discorde car les peuples en grande partie illettrés n'avaient guère de communications avec leurs voisins de langue différente. Même à l'intérieur d'un même domaine linguistique les patois dressaient des barrières, que ce soit dans le domaine flamand ou dans le domaine roman. Quant aux dirigeants et aux clercs (l'administration) ils parlaient deux langues pour nombre d'entre eux et, d'ailleurs, souvent, la langue française est utilisée, dans la pratique, comme langue de communication. L’aire politique de ces territoires était éclatée entre duchés, marquisats, etc., comme cela était dans les autres pays d'Europe sous l'Ancien Régime, ces diverses composantes luttant avec plus ou moins de bonheur contre le centralisme de Malines, puis de Bruxelles sous les ducs de Bourgogne, puis sous Charles Quint. Situation inverse de celle de la France où le pouvoir royal était progressivement parvenu à restreindre à son profit les pouvoirs locaux des nobles et des parlements. La Principauté de Liège formait un État à part entière coupant en deux les Pays-Bas méridionaux, eux-mêmes peu homogènes : s’ils avaient un prince unique depuis les ducs de Bourgogne, les Pays-Bas, sous l’Ancien Régime, n’ont jamais constitué un royaume uni sous une commune loi unique. Cependant, Charles-Quint les constitua en un ensemble homogène par la pragmatique sanction destinée à en interdire le démantèlement. Et c'est donc dans la logique féodale que les populations, et même les nobles insurgés, donnaient au fils de Charles Quint, Philippe II, le titre de roi, car le régime féodal fonctionnait sur le principe d'une pyramide de pouvoirs subordonnés les uns aux autres, jusqu'au pouvoir suprême du roi que tous, pour cette raison, considéraient comme le titulaire légal de ce titre qui n'était pas expressément cité dans les constitutions des principautés et provinces, comme l'on disait à l'époque. L'attribution de ce titre découlait et résumait la multiplicité des titres de Charles-Quint et de Philippe II, duc, comte et autres. Et cela est démontré par les nombreuses citations de discours et proclamations des insurgés qui, même, pendant la guerre des Quatre-vingts Ans, continuèrent longtemps à reconnaître ce titre à celui qui était devenu leur ennemi. Il faut ajouter à cela de très nombreuses principautés romanes indépendantes ou autonomes, tel que la Principauté de Stavelot-Malmedy (), le Duché de Bouillon (), le comté d'Empire de Fagnolle (correspondant à un village mais battant néanmoins sa propre monnaie), quelques enclaves françaises (Mariembourg, Philippeville...)... Cet inventaire n’est pas exhaustif.Cette révolution brabançonne a donné lieu à un état indépendant, les États-Belgiques-Unis. Les États-Belgiques-Unis ne durèrent qu'une année, néanmoins le qualificatif "Belgique" s'imposaÀ peine les autorités impériales et le Prince-Évêque étaient-ils rétablis dans leurs possessions que les armées de la République française envahirent le pays. Après des événements militaires aux fortunes diverses, la France annexa finalement l'ensemble du territoire de la Belgique actuelle, Liège inclus. Si la France unifia politiquement, pour la première fois, la Principauté de Liège et les Pays-Bas méridionaux dans le vaste ensemble que formait l'Empire; à la fin du régime français, on distinguait encore régulièrement les Belges des Liégeois. Ce n'est que sous la période hollandaise que la distinction disparut : en effet, le nouveau Royaume des Pays-Bas était désormais divisé en deux "camps" : d'un côté les "Hollandais", à soixantePour affaiblir la France au congrès de Vienne en 1815, les trois grands vainqueurs se divisent l'Europe sans tenir compte des sentiments nationaux. Se référant à une époque historique ancienne, ignorant les évolutions historiques divergentes des deux entités, ils décident de reconstituer les anciens Pays-Bas et réunissent les territoires des Pays-Bas autrichiens (la future Belgique) à ceux des anciennes Provinces-Unies (les Pays-Bas du Nord). Ainsi naît une sorte d'État tampon au nord de la France. À la tête de ce Royaume-Uni des Pays-Bas, Guillaume d'Orange. Le, le roi publie une constitution en vue de la fusion des deux Pays-Bas. Au nord, les États-Généraux l'acceptent à l'unanimité. Au sud, elle est soumise à 1603 notables belges ; 527 vont voter « pour » et 796 « contre » (dont 126 pour des motifs religieux). Le résultat était donc « contre » à 60 %. Toutefois, dans le décompte des voix, les 280 abstentions seront considérées comme des votes « pour », et il en ira de même pour les 126 votes « contre » à motifs religieux. Le résultat devint alors 933 « pour » et 670 « contre ». Et c'est ainsi que, le 24 août, le gouvernement proclama l'acceptation de la constitution à 58 %. L’opposition aux « Hollandais » était pourtant déjà patente. Ainsi, le 6 mars 1814, plus d'un an avant la naissance du Royaume-Uni, un agent britannique rapportait qu'en Belgique « la quasi-totalité des classes de la société (...) rejettent de façon très nette la Hollande et la Maison d'Orange. » Dans les faits, la population assiste donc au rétablissement des Pays-Bas d'avant 1581, cette fois sous la forme d'un État garantissant la liberté de culte mais où la présence à côté de nombreux dirigeants catholiques de dirigeants protestants heurtait la sensibilité des milieux catholiques des anciens Pays-Bas du Sud qui n'étaient pas encore capables d'accepter le pluralisme. Le premier antagonisme, le premier grief, est donc logiquement religieux, et la situation inversée par rapport à 1581. Les 3,5 millions de Belges, des provinces du sud sont majoritairement d'origine catholiques et intégrés dans un nouvel État où de nombreux dirigeants étaient issus des milieux protestants qui formaient une population d'un million deux-cent mille personnes dans les provinces du Nord, y formant la classe urbaine anciennement cultivée, où ne vivaient que, souvent dans le monde rural, ne formant que 40 % de ces provinces, et un roi protestant. De plus, l'égalité des religions est décrétée : le clergé catholique se sent alors menacé par la minorité des vingt cinq pour cent de protestants du Royaume, et soutient l'opposition dans les campagnes. Cette opposition est surtout marquée en Flandre, et menée par l'évêque de Gand (de Broglie). Ainsi, comme en 1581, la religion sera une des causes directes de la scission des Pays-Bas. Le second antagonisme est économique : les libéraux n'ont plus accès au marché français, tandis qu'ils doivent faire face au libre-échange avec l'Angleterre, et son industrie fort avancée. De plus, le gouvernement favorisait les investissements dans le nord et le roi ira même jusqu'à freiner le développement du port d'Anvers pour favoriser les ports du nord. Pour ces raisons, en 1816, les ambassadeurs d'Autriche, de Russie et de Prusse ont déjà perdu toute confiance en la réunion des deux Pays-Bas. Parallèlement à ces deux antagonismes, le gouvernement devenait de plus en plus autoritaire, vis-à-vis de la liberté de la presse (sous couvert de troubles de l'ordre public) et du clergé catholique. Ainsi, les opposants à ce despotisme se rassemblent, réclamant la responsabilité ministérielle devant le Parlement, ainsi que la liberté de la presse et de l'enseignement. Cette opposition catholique-libéral sera uniquement belge : les catholiques du nord n'ont aucune influence (depuis 1581) et peu de libéraux du nord s'y rallient, préférant rester fidèle au roi. Cela peut s'expliquer par le favoritisme pro-hollandais du royaume (dans la fonction publique et l'armée), mais également par le fait que les Belges étaient majoritaires. Leur faire trop de concessions reviendrait à les laisser gouverner le pays, ce que ni le roi ni la population du nord n'accepteraient. La fidélité au roi restera d'ailleurs très présente aux Pays-Bas : pas de question royale à la belge, même sous le règne de l’anti-démocrate Guillaume III Le soulèvement des Belges est alors inévitable, et l'élément déclencheur sera la seconde vague des révolutions en Europe (en 1830). La bourgeoisie prendra alors le pouvoir en août 1830 et, face au souverain absolutiste étranger, sera soutenue par toutes les couches de la société dans l'ensemble du pays, villes et campagnes comprises en Flandre et en Wallonie. On note bien l'hostilité à la révolution d'une partie de la bourgeoisie francophone de Flandre, partisane du roi de Hollande en raison des avantages économiques de sa politique libérale. Mais ce mouvement n'aura pas de succès. Après la défaite hollandaise dans les rues de Bruxelles suivie du bombardement d'Anvers et d'une tentative avortée de retour de l'armée hollandaise la Belgique est reconnue internationalement et dotée d'un statut de neutralité sous la garantie de la France et de l'Angleterre. Quant à la question linguistique, si, au, elle est prépondérante, il n'en fut d'abord rien à l'époque, comme on peut le constater à travers les publications politiques et la presse des premières années qui suivent l'installation du nouveau régime. Aucune opposition sérieuse de nature linguistique n'apparaît chez les adversaires du roi des Pays-Bas. Cependant, l'arrêté royal du 15 septembre 1819 établit le néerlandais comme langue officielle dans les provinces néerlandophones pour la justice et l'administration, les langues populaires n'étant pas protégées (ainsi en ira-t-il de l'allemand dans le Luxembourg). Au début, la bourgeoisie francophone de Flandre ne se sent pas menacée, et pour cause : Guillaume lui-même, bien que roi des Pays-Bas, était francophone (tout comme une bonne partie de la bourgeoise européenne de l'époque). Quant aux Wallons, n'étant pas inclus, au début, dans l'arrêté royal de néerlandisation, ils ne réagissent pas à ce qui ne les concerne pas. Mais la pression graduelle d'une politique linguistique pro-néerlandaise finit par émouvoir l'ensemble de la population de Wallonie et de Bruxelles, surtout dans la bourgeoisie bruxelloise, en bonne partie d'origine flamande mais francisée. Quant à la Flandre, elle a très peu de liens culturels avec les Pays-Bas proprement dits, étant restée dialectale et, pour cette raison, elle est réfractaire au néerlandais policé que l'on veut lui imposer. Finalement, les griefs linguistiques éclatent brutalement, en 1829, lorsque le roi impose l'usage du néerlandais aux élites et à l'administration de l'ensemble du pays, justice, police, armée. C'est que, à ce moment-là, on ne peut même plus rédiger son testament en français, sous peine de nullité.Le, l'indépendance a donc été proclamée par le gouvernement provisoire formé le, et le 3 novembre un Congrès national est élu par et s'ouvre le sur fond de combats qui se poursuivent contre l'armée hollandaise en retraite. Le 18 novembre, le congrès national belge confirmera en quelque sorte le décret du 4 octobre au sujet de l'indépendance de la Belgique. Le il approuve une constitution. La majorité de ces électeurs provenant de la bourgeoisie, le français est choisi comme seule langue officielle. L'opinion commune était qu'il y avait une majorité de francophones en Belgique, puisque le français était, à l'époque, la langue des élites, celle de la classe dominante qui s'empara du pouvoir en 1830. En Flandre comme en Wallonie et à Bruxelles, le peuple use de langues régionales. Le, une conférence s'ouvre à Londres sur l'avenir de la Belgique : les grandes puissances décident finalement de reconnaître la Belgique indépendante le. L'Angleterre, d'abord hostile à la révolution belge qui enfreint le traité de Vienne qui avait construit le royaume des Pays-Bas comme barrière contre la France, finit par se rallierEn 1839, un traité, le traité des XXIV articles, signé à Londres, rétablit certains territoires aux Pays-Bas : La Belgique perd, de ce fait,, soit un septième de sonAu, disposant de charbon et de fer, la Belgique connaît la révolution industrielle et fut même un temps la deuxième puissance industrielle mondiale, derrière l'Angleterre. L'essentiel de la puissance industrielle du pays se trouvait toutefois en Wallonie, où existait déjà une tradition séculaire du travail du fer et de l'extraction du charbon. La région devint ainsiLe roi Léopold II (successeur et fils de Léopold, 1865) dirige à titre privé la colonisation du Congo dans le but d'assurer une colonie à la Belgique. L'actuelle République démocratique du Congo (Congo Kinshasa, ex-Zaïre) devient son domaine personnel. En 1885, Léopold II devient officiellement chef de l'État indépendant du Congo. Il s'agit, pour lui, de constituer une colonie qu'il cèdera à la Belgique. Il obtiendra d'ailleurs des crédits votés par le parlement belge. La raison de ce procédé indirect pour développer l'expansion coloniale réside, entre autres, dans l'interprétation de l'indépendance belge que font certains jurisconsultes étrangers. Pour ceux-ci, le statut d'indépendance garanti par les puissances implique une éternelle minorisation de la Belgique, réduisant sa capacité politique sur le plan international. En obtenant, à la conférence de Berlin, le droit de se constituer un Etat au cœur de l'Afrique, et ce à titre strictement personnel, Léopold II joue sur les rivalités coloniales entre grandes puissances dont aucuneEn 1914, en application du plan Schlieffen, l'Empire allemand, en guerre contre la France, envahit la Belgique pour contourner les armées françaises par le nord. La violation de la neutralité belge déclenche l'entrée en guerre du Royaume-Uni, garant, avec la France, de l'indépendance et de la neutralité de la Belgique. Contrairement à ce qu'escomptaient les militaires allemands, la résistance de l'armée belge est forte : dans un premier temps l'armée d'invasion doit même reculer. Or la condition de réussite du Plan Schlieffen était la rapidité. Il faudra quinze jours à une armée de pour réduire les forts de Liège. L'armée belge commandée par le roi Albert recule en combattant, et même en contre-attaquant, d'abord à la bataille de Haelen où les Allemands sont vaincus, puis, en septembre jusqu'au début d'octobre, à partir d'Anvers sur le flanc allemand. Cette résistance imprévue contrecarre gravement le plan des Allemands et leur apparaît même comme illégitime. Objectivement, elle soulage l'armée française en retenant des troupes allemandes qui manqueront en France, lors des combats de la Marne, même si elle est d'abord inspirée par la mission de défense du territoire national. Le pouvoir impérial lance l'accusation d'une complicité avec la France, d'autant plusLors de la Conférence de paix de Paris, la Belgique fut représentée par Paul Hymans, Émile Vandervelde et Jules Van den Heuvel. Le gouvernement belge et le souverain réclamaient le paiement d'indemnités de guerre et la suppression du statut de neutralité imposé par le traité des XXIV articles. Le gouvernement avait également l'ambition de réunir au royaume la Flandre zélandaise, le Limbourg néerlandais, les Cantons de l'Est et le grand-duché de Luxembourg. Albert, qui était opposé à une trop grande humiliationEn 1940, la Belgique est à nouveau occupée par l'Allemagne, et placée sous administration militaire dirigée par le général Alexander von Falkenhausen. Après avoir mené un combat très dur, mais non nécessairement désespéré, notamment à la bataille de la Lys où périrent en trois jours la moitié des victimes militaires de la « campagne des 18 jours », le roi Léopold III décide seul la reddition. Il constate, ce que l'on saura plus tard, que les troupes anglaises abandonnent le front à la droite de l'armée belge et que, comme lui révélera l'attaché militaire anglais Keyes, un rembarquement se prépare à Dunkerque où rien n'est prévu pour les Belges. Cette reddition est contestée par le conseiller militaire du roi, le général van Overstaeten, qui bénéficiait de l'expérience qu'il avait acquise en 1914-1918, en Belgique et en Afrique. Elle est également contestée par le gouvernement d'Hubert Pierlot et Paul-Henri Spaak. Ceux-ci considèrent que, en tout cas, le roi ne peut tomber dans les mains de l'ennemi. Ne pouvant convaincre le roi de quitter le pays, le gouvernement se réfugiera d'abord en France avant d'arriver à Londres après avoir été menacé de tomber dans les mains des Allemands lors de l'installation du régime de Vichy. Léopold III estime qu'abandonner ses troupes en s'enfuyant serait une lâcheté et une trahison. Si elle paraît pouvoir se défendre sur le plan moral, cette décision sera considérée par certains comme une faute stratégique. Il est à noter que le roi n'a pas voulu révoquer le gouvernement, comme la constitution, à l'époque, le lui permettait, à la condition d'avoir la cautionAprès la deuxième guerre, la Belgique devient membreEn 1950, le roi Léopold III réside en Suisse où il s'est installé après avoir été déporté par les Allemands en 1944 avant d'être libéré par les troupes américaines. Sa décision de reddition en 1940 a continué à diviser les hommes politiques et les Belges. Son frère Charles a prêté serment comme régent en 1944 et, pour en finir avec un différend qui divise l'opinionL'indépendance du Congo s'inscrit dans le mouvement général de décolonisation de l'Afrique. Le roi Baudouin effectue une visite officielle en 1955, qui se déroule triomphalement, les noirs investissant leurs espérances dans un souverain qu'ils croient, à tort, détenteur d'un pouvoir absolu. Un intellectuel progressiste, le professeur Van Bilsen publie le plan Van Bilsen qui prévoit une indépendance pour l'année 1980. Mais, en 1958, le général de Gaulle, promet l'indépendance à 13 États africains. C'est le signal d'un lâcher-tout en général en Afrique. Après quatre années d'effervescence nationalistes et l'émeute du 4 janvier 1959, le gouvernement belge annonce vouloir accorder l'indépendance au Congo et fixe la date au 30 juin 1960 après les négociations de la Table ronde de Bruxelles. Les partis les plus anticoloniaux gagnent les élections législatives et présidentielles. Joseph Kasa-Vubu est élu Président et Patrice Lumumba Premier ministre. Le 30 juin 1960, la colonie du Congo belge accède à l'indépendanceA la fin de la guerre, l'appareil de production est relativement intact, ce qui permet une relance rapide de l'économie. Le taux de croissance est même exceptionnel car l'approvisionnement des armées alliées en Allemagne se fait par le port d'Anvers. De plus, la fourniture de matières premières, l’uranium du Congo belge notamment, aux Etats-Unis a apporté des devises qui permettent de financer les importations et la reconstruction. La production de charbon, alors indispensable, est encouragée par le Premier ministre Achille Van Acker qui lance, dès 1945, la « bataille du charbon » accordant de multiples avantages aux travailleurs dans les mines, utilisant la main d'œuvre des prisonniers allemands dans un premier temps, puis plus tard, de la main d'œuvre d'Italie. Les années 1960 et 1970 ont été marquées par un changement de fortune économique. La Flandre est devenue graduellement la région la plus productive et puis la plus riche du pays. La crise charbonnière qui intervient à partir du milieu des années cinquante, du faitEn 1964, une grève médicale a eu lieu pour faire pression sur le gouvernement, qui cherchait à établir un système de santé publique (Ley Leburton).Sous la pression conjointe du mouvement flamand et des régionalistes wallons, la Belgique évolue progressivement vers un État de plus en plus fédéralisé. Plusieurs réformes institutionnelles sont réalisées transformant le vieil État unitaire en une structure de plus en plus fédéraliste, voire confédéraliste. Ce sont d'abord les lois linguistiques votées en 1963 qui vont définir le cadre d'emploi des troisLe 31 juillet 1993, survint le décès inopiné du roi Baudouin à Motril, au sud de l'Espagne. Tout le pays en subit un choc profond : on estime à le nombre de personnes qui ont fait la file durant de nombreuses heures pour s'incliner devant son cercueil au palais de Bruxelles. Ses funérailles rassemblent de très nombreux chefs d'État et de gouvernement, ainsi que des membres du gotha. Pour la première fois, la reine Élisabeth II d'Angleterre et l'empereur Akihito du Japon assistent à des funérailles en dehors de leur pays. SelonSiège central des Archives de l'État, les Archives générales du Royaume conservent les archives des institutions centrales des Pays-Bas bourguignons, espagnols et autrichiens jusqu'en 1795, des organismes publics centraux deHistoire de quelques-unes desLe comté d'Artois et le comté de Zutphen faisaient également
L'histoire de la Belgique est traditionnellement divisée en deux grandes parties. D'une part, celle des territoires qui formeront, après 1830, le territoire de la Belgique proprement dite. D'autre part, la Belgique d'après 1830, date de son indépendance politique et territoriale.
xwikis
Né le à Nowe Dobre (Poméranie), mort le à Varsovie. Il obtint son diplôme d'ingénieur chimiste à Breslau. Après quelques années passées à travailler dans différentes villes de Pologne, il s'installa définitivement à Varsovie. Passionné par son travail, il fit paraître une traduction des ouvrages sur la chimie de l'anglais I. Remsen et un "dictionnaire technique polonais". Il fit connaissance avec l'espéranto en 1887. La première fois que l'espéranto fut utilisé oralement fut lors d'une conversation qu'il eut avec Zamenhof. Il parlait également parfaitement le volapük et avait déjà rendu visite à son créateur, Johann Martin Schleyer (on raconte que cette visite fut pour lui l'occasion de constater que l'auteur même du volapük ne maîtrisait pas parfaitement cette langue difficile). Grand polyglotte, il connaissait une trentaine de langues. Durant quelques années il fut un des chefs du mouvement réformiste, recherchant la cause de la diffusion lente de l'espéranto dans ses imperfections. Mais après le vote décisif de 1894, il reconnut qu'il était plus important d'accepter la langue telle qu'elle était plutôt que de discuter sans fin des perfectionnements toujours possibles. Il disait : « Une table doit être nommée "tablo" non pas à la suite d'un quelconque raisonnement logique ou autre, mais simplement parce que c'est ainsi que l'a voulu Zamenhof. S'il avait voulu la nommer "tiŝo" nous aurions tous accepté ce mot. » Dès lors il resta fidèle au Fundamento jusqu'à la fin de sa vie. Grabowski participa activement au mouvement espérantophone : à partir de 1904, il fut président de la "Varsovia Esperanto" (Varsovia ES), que, grâce à son autorité et sa diplomatie, il sauva plusieurs fois de la disparition due à des divergences d'opinion de ses membres. En 1908 il occupa la présidence de l' fondée à cette époque et resta à ce poste durant toute sa vie, poste délicat et gênant en partie à cause des circonstances politiques, en partie à cause des divergences internes promptes à en provoquer la ruine. Pendant la guerre, il dut quitter Varsovie. Revenu pendant l'occupation allemande, il trouva sa maison vide : les membres de sa famille avaient émigré en Russie. Dans sa maison déserte, il finit alors la traduction de "Monsieur Tadeusz", ce travail étant sa seule consolation, en dehors des longues visites à Zamenhof. Après la mort de Zamenhof, il devint très solitaire. Son mal de cœur le préoccupait, d'autant qu'il ne pouvait se soigner correctement en raison d'une situation financière difficile. Quand sa famille revint, il était physiquement épuisé. Il continua cependant de travailler sans relâche pour l'espéranto jusqu'à sa mort brutale (il mourut d'une crise cardiaque devant la vitrine d'une librairie espérantophone). C'est en tant que linguiste que Grabowski présida la section grammaire de l'Académie d'espéranto. Il accomplit cette tâche avec beaucoup de talent. On lui doit la rédaction du Grand Dictionnaire Polonais-Espéranto et Espéranto-Polonais. Le plus important est cependant son travail littéraire et principalement ses traductions d'œuvres poétiques. Ses traductions de prose sont relativement peu nombreuses. Son travail de traduction est beaucoup plus important dans le domaine de la poésie. Son œuvre majeure est l'anthologie de la poésie internationale "Parnaso de Popoloj" et plus spécialement "Sinjoro Tadeo", poème épique de Miczkiewscz, dont il a fait une traduction très fidèle. Cette dernière est une des œuvres les plus prenantes de la littérature traduite en espéranto, qui a fait de Grabowski le père de la poésie espérantophone. Par ce livre, Grabowski est celui qui fit évoluer la langue poétique. Très tôt, il sut reconnaître qu'une langue qui prétend avoir de la poésie ne peut pas être une langue pauvre en mots, et il ne craignait donc pas l'introduction de mots nouveaux. Son aptitude à trouver des mots nouveaux eut des résultats souvent heureux : des 209 néologismes de "Sinjoro Tadeo", plus de la moitié entrèrent dans le Plena Vortaro de Esperanto (Dictionnaire complet d'espéranto) de SAT et 25 devinrent des mots officiellement reconnus. Quelques-unes de ses inventions ont été utilisés par les poètes espérantophones (par exemple l'utilisation de "ĉi" à la place de "ĉi tiu", la transformation directe de noms ou d'adjectifs en verbes, l'utilisation de la terminaison -e pour utiliser les noms comme adverbes, etc.). Il savait trouver les rimes avec aisance et maîtrisait parfaitement la technique de la versification. (C'est de lui que vient le mot "adasismo", qui caractérise des rimes faciles basées sur un même suffixe). Peut-être pourrait-on dire qu'il était plus un artiste de la langue qu'un poète, mais même la critique la plus sévère ne peut qu'admirer certains passages de "Sinjoro Tadeo" (La tempête, La chasse, Le concert de Jankjel, la Forêt vierge lituanienne, etc.) qui feront toujours partie des plus belles pages de la poésie traduite en espéranto. Ses œuvres écrites directement en espéranto sont peu nombreuses. On peut cependant mentionner « Tagiĝo », qui est quasiment un deuxième hymne espérantophone, et le touchant « Reveno de l'filo » (Le retour du fils). Poèmes écrits en espéranto : Traductions :
Antoni Grabowski (né le et mort le ), polonais, ingénieur chimiste. Surnommé le "père de la poésie en espéranto". Il a commencé à s'intéresser à l'espéranto dès la publication de la première méthode d'apprentissage (Langue Internationale) et a été le premier à parler en espéranto avec Zamenhof. Il a longtemps présidé la Société Polonaise d'espéranto et dirigé la section Grammaire de l'Académie d'espéranto à partir de 1908.
xwikis
Il n'est pas toujours aisé de donner une définition précise d'une substance chimique. De manière générale, cette notion désigne un produit manufacturé (synthétisé) par l'Homme (n'existant pas dans la nature ou copiant des molécules existant dans la nature). Pour le vocabulaire administratif normalisé de la France et de l'Union européenne :La quantité de ces produits a fortement augmenté depuis la révolution industrielle. Le nombre de produits chimiques différents recensés dépassait soixante-cinq millions en 2009 (contre dix-huit millions en 2002). On estime qu'environ onze mille nouvelles substances ont été créées par jour de 2002 à 2009. La base de données CAS comptait au (dont commercialisés). Plus de substances chimiques sont disponibles dans le commerce, et sept nouvelles substances sont introduites chaque jour dans le commerce. La production mondiale annuelle de produits chimiques a également rapidement augmenté, passant d'environ un million de tonnes par an an vers 1930 à plus de trois cents millions de tonnes en 2009, en grande partie synthétisés à partir d'hydrocarbures fossiles. Nombre de ces produits ont été largement diffusés dans l'environnement où ils se dégradent et/ou circulent, via l'eau et l'air d'où ils se retrouvent dans les sols et sédiments. Ils forment dans l'environnement ou dans les organismes qui les ingèrent des sous-produits, des métabolites, des résidus pouvant se combiner avec d'autres produits (en produisant d'éventuelles synergies (chimiques, biochimiques). Ils sont notamment retrouvés dans l'eau (dont eau de pluie, brumes et rosées, pour les pesticides par exemple, mais aussi dans les eaux de surface, de nappe phréatique et de boisson pour les perturbateurs endocriniens par exemple). Certains de ces produits peuvent être fortement bioconcentrés dans la chaine alimentaire et alors retrouvés dans certains aliments (viande, poisson, chair d'animaux filtreurs notamment). Certains sont actifs à faible voire à très faibles doses, et sont considérés comme des "micropolluants anthropogéniques préoccupants" posant de nouveaux défis en matière d'évaluation environnementale.En 2016, on dénombre plus de cent millions de substances, classées par familles et/ou par usage ou propriétés. Un produit chimique (ou une substance chimique) peut par exemple être : Certaines substances sont dangereuses, pouvant poser des risques particuliers tels l'inflammabilité, l'explosion et la toxicité.En raison de la dangerosité d'un grand nombre de produits chimiques, la réglementation a évolué et leur production, mise sur le marché, importations, exportations, transport, vente, revente, utilisation, recyclage ou élimination peuvent faire l'objet de réglementations particulières. Ainsi en Europe les États membres, sous l'égide de l'Agence européenne des produits chimiques doivent mettre en application un certain nombre de réglementations internationales et européennes, dont : Ces règlements visent : Les médicaments, les cosmétiques, les pesticides, les produits biocides, les produits utilisés dans l'alimentation, les explosifs et les substances radioactives font l'objet de dispositions particulières non traitées dans cette étude. Tous ces textes sont, en France notamment, déclinés dans le droit français de l'environnement et celui de la santé via le Code de l'environnement, mais aussi le Code de la santé publique, le Code du travail, le Code des transports, le Code de la consommation, le Code des douanes. et diverses lois, décrets, arrêtés, circulaires ministérielles ou plans (exemples : Plan national santé-environnement (PNSE), Plan santé au travail, Plan particule, Ecophyto 2018). En 2009, le Code de l'environnement demande aux différents corps de contrôle (formant notamment la police de l'environnement) de travailler avec une meilleure transversalité entre corps et ministères.Dans la plupart des pays, plusieurs législations peuvent entrer en contradiction, notamment celles découlant de l'obligation d'étiquetage (étiquetage environnemental notamment), celles issues de la convention d'Aarhus qui impose un large accès à l'information environnementale et des habitudes ou des législations découlant du droit des brevets ou du secret de fabrication. Le règlement REACH impose un premier cadre minimal commun en Europe. En France, en lien avec la Direction générale de la prévention des risques (DGPR) du ministère de l'Écologie, du Développement durable et de l'Énergie, l'INERIS et l'INRS sont missionnés pour collecter et évaluer les informations sur les risques et dangers liés aux produits chimiques, tout en devant.Ce sont des autocontrôles et des contrôles faits par les autorités compétences, assortis d'éventuelles sanctions prévues par la loi. Au vu du nombre de produits synthétisés, mis sur le marché ou utilisés, le nombre de contrôles peut sembler modeste. Par exemple, un peu chez des importateurs, fabricants, responsables de la première mise sur le marché, distributeurs et utilisateurs de produits chimiques, souvent par. Environ 50 % de ces contrôles ont porté sur le respect du règlement REACH. En France, augmenter la fréquence et la qualité des contrôles sur les produits chimiques était une demande du Grenelle de l'environnement ainsi que du second Plan national Santé Environnement et du Plan santé au travail. Le législateur a prévu des sanctions dont le caractère dissuasif pour les grands groupes est mis en débat, allant de l'amende administrative (encore inexistante en 2012 dans le domaine des installations classées pour la protection de l'environnement), à la consignation de sommes et à des interdictions de fabrications ou d'exportations de produits chimiques. Le parquet (ministère public) doit être prévenu des contrôles effectués, sans préjudice des règles particulières applicables à l'inspection du travail. Les problèmes les plus fréquemment relevés par les inspecteurs étaient en 2010 les non-conformités de la fiche de données de sécurité des produits classés dangereux (qui doit être conforme à l' et à l' du règlement (CE) ), des défauts d'étiquetage ou notices de produits biocides. En 2010, sur plus de, environ 2 % des constats (dont ceux ayant montré des usages interdits de produits chimiques) ont été suivis de sanctions administratives et pénales.
Une substance chimique, ou produit chimique (parfois appelée substance pure), est tout échantillon de matière de composition chimique définie et présentant des propriétés caractéristiques (couleur, odeur, densité, point de fusion), indépendamment de son origine.
xwikis
La charge électrique est une notion abstraite, comparable à celle de masse, qui permet d'expliquer certains comportements. Contrairement à la masse, la charge électrique peut prendre deux formes, que l'expérience amène à considérer comme « opposées » ; on les qualifie arbitrairement de « positive » et « négative ». Deux charges de même nature, deux charges positives par exemple, se repoussent, alors que deux charges de nature opposée s'attirent. On appelle ce phénomène interaction électromagnétique. L'interaction entre les charges et un champ électromagnétique est la source d'une des quatre forces fondamentales. Ces champs électromagnétiques, en mécanique classique, obéissent aux équations de Maxwell. La charge électrique peut être directement mesurée avec un électromètre. Son unité est le coulomb. Les particules observées possèdent des charges qui sont des multiples entiers de la charge élémentaire qui est une constante physique fondamentale (excepté pour les particules appelées quark qui ont une charge électrique correspondant à un entier multiplié par e/3). Les quarks ont des charges fractionnaires de -1/3 ou +2/3, mais des quarks libres n'ont jamais été observés. La raison théorique avancée pour expliquer cette observation est la liberté asymptotique. La nature discrète de la charge électrique a été démontrée par Robert Millikan dans l'expérience qui porte son nom.La charge électrique est découverte par les anciens Grecs qui constatent que le frottement de la fourrure sur diverses substances, telles que l'ambre, produit un déséquilibre de charge électrique (phénomène triboélectrique). Les Grecs notent que des boutons en ambre chargés pouvaient attirer des objets légers tels que des cheveux. Ils remarquent également que s'ils frottent l'ambre assez longtemps, ils peuvent même obtenir une étincelle. Le mot « électricité » dérive de « "ηλεκτρον" », le mot grec pour « ambre ». Au, l'étude de l'électricité devient populaire. On réalise des expériences d'électrostatique au cours desquelles, à l'aide de dispositifs jouant le rôle de condensateurs tel que la bouteille de Leyde, on atteint des tensions suffisamment élevées pour provoquer des commotions. Par une série d'expériences (1733), l'intendant du Fay distingue deux sortes d'électricité : l'électricité vitreuse (+) et l'électricité résineuse (-) correspondant aux deux types de comportement de la matière lors d'une électrisation par frottement. À la même époque, Benjamin Franklin imagine l'électricité comme étant un type de fluide invisible présent dans toute la matière. Il pose comme principe que le frottement de surfaces isolantes met ce fluide en mouvement et qu'un écoulement de ce fluide constitue un courant électrique. Il pose également comme principe que la matière contenant trop peu de ce fluide est chargée négativement, chargée positivement sinon. Arbitrairement, en tout cas pour une raison qui nous est inconnue, il identifie le terme « positif » avec le type de charge acquis par une tige de verre frottée sur de la soie, et « négatif » avec celui acquis par une tige en ambre frottée avec de la fourrure. Peut-être dû au potentiel électrique de la matière.Nous savons maintenant que le modèle de Franklin était trop simple. La matière se compose réellement de deux genres d'électricité : les particules appelées « protons » qui portent une charge électrique positive et les particules appelées « électrons » qui portent une charge électrique négative. Le courant électrique peut avoir différentes causes : un écoulement de particules négatives, par exemple dans un conducteur métallique, ou un écoulement de particules positives, ou encore un écoulement de particules négatives et positives dans des sens opposés, par exemple dans une solution ionique. Pour réduire cette complexité, les électriciens emploient toujours la convention de Franklin et imaginent le courant électrique, connu sous le nom de « courant conventionnel », comme constitué d'un écoulement de particules exclusivement positives. Le courant conventionnel simplifie les concepts et les calculs, mais masque le fait que dans quelques conducteurs (électrolytes, semi-conducteurs, et plasma) les deux types de charges électriques se déplacent dans des directions opposées, ou que dans les métaux, les charges négatives sont quasi exclusivement responsables de la circulation du courant. Ces derniers paramètres sont l'affaire des scientifiques de recherche sur le sujet et des ingénieurs de conception en électrotechnique et électronique.Hormis les propriétés décrites concernant l'électromagnétisme, la charge est un invariant de la théorie de la relativité : n'importe quelle particule de charge "q", quelle que soit sa vitesse, gardera toujours sa charge "q"Dans le système international d'unités, la charge électrique a pour unités le coulomb, de symbole C, qui constitue une unité dérivée, dont le nom vient de celui du physicien français Charles-Augustin Coulomb. Par définition, c'est la quantité de charge transportée en 1 seconde par un courant électrique ayant une intensité de 1 ampère. Par suite =, et la charge électrique Q a pour dimensions [Q]=A.T. Dans le contexte industriel ou en ingénierie, l'ampère-heure (, aussi écrit ampèreheure) ou ses sous-multiples sont couramment employés à la place du coulomb, par exemple pour indiquer la capacité d'une batterie, avec =. L'intérêt de cette unité est de pouvoir rapidement évaluer la durée de fonctionnement d'une batterie débitant un courant d'intensité donnée, ainsi par exemple une batterie d'une capacité de délivrant un courant d'intensité pourra théoriquement fonctionner 30 heures, 15 heures si le courant est de, etc.Mise en évidence en 1785 par le physicien français Charles-Augustin Coulomb, la loi de Coulomb permet d'exprimer la force formula_1 exercée par une charge électrique de valeur formula_2 sur une autre charge électrique de valeur formula_3, toutes deux supposées ponctuelles, et fixes dans le référentiel d'étude. La loi de Coulomb s'écrit: avec: Clairement, si les charges sont de même signe, alors la force est "répulsive", alors que dans le cas contraire elle est attractive. La loi de Coulomb a une forme similaire à la loi de Newton pour la gravitation universelle, qui permet d'exprimer la force formula_11 exercée par une masse formula_12 sur une autre masse formula_13, supposées ponctuelles, et qui s'écrit avec les mêmes conventions que précédemment: avec "G" constante de gravitation universelle, "G = ". Par comparaison des deux expressions, il est clair que les deux forces varient en raison inverse du carré de la distance, sont toutes deux de portée infinie, et que la charge électrique joue pour en électrostatique le même rôle que la masse (gravitationnelle) pour la gravitation universelle. Toutefois, deux différences majeures sont à signaler:
La charge électrique est une propriété fondamentale de la matière qui lui permet d'interagir par le biais de champs électromagnétiques. Il s'agit d'une grandeur scalaire, qui joue pour l'interaction électromagnétique le même rôle que la masse pour l'interaction gravitationnelle. Toutefois, contrairement à cette dernière, il existe deux types de charges électriques, que l'on distingue par leurs signes, positif ou négatif. Des charges de même signe se repoussent, tandis que celle de signes opposés s'attirent. Dans la matière ordinaire, il y a équilibre entre les charges positives et négatives, on parle de "neutralité électrique".
xwikis
Après avoir passé son baccalauréat en 1907, il entreprend une tournée de conférences sur l’espéranto et la littérature française aux États-Unis. Il poursuit ensuite ses études à Cambridge et à la Sorbonne, où il obtient une licence ès lettres en 1911. Établi à Paris pendant la Première Guerre mondiale, il collabore au quotidien parisien "Le Temps" et est envoyé par ce journal en Autriche-Hongrie et en Pologne. Dans ses articles, il défend les principes de la souveraineté nationale. C’est à cette époque qu’il se lie d’amitié avec Romain Rolland. En 1918, il soutient sa thèse de doctorat ès lettres traitant de la question polonaise. Dès le début des années trente, Edmond Privat se consacre à l’Inde. Il organise l’accueil de Gandhi en Suisse et effectue en outre des voyages en Inde et en Angleterre pour y plaider la cause indienne ; il assume d’autre part la présidence du Comité pour l’indépendance de l’Inde. Pendant la Seconde Guerre mondiale, Edmond Privat et sa femme se consacrent à l’aide aux réfugiés, au Tessin. Il adhère en 1936 à la Société religieuse des Amis (quakers). En 1945, il est nommé professeur de langue et de littérature anglo-saxonnes à l’université de Neuchâtel. Il prend sa retraite en 1959. Tout au long de sa vie, il collabore avec de nombreux journaux, dont "L'Essor" et "La Sentinelle", en tant que chroniqueur de politique internationale. Edmond Privat était à la fois un pionnier très actif de l’espéranto, un pacifiste convaincu et un ardent défenseur des droits de l’homme et de l’indépendance des peuples. Il fut rédacteur en chef de la revue "Esperanto" durant l'entre-deux-guerres. On lui doit des poèmes en espéranto.Les archives d’Edmond Privat sont réunies en un fonds.
Edmond Privat, né le à Genève et décédé le à Rolle dans le canton de Vaud, est un journaliste, écrivain, professeur et pacifiste suisse, qui a vécu et enseigné à Neuchâtel.
xwikis
Roger Bernard passe son enfance à Valence-sur-Rhône et dans les montagnes du Diois. À l'âge de 7 ans il ne sait ni lire, ni écrire et, au grand regret de ses parents, ne veut pas aller à l'école, préférant s'occuper des vaches et des chèvres de son grand-père.À l'école, un professeur réussit à donner à Roger la soif de la connaissance. Le futur linguiste reçoit son éducation primaire dans sa ville natale entre 1915 et 1926. En 1925, Roger Bernard gagne le deuxième prix de langue grecque dans un concours national des lycées et collèges. L'année suivante, il gagne le quatrième prix dans un concours de philosophie. À cette époque, Roger Bernard démontre un grand intérêt pour la langue grecque, pour l'allemand et pour la philosophie. De 1926 à 1928 il étudie au Lycée du Parc à Lyon. Entre 1928 et 1929 il étudie à Paris, dans le lycée Louis-le-Grand, puis de 1929 à 1932 à l'École normale supérieure à Paris. À cette dernière, il étudie d'abord l'allemand et, ensuite, la grammaire. Il se concentre surtout sur les bases grammaticales des langues indo-européennes du groupe balto-slave. Au même moment, il prépare une dissertation en philologie et un travail de diplôme sur Euripide, tout en suivant les cours de russe donnés par le professeur Paul Boyer à l'École nationale des langues orientales vivantes. Dans cette dernière il suit également les cours de bulgare du professeur Jordan Ivanov, remplacé plus tard par le professeur Leon Beaulieux. Il acquiert ses premières connaissances en vieux bulgare au Collège de France.En 1932, Roger Bernard est agrégé de grammaire et en 1934 il est diplômé de l'ENLOV en langue bulgare. Entre-temps, en 1933 commence sa carrière d'enseignant de français, de latin et de grec ancien. De 1933 à 1936 il enseigne ces matières au lycée d'Amiens et de 1936 à 1947, au Lycée Buffon à Paris. En 1946, Roger Bernard publie sa première œuvre scientifique : "Étude étymologique et comparative de quelques mots bulgares concernant le vêtement et la parure". L'œuvre (56 pages) est accueillie chaleureusement par les critiques, dont l'académicien Stefan Mladenov, ce qui marque le début d'une longue liste de publications de grande qualité portant sur la langue et la culture bulgares.En 1947, Roger Bernard devient professeur titulaire de bulgare et vieux-bulgare à 'École nationale des langues orientales vivantes, héritant de son professeur Leon Beaulieux. Il introduit dans le curriculum du programme l'apprentissage du vieux-bulgare ('le latin des slaves') et l'étude de la littérature bulgare du au. En 1961, Roger Bernard est élu membre étranger de l'Académie bulgare des sciences. De 1962 à 1977 il donne à la Sorbonne un cours de bulgare et de littérature bulgare médiévale, ainsi qu'un cours de grammaire comparée des langues slaves. Entre-temps, en 1970, il devient docteur ès-lettres. Roger Bernard prend sa retraite en 1977.<br>L'œuvre très variée du Professeur Roger Bernard a pour but, avant tout, l'étude de la langue bulgare, des langues modernes balkaniques et de la littérature bulgare ancienne et moderne. Ses contributions les plus importantes sont au niveau de l'étude de l'étymologie de ces langues. Roger Bernard se pose souvent comme objectif l'explication de l'origine de mots complexes sur la base d'une vaste recherche bibliographique et d'études comparatives entre différentes langues slaves, baltes et indo-européennes. Il contribue pendant trente ans, et avec plus de 4000 fiches, au "Dictionnaire étymologique bulgare" (contributions aux tomes 2 et 3). Roger Bernard traduit également un grand nombre d'œuvres bulgares de l'époque médiévale et de la Renaissance bulgare, dont celles de Grégoire (Grigorij) Camblak (1365-1420), Ivan Vazov, Iordan Iovkov (1880-1937), Elin Pelin et Emilian Stanev (1907-1979). Ses contributions à la Revue des études slaves, dans la rubriques "Chronique bulgare" introduisent également la société française à la linguistique, à la littérature, au folklore, à l'ethnographie, à l'histoire et à l'archéologie bulgares.
Roger Bernard, né le et mort le, est un linguiste et slaviste français de renom, spécialiste de langue bulgare, dont il était professeur à l'École nationale des langues orientales vivantes de Paris. Il était l'élève de Léon Beaulieux. Suivant les conseils du Prof. Paul Boyer, professeur à l'École normale supérieure, il s'inscrit au cours de langue bulgare donné par le professeur Jordan Ivanov en 1929-1930 et passe ses vacances d'été (1930) en Bulgarie. Ainsi débutе son histoire d'amour pour ce pays et sa culture.
xwikis
Baldur Ragnarsson a appris l'espéranto au lycée en 1949 et a été actif dans le mouvement de promotion de cette langue dès 1952, notamment en littérature. Baldur Ragnarsson a été président de l'association islandaise d'espéranto durant de nombreuses années. Il a présidé les concours littéraires organisés par l'association mondiale d'espéranto de 1975 à 1985. Il a été président du comité organisateur du Congrès mondial d'espéranto de 1977 à Reykjavik et vice-président de l'association mondiale d'espéranto chargé de la culture et de l'éducation de 1980 à 1986. Il est depuis membre honoraire de cette organisation. Membre de l'Académie d'espéranto depuis 1979, il a été rédacteur de la revue "Norda Prismo" (1958-1974). En 2007, l'Académie littéraire d'espéranto l'a choisi pour être leur candidat pour l'obtention du prix Nobel de littérature à la suite de William Auld (décédé en 2006).Baldur Ragnarsson a écrit en islandais des recueils de poésie ainsi que des livres sur la langue islandaise. Il a aussi écrit deux célèbres recueils de poèmes en espéranto : "Ŝtupoj sen nomo" et "Esploroj". En 2007 est paru chez "La lingvo serena" : ses œuvres complètes. L'ouvrage contient outre les deux précédents recueils, tous les poèmes qu'il a publiés ainsi que tous les essais qu'il a rédigés sur des thèmes littéraires ou linguistiques.En outre, Baldur Ragnarsson a publié des dizaines de traductions dans diverses revues, ces derniers temps principalement dans la revue "La tradukisto".
Baldur Ragnarsson (né le à Reyðarfjörður et mort le ) est un poète islandais qui écrit notamment en espéranto. Il a été enseignant et inspecteur scolaire en Islande.
xwikis
Kalocsay avait étudié la médecine, puis devint chef du service de chirurgie d'un grand hôpital de Budapest. Adolescent, il apprit à la fois l'espéranto et l'ido, mais il préféra le premier car il y vit un plus grand potentiel littéraire. En 1921 fut édité son premier volume de poésie originale en espéranto, "Mondo kaj Koro" (un monde et un cœur). Une décennie plus tard fut éditée son anthologie "Une corde tendue", considérée comme l'une des plus remarquables compilations de poèmes originaux en espéranto. Apparut aussi "Rimportretoj" (portraits de rimes), des poèmes de forme circulaire (calligrammes) au sujet de plusieurs personnalités importantes à l'époque. De nombreuses personnes pensent qu'il a aussi été l'auteur de "Sekretaj Sonetoj" (sonnets secrets), ensemble de sonnets érotiques publiés sous le pseudonyme « Peter Peneter ». Kalocsay guida la littérature en espéranto par la revue et la maison d'édition éponymes "Literatura Mondo" (le monde littéraire). Ce groupe d'écrivains, unis autour de la revue pendant les années 1930 et 40, avait pour nom la "Budapeŝta Skolo", l'école de Budapest. Les œuvres de Kalocsay au sujet de la littérature et de la linguistique incluent la "Plena Gramatiko de Esperanto" (grammaire complète de l'espéranto) et le "Parnasa Gvidlibro" (guide parnassien), ouvrages élaborés avec Gaston Waringhien, ainsi que le "Lingvo Stilo Formo" (une langue, un style, une forme) au sujet du style en poésie. Kolocsay est l'auteur de nombreuses traductions en espéranto, dont celle de l'Ode à la joie de Schiller (poème mis en musique par Beethoven dans sa symphonie qui fut plus tard adoptée, dans une version abrégée et sur des paroles simplifiées, comme Hymne européen). Kalocsay s'est occupé de l"'Encyclopédie de l'espéranto" en deux volumes. De nombreux auteurs se sont intéressés à Kalocsay, et ses écrits non encore publiés sont maintenant gérés par Ada CSISZÁR.
Kálmán Kalocsay (prononcé ) (1891-1976), est un poète, rédacteur et traducteur en espéranto, dont il a beaucoup influencé l'évolution de la littérature. Il a contribué à la réalisation de l’"Encyclopédie de l'espéranto". Son nom est souvent abrégé en "Kolomano", en espéranto.
xwikis
Le père de Tibor Sekelj était vétérinaire et la famille a déménagé assez souvent. Quelques mois après la naissance de Tibor elle s'est installée à (maintenant en Roumanie) où Tibor a passé les dix premières années de sa vie. La langue maternelle était le hongrois, dans la rue on parlait aussi un dialecte allemand. Tibor avait au moins deux sœurs et un frère Antonije qui a collaboré à plusieurs ouvrages par Tibor. La famille s'installe en 1922 à Kikinda (Кикинда), en Voïvodine, Serbie, Yougoslavie, où Tibor termina l'école élémentaire et apprit le serbo-croate. Il a ensuite étudié le français et l'a mêmeDe 1939 jusqu'à la fin de sa vie Tibor Sekelj a été un voyageur infatigable. Même s'il revenait en Serbie entre deux voyages, son envie d'explorer de nouveauxAyant vécu à Zagreb, en 1939, aspirant à un horizon plus vaste, il a atteint l'Argentine par bateau, pour faire un reportage sur les émigrés yougoslaves en tant que reporter pour le journal "Hrvatski Dnevnik" de Zagreb. Tibor Sekelj navigua sur le navire "Teresa", qui appartenait alors à la Société Cosulich de Trieste partant de Rijeka (appelée alors Fiume, en Italie), à Buenos Aires, avec des arrêts à Naples, Gênes (Italie) Santos (Brésil), Montevideo (en Uruguay)... Tibor a reçu un visa touristique auprès du consulat argentin à Zagreb le et atteintEn 1944, sans expérience d'alpinisme antérieure, il a participé à une expédition à destination de l'Aconcagua la plus haute montagne () d'Amérique, menée par Georg Link, un alpiniste suisse allemand connu. Avec l'Autrichien Zechner et l'Italien Bertone, il atteint le sommet le. L'expédition a été tragique : quatre des six jeunes qui y ont participé ont péri dansEn raison du succès de son premier livre, son éditeur le pressait d'en écrire un second, et pour qu'il ait un sujet à traiter, l'éditeur a financé par deux mille dollars une expédition à destination de régions mal connues des forêts brésiliennes du Mato-Grosso. Meri Reznik (1914-1996), argentine d'origine russe, qu'il a épousée un an plus tard, se joignit à l'expédition. De Tibor et Meri est né à Buenos Aires en 1949, un fils Diego Reinaldo Sekelj, qui vit maintenant à New York, aux États-Unis, avec le nom de Daniel Bernstain suivant le nom du second mari de Marie Reznik. Tibor et Meri ontEn 1948, une nouvelle expédition dont le but initial était de rencontrer les Jivaros - ce à quoi il ne réussit pas- le conduisit en Bolivie, où il rencontra le président Enrique Hertzog qui l'a encouragé à explorer la région encore inexplorée de la rivière Itenez qui s'étend jusqu'au Brésil. Au cours de ce voyage, il a rencontré la tribu des Tuparis -S'étant rendu en Grande-Bretagne au congrès mondial d’espéranto au cours de l'été 1949, et après un séjour de sept mois en Europe, Sekelj est retourné en Amérique du Sud, cette fois au Venezuela où pendant un an et demi il est devenu le gérant d'un magasinParmi ses visites en Amérique centrale, il a mentionné une visite aux îles San Blas au Panama où vivent les amérindiens Kuna, la tentative d'escalader le volcan Izalco au Salvador qui échoua à cause d'une éruption, la découverte d'une ancienne ville ruinée au Honduras, sur lesquels chacun connaissait des légendes, mais que personne n'avait vue, et construite par des Indiens moins civilisés. En parallèle avec ses explorations Sekelj s'est occupé d'archéologie et d'anthropologie. Au Guatemala et au Honduras, il a étudié la civilisation des Mayas et a visité presque tous les vestiges archéologiques. Arrivé au Mexique en 1953, il est invité par les clubs d'alpinisme à participer à des expéditions, car ils voyaient en lui un maître parce que son livre "Tempestad sobre el Aconcagua" qui a connu un grand succès était considéré comme un manuel pour l'escalade de montagne. Il a ensuite grimpé le Popocatepetl, l'Ixtaccíhuatl et de nombreux autres volcans et montagnes, et a alors conforté son expertise. Une exploration intéressante a été la traversée souterraine le long du fleuve San Heronimo qui s'est percé un chemin de dans l'intérieur de la montagne.En 1954 retourné en Yougoslavie, il s'installe à Belgrade où il a été chaleureusement accueilli par le gouvernement et le peuple à cause de ses expériences intéressantes et de son message humanitaire. Nombre de ses articles ont paru dans les journaux et plusieurs de ses livres ont ensuite été traduits dans les langues serbe, slovène, hongroise, albanaise, et en espéranto.En 1956, il a entrepris un voyage en Asie en voiture, afin de participer, en tant qu'observateur de l'association mondiale d’espéranto, à la conférence de l'UNESCO prévue à New Delhi. Il a dû abandonner sa voiture en panne à Téhéran et a continué son voyage en bus et par le rail. Au cours de ce voyage, il a eu des entretiens avec le Premier ministre Nehru et sa fille, le futur premier ministre Indira Gandhi et est devenu ami avec le futur président, le Radhakrishnan. Dans l'ambassade yougoslave, il a rencontré Ljubomir Vukotić, alors président de la Fédération mondiale des sourds qui participait à une conférence avec les représentants indiens et chinois pour mettre en placeAprès un séjour de six mois en Europe, il s'est envolé à nouveau pour l'Inde pour enseigner l'espéranto à Vinoba Bhave qui maîtrisa la langue au bout d'un mois. Il continua à visiter l'Inde pendant encore cinq mois et en, il s'est envoléEn 1961, à l'invitation d'espérantistes marocains, il s'est rendu au Maroc et a rejoint une caravane de Touaregs dans le Sahara. Entre deux voyages, il a vécu à Belgrade. En se mit en route vers l'Afrique sa "Caravane de l'Amitié", composée de huit personnes de quatre pays dans deux voituresEn 1965, en se rendant au Congrès d'espéranto devant se tenir à Tokyo, il a volé à travers la Russie (Moscou) et la Sibérie (Irkoutsk et Khabarovsk), atteignit Nahodka en train et Yokohama en bateau. Étant resté un mois au Japon, il commença son retour en train àEn 1970, envoyé par la télévision yougoslave, il s'est envolé pour visiter l'Australie, la Nouvelle-Zélande et la Nouvelle-Guinée, où il est resté pendant six mois. Là il a escaladé le mont Kosciuszko. En Nouvelle-Guinée, il a rencontré des gens qui jusque-là n'avaient eu que très peu de contactsEn 1972, à l'occasion du Congrès international des ethnologues à Chicago, il a visité les régions de l'est du Canada et des États-Unis. En 1977, au cours du même événement, à Leningrad, il a commencé un voyage en Ouzbékistan et en Asie centrale. Dans la même année, il a participé à un festival des cultures nègres et africaines à Lagos (Nigeria). En 1978, il visita de nouveau certains pays d'Amérique du Sud pour faire des reportages pourSekelj a consacré beaucoup de son énergie pour la défense de l'espéranto. Membre du conseil d'administration de l'Association mondiale d'espéranto depuis 1946, pendant plus de 30 ans (avec quelques années d'interruption quand il était en conflit avec Ivo Lapenna), en raison de son activité dans le cadre de l'IOE, il a cherché à prendre part à un grand nombre de congrès mondiaux d'espéranto. En tant que représentant de l'association mondiale ou du Comité international pour lesEn 1972, il est nommé directeur du musée municipal de Subotica (Serbie - Voïvodine) qu'il dirigea professionnellement pendant 4 ans. C'est sur le tard dans les années 1970 qu'il a fait des hautes études en muséologie à l'Université de Zagreb sanctionnées par un doctorat (en 1976), mais il a quitté son emploi presque immédiatement après, n'ayant pas reçu le soutien pour ses idées et ses projets. Il a participé au Congrès mondial d'ethnographes à Chicago aux États-Unis et au Congrès mondial des muséologues à Copenhague, où il a été élu secrétaire du Comité international des muséologues,Tibor Sekelj a fait preuve d'un talent certain dans divers domaines liés les uns aux autres. Il était journaliste, explorateur, aventurier, alpiniste, écrivain, graphiste, cinéaste, géographe, ethnologue, muséologue, polyglotte, pédagogue, et a agi dans le domaine politique, entrant en relation avec des responsables politiques dont, notamment, plusieurs chefs d'État. Il s'est particulièrement distingué par sa défense de l'espéranto à l'UNESCO au nom de l'association mondiale d’espéranto. Il faut souligner sa vision du monde reliant tous les domaines dans lesquels il a agi, et ses contacts avec des gens de toutes les parties du monde.En voyageant, il était géographe en soi, mais la vie l'a forcé à devenir un véritable géographe qualifié et dans ce sens il a exploré et dessiné des cartes de plusieurs parties d'Amérique du Sud jusqu'ici inexplorées, en particulier en Bolivie et au Brésil. C'est pourquoi une rivière auIl a appris le journalisme au cours de ses années d'étude à Zagreb et y devint correspondant de journaux croates: l'un d'eux, " Hrvatski Dnevnik", l'envoya comme correspondant en Argentine, pour faire un reportage sur les émigrés yougoslaves, et c'est ainsi qu'en 1939 il est devenu voyageur. Au bout de deux ans sa maîtrise de la langue espagnole est suffisante pour qu'il soit en mesure de travailler pour des magazines, et de publier à Buenos Aires, dans la langue espagnole, un magazine mensuel ""Rutas"" (Itinéraires)Le premier emploi de Sekelj après avoir obtenu son diplôme à Zagreb était dans l'entreprise de cinéma "Merkurfilm", qui l'a envoyé pour étudier la réalisation à Prague avec le réalisateur tchèque Otakar Vávra pendant 6 mois. Après son retour en Yougoslavie dans les années soixante la télévision avait conquis un rôle important dans l'information. C'est pourquoi les enquêtes sur les régions inconnues nécessitaient un matériel non seulement iconographique mais aussi filmographique. Tibor a accepté le défi et il a alors commencé à utiliser ses connaissances comme cinéaste et réalisateur, mais aussi technicien du son et de la lumière, effectuantEn Argentine, il a acquis une expérience d'alpiniste en se préparant et en participant à l'expédition de l'Aconcagua, montagne dangereuse sur laquelle il est retourné une seconde fois. Ensuite il a escaladé un grand nombre de sommets élevés sur tous lesAu cours de ses voyages, il s'est spécialisé dans la collecte de masques autochtones, de chapeaux, d'instruments de musique et de la poésie non-écrite indigène, à propos de laquelle il a publié leBien que ce n'a jamais été son but, l'aspect le plus attractif de sa vie pour le public, en particulier non-espértantiste est son aspect aventureux. À la recherche de l'essence de l'âme humaine, il a dû rencontrer toutes sortes de gens dans les parties du monde les plus difficilement accessibles. Il aParmi d'autres talents Sekelj avait la capacité de se faire rapidement des amis et d'être en mesure d'entrer en relation et de convaincre des responsables politiques. Au cours de ses voyages, il a été reçu par une vingtaine de chefs d’État et leur a souvent fait des suggestions utiles, ayant étudié et s'étant fait une vison détaillée de leurs pays. Au cours de sa vie, il a rencontré plusieurs chefs d’État: de Perón (président argentin) il a reçu la distinction Condor d'or en 1946 et une proposition d'accepter la nationalité argentine en raison de ses mérites dans l'ascension de l'Aconcagua. Il s'est entretenu avec Nehru (premier ministre de l'Inde) et sa fille Indira Gandhi (devenue ultérieurement premier ministre de l'Inde), et il se lia d'amitié avec Radhakrishnan (qui devint plus tard président de l'Inde). Le président bolivien Enrique Hertzog l'a envoyé explorer des régions inconnues de la Bolivie en 1948 et en 1949, et lui a proposé d'établir sur le territoire bolivien un territoire pour les réfugiés européens après la Seconde Guerre mondiale et mis à sa disposition pour cela. TiborTibor Sekelj était connu comme polyglotte. Il a appris à un bon degré d'usage et pouvait parler à différentes périodes une trentaine de langues en tout. Il a gardé une maîtrise et un usage de neuf d'entre elles jusqu'à la fin de sa vie :,,Toute sa vie depuis qu'il a appris l'espéranto à Zagreb en 1930, il a été fidèle à l'espéranto. Son action pour l'espéranto est considérable. Il a fondé une douzaine associations nationales d'espéranto en Amérique du Sud et en Asie, et des sociétés espérantistes dans une cinquantaine de villes dans le monde entier. Il a été plus de 20 ans membre du conseil d'administration de l'Association mondiale d'espéranto et le principal ouvrier de la deuxième résolution de l'UNESCO de manière positive face à l'espéranto en 1985. Il a écrit un tiers de ses œuvres originalement en espéranto. Il a écrit beaucoup d'articles pour une grande variété de journaux et magazines espérantistes, et il a été le rédacteur en chef d'une revue géographique de E-revuo et de VELO. Mais son action révolutionnaire pour l'espéranto est liée à la fondation etIl a également influencé l'enseignement de l'espéranto. C'est à lui que l'on doit le lancement du premier cours d'espéranto télévisé en Chine dans les années 1980. Il a écrit plusieurs manuels. Les auteurs étaient A. et T. Sekelj et les illustrations de Klas Aleksandar et Novak Koloman. Il existait aussi sous la forme d'un diaporama. Il a donné lui-même un grand nombre de cours partout où il a voyagé, et a entre autres participé à l'amélioration du manuel selon la méthode de Zagreb. Tibor Sekelj en tant que pédagogue a donné entre et conférences, le plus souvent avec des diapositives sur ses voyages, a écrit d'innombrables articles, y compris très souvent sur l'espéranto dans la presse nationale et a été interviewé plusieurs centaines de fois pour des radios des journaux et des télévisions en langues nationales, et à chaque fois il donnait des informations sur l'espéranto.Partout, où il était, il a essayé dans ses conférences et ses activités de faire comprendre à son auditoire sa philosophie de vie simple: l'homme comme individu est la chose la plus précieuse dans son environnement qu'il connaît le mieux indépendamment de son origine ou de son instruction (Ceci est le plus clairement exprimé dans son œuvre «Kumeŭaŭa ») et l'homme comme être culturel social est le produit de l'humanité tout entière, car dans toutes sesEn plus d'être écrivain - donc artiste de plume - Tibor était également peintre et sculpteur, arts qu'il a également étudiés à Zagreb au cours de ses années estudiantines. Au début de son séjour en Argentine, il gagnait sa vie notamment comme portraitiste, et souvent il a illustré ses propres livres.Tibor est un des plus grands écrivains espérantistes originaux du point de vue de sa notoriété dans le monde non-espérantiste, peut-être le plus célèbre, suivant le nombre de ses ouvrages traduits de l'espéranto. Son œuvre littéraire la plus connue "Kumeuaŭa - la filo de ĝangalo" (Kumewawa - le fils de la jungle) est traduit en une trentaine de langues de presque tous les continents et d'autres œuvres en deux jusqu'à une dizaine de langues. Il a écrit à l'origine en trois langues : l'espagnol, l'espéranto et le serbo-croate. De sa plume sont nés trente volumes différents, en particulier des essais, des romans, récits de voyage et de la poésie. Et même quelques curiosités. L'ensemble a fait l'objet d'une centaine de parution en différentes langues. SonLes ouvrages de Tibor Sekelj, romans ou récits de voyages, contiennent d'intéressantes observations ethnographiques. Il a également écrit des manuels et des essais sur la langue internationale. Les langues dans lesquelles Sekelj a écrit ses ouvrages sont l'espagnol l'espéranto et le serbo-croate d'où ils ont été traduits dans de nombreuses autres langues. Tibor Sekelj est d'ailleurs sans doute l'auteur espérantophone le plus traduit en langues nationales.Lors de ses voyages en Amérique du Sud, en Afrique, en Asie, et enTibor Sekelj collabora au dictionnaire en
Tibor Sekelj (parfois appelé Székely Tibor selon la graphie hongroise, né le à Spišská Sobota en Autriche-Hongrie, mort le à Subotica en Yougoslavie, Voïvodine) était un citoyen du monde yougoslave d'origine hongroise, journaliste, explorateur, auteur et juriste. Il a entrepris des expéditions à travers toute l'Amérique du Sud, l'Asie et l'Afrique. Contrairement à d'autres globe-trotters et explorateurs le but de ses recherches n'était pas essentiellement l'aspect matériel du monde, mais il voulait comprendre et découvrir l'essence de l'âme humaine. Les champs d'activité sur lesquels il s'est illustré avec beaucoup de succès sont nombreux.
xwikis
Le mot "temps" provient du latin "tempus", de la même racine que le grec ancien, couper, qui fait référence à une division du flot du temps en éléments finis. "temples" ("templum")Selon les "Définitions" deLe temps historique est découpé en trois périodes : Dans certaines religions ou croyances, le futur, projet ou dessein d'une force surnaturelle, peut déterminer le présent ; cependant, le principe de causalité affirme que l'effet ne peut précéder la cause. Ce principe donne une définition implicite du temps : le temps est l'ordreLe "Chronos" ( : « temps, durée de temps ») est un concept qui, adjoint à l’"Aiôn" ( : « temps, durée de la vie "d'où" destinée, sort ») et au "Kairos" ( : « moment opportun, occasion »), permet de définir le temps. Ces concepts sont apparus chez les Grecs. Le "Chronos" est le tout du temps, relatif au présent :. C'est un point mouvant sur la flèche du temps qui définit les infinis à ses deux bornes. La notion de temps est un corollaire de la notion de mouvement : le mouvement est la variation des choses la plus accessible à la perception. La variation n'existe que dans la durée. Ainsi, selon Aristote, le temps est le nombre du mouvement selon l’antérieur et le postérieur. Ces notions font notamment appel à la mémoire, individuelle ou collective (sociale : familiale, clanique, tribale, ethnique, d'un peuple ou d'un collectif situé géographiquement) : le classement des événements dans un ordre quelconque ne peut se faire que si l’observateur (les observateur/trices) se souvient (se souviennent), de manière spontanée (remémoration spontanée) ou construite (effort de mémoire), individuelle ou collective (mémoire collective ou sociale (Henri Hubert, Maurice Halbwachs), locale, populaire, professionnelle, etc.). De façon opposée, la mémoire se construit grâce au fait que certains événements se répètent (saisons, évènements), autorisant ainsi l’apprentissage (individuel ou collectif). De façon plus générale, il sembleToutes les cultures ont apporté des réponses nombreuses au questionnement sur le temps, et la plupart d’entre elles tournent autour des mêmes thèmes, dictés par la condition humaine : l’immortalité des dieux ou l’éternité de Dieu, la permanence du cosmos et la vie fugace de l’homme, sont autant de dimensions temporelles partagées par la plupart des peuples de la Terre. Elles s’expriment dans le langage, dans les arts... Pourtant, toutes ne portent pas la même vision intime du temps. Le partage le plus évident pour l’observateur des civilisations est sans doute la séparation entre une vision linéaire du temps, prévalant en Occident, et une vision cyclique de l’ordre temporel, prévalant par exemple en Inde (cf. l’œuvre de Mircéa Eliade).Le temps est souvent représenté de façon linéaire (frises chronologiques). Cependant, des représentations en spirales, voire en cercles (le temps est un éternel recommencement) peuvent être trouvées marquant ici l'aspect cyclique et répétitif de l'histoire des hommes. Dans presque toutes les cultures humaines le locuteur se représente avec le futur devant et le passé derrière lui. Ainsi en français on dit « seHéritée du védisme, la croyance en une succession d’un même temps, ou plutôt d’une même durée cosmique, se retrouve dans le brahmanisme et l’hindouisme. Le cosmos et tout le monde sensible y est assujetti à un renouvellement cyclique et infini, où périodes de destruction et de reconstruction se succèdent pour redonner naissance au même Univers. C’est une renaissance et un retour éternel. Chaque cycle est une "kalpa", schématiquement scindée en quatre âges au sein desquels l’Univers périclite graduellement. Cette vision cyclique sera reportée à l’Homme dans le bouddhisme, à travers la croyance en la réincarnation. La vie de l’Homme, aux yeux du bouddhiste, est telle une "kalpa", lui conférant l’immortalité des premiers dieux occidentaux. En Occident, précisément, le temps suit un ordre tout autre et témoigne d’une vision du monde bien différente. La tradition judéo-chrétienne hérite elle-même de vues mystiques plus anciennes, où le temps pur est celui des dieux et divinités. Les hommes connaissent une vie éphémère, limitée;Écrire un récit, prédire le retour d’une comète, lister une série de dates : chacune de ces actions est directement liée au temps. Pourtant, il y joue des rôles divers. Il peut être essentiellement un repère plus ou moins explicite, comme dans le récit ou la liste de dates. Mais il peut également être l’objet d’étude de la connaissance. Dans tous les cas, il est essentiel de le quantifier pour l’aborder dans le détail, que cette quantification soit figurée ou bien précise et effective (réaliséeLe temps est orienté : il coule du passé au futur. Grâce au profond sentiment de durée, l’être humain peut agir, se souvenir, imaginer, mettre en perspective... si bien que le temps lui est essentiel, et par-là, banal. Le niveau de complexité du rapport au temps est assez bien traduit par le langage, bien qu'imparfaitement : certaines cultures primitives ont peu de mots porteurs d’un sens temporel, et se situent essentiellement dans le présent et le passé. Pour les peuples anciens de Mésopotamie, par exemple, le futur est « derrière » et le passé, connu, est placé « devant ». Dès lors qu’un peuple s’intéresse à l’avenir, toutefois, cet ordre intuitif s’inverse : on attend du temps qu’ilL’instant est le produit de la projection du présent dans la série successive des temps, c’est-à-dire que chaque instant correspond à un présent révolu. Le présent lui-même est cependant à son tour une abstraction, puisque personne ne vit un présent pur, réduit à une durée nulle. Le passé est l’accumulation, ou plutôt l’organisation des temps antérieurs, selon des rapports chronologiques (succession) et chronométriques (les durées relatives). Le futur est l’ensemble des présents à venir. Seuls les contenus à venir, les évènements futurs, sont susceptibles d’être encore modifiés. C’est ce qui fait que l’avenir n’est pas encore.Le temps suppose le changement, mais ces changements ne peuvent être intégrés dans la pensée d’un objet que si l'on pose sous ces changements une substance. Les Grecs, contrairement aux Hébreux, étaient étrangers à l’idée de création. Le cosmos avait toujours existé, le temps était inséparable des cycles astronomiques, la matière, sous-jacente aux formes, était éternelle et incréée. Si les formes étaient elles aussi éternelles, l’information était fugitive, du moins en ce qui concerne le monde physique dans lequel vivent les hommes, par opposition au ciel. « Éphémère » est le mot qu’utilisaient les Grecs pour parler de la condition des hommes. Les hommes apparaissent pour disparaître, écrit Jean-Pierre Vernant. Ils manquent de consistance, d’être. Étymologiquement, en effet, est éphémère ce qui ne dure qu’un jour et se fane aussitôt dans la mort et l’oubli. À défaut de gagner l’éternité, réservée aux dieux, les anciens souhaitaient sans doute gagner de la permanence. Contrairement à l’Éternité, la permanence n’est pas hors du temps. Est permanent au sens le plus fort du terme ce qui durera toujours, voire ceLe temps est, par exemple pour Newton, un flux continu. Comme bien souvent, l’analogie avec le mouvement – largement exploitée par les philosophes de toutes époques, à divers degrés d’abstractions – permet de donner un premier éclairage au concept du temps. La continuité d’un mouvement n’est pas une chose facile à imaginer. Zénon, dans ses paradoxes, avait mis au jour la dualité entre le mouvement fini et le temps infini du parcours. En effet, la première intuition du mouvement est celle d’une transition spatiale, continuelle, entre deux points de l’espace séparés par d’infinies positions intermédiaires. De manière analogue à la suite infinie des divisions entières, l’espace semble selon cette description être un "continuum" infini. Pourtant, les mouvements perçus par nos sens s’effectuent bel et bien en un temps fini! Zénon explique que chacun aura du mal à imaginer comment une infinité de positions peut être parcourue en une durée finie. Imaginer des bonds dans un espace de points séparés par du vide pour définir le mouvement, comme l’ont fait les pythagoriciens, n’est pas satisfaisant, car cela conduirait par exemple à admettre une vitesse uniforme pour "tous" les mouvements. Un mouvement "plus lent" serait un mouvement plus long, et un mouvement "plus rapide", un mouvement plus court. On peut, pour dresser un premier état des lieux, conclure avec Russell que. Zénon ne fait pas ici que détecter un paradoxe. Il sait comme nous qu'Achille rattrapera la tortue et un temps donné, et montre que c'est le fait de décrire le problème de cette façon qui empêche de le résoudre. En langage contemporain, nous dirions qu'il définit une valeur finie par un algorithme infini. Tout le problème du temps, et de l’espace, repose ici sur la difficulté à imaginer des grandeurs infinitésimales.Le temps de la science renvoie largement à sa conceptualisation philosophique, à la fois du fait des questionnements que l’étude rationnelle suscite, mais aussi par les progrès qu’elle apporte : progrès dans la mesure, progrès dans la perception. S’il est vrai que l’essentiel du rapport scientifique au temps réside dans sa représentation — que les scientifiques souhaitent toujours mieux adaptée et plus précise — l’histoire de la « dimension temps » apprend beaucoup sur l’essence du temps. Le souci de lui conférer une objectivité propre a amené les scientifiques de toutes époques à considérer son étude avec beaucoup de pragmatisme. Cependant, du temps « instantané » de la mécanique newtonienne au temps dépendant et paramétré de la théorie de la relativité, étroitementLa vision moderne du temps est donc paradoxalement à la fois plus anthropocentrique "et" plus distante de l’être humain que celle qui prévalait jusqu’à Newton. Il fallait, des Anciens grecs jusqu’à Kant, décider si le temps était "dans" ou "hors de nous", mais toujours de notre point de vue : voilà que la science propose un temps existant pour lui-même! Mais ce temps-là est dépendant d’autres réalités, au premier rang desquelles l’espace et la matière – et nous vivons précisément dans l’espace, par la matière. Le temps nous est donc viscéralement acquis mais en partie masqué. Par les exemples de flèches du temps, on réalise également plus aisément pourquoi notre compréhension intuitive du temps est orientée, du passé au futur. Toutefois, là où la science a fait du temps un élément créateur, l’homme continue de subir le temps et son ambiguïté, en victime malheureuse du solipsisme. De fait, d’anthropocentrique le temps dérive dans la pensée de certains modernes sur le terrain de l’anthropomorphisme. L’être humain a une vision schématique du temps, entre passé, présent et avenir : les raisons en sont maintenant connues. Mais si on comprend pourquoi notre conscience nous dicte une telle représentation face à l’expérience, il est plus crucial de se demander pourquoi le temps se présente à nous sous le jour de la « flèche du temps ». Lorsque nous donnons au temps l’image d’une droite fléchée, c’est son cours que nous représentons. En barrant cette droite d’une perpendiculaire pour marquer l’instant présent, cloisonnant passé et futur dans deux compartiments psychologiquement hermétiques, nous représentons le devenir. Pourtant, le présent est fixe, par définition. L’instant présent n’appelle rien d’autre que lui-même, mais le voilà déjà chassé par un autre moment, qui le remplace aussitôt. Sur la droite fléchée du temps, la barre duComme précédemment expliqué, un problème essentiel a consisté (et consiste encore, par exemple en physique quantique) à choisir le rôle que le temps va jouer dans un système de lois. La façon dont le concept de temps est pensé a une implication très forte sur le résultat d’ensemble : le temps peut-être un paramètre immuable (mécanique classique), ou une grandeur malléable au gré des phénomènes (relativité générale). Il peut être donné "a priori" ou construit, pour apporter une réponse sur-mesure à un problème. Mais quelle que soit la conceptualisation du temps, le problème de sa mesure demeure. Trivialement, l’homme a une expérience faible du temps comparée aux concepts qu’il peut imaginer pour le définir : il a simplement l’intuition d’un temps qui s’écoule, et il n’est pas surprenant qu’il ait cherché à utiliser cette propriété de son univers comme repère. Cela suppose de pouvoir mesurer le temps, donc de la quantifier. Paradoxalement, le temps est un objet de mesure très simple. Il est de dimension un : pour exprimer une date, un seul nombre suffit. Ce n’est évidemment pas le cas de l’espace tridimensionnel. Cette propriété singulière du temps implique cependant une première complexité : le temps doit-il être schématiquement représenté par une droite (temps linéaire) ou un cercle (temps cyclique)? La physique, et la cosmologie en premier lieu, a apporté la notion de flèche du temps, donc d’un temps linéaire, mais il n’en fut pas toujours ainsi. L’Éternel Retour, l’Âge d’Or sont des illustrations de la croyance en un temps cyclique.Deux approches différentes ont coexisté : En fait, les deux façons de faire se rejoignent, car marquer deux moments distincts revientDepuis 1967, la seconde est définie à partir d’un phénomène physique qui est à la base du concept d'horloge atomique : le temps nécessaire à un rayon lumineux bien accordé pour effectuer oscillations. Ce rayon lumineux bien accordé servant à définir la seconde est celui dont la fréquence provoque une excitation bien déterminée d’un atome de césium-133 (transition entre les deux niveaux hyperfins de l’état de base de cet atome). Ceci signifie qu’en une seconde, il y a périodes de ce « pendule » atomique ou horloge atomique dont la fréquenceLe temps est un paramètre essentiel en informatique. En effet, les traitements informatiques nécessitent du temps, à la fois pour les traitements d’accès aux données (entrées/sorties, input/output ou I/O), et pour le traitement des calculs et mises en forme des données (temps CPU, ). Les ressources informatiques nécessaires sont une combinaison de ces deux types de traitement. En informatique scientifique, les traitements prépondérants sont les temps de calcul. Les accès sont limités à la recherche des paramètres des calculs. En informatique de gestion, les traitements prépondérants sont les traitements d’accès, autrement dit les entrées/sorties. Les temps de calcul (CPU) sont le plus souvent limités, sauf pour les traitements de fin de mois qui portent souvent surLa création artistique peut être assimilée à la synthèse de la fabrication et de l’action au sens d’Aristote, c’est-à-dire, dans le vocabulaire de Wilhelm von Humboldt, de l’énergie créatrice ("energeia" en grec) et du produit ("ergon"). Apprécier une œuvre d’art, c’est à la fois la considérer comme une réalité distincte de l’artiste, possédant l’ambiguïté des choses, et y retrouver la puissance vivante de l’imagination, des sentiments, d’une vision du monde. L’œuvre confère la permanence de la chose à la fugacité de l’inspiration et du geste de l’artiste. Cette tension entre Apollon et Dionysos se retrouve dans la rivalité du classicisme et du romantisme, ou encore du formalisme et de l’expressionnisme. Dans un clin d’œil à Bichat, André Malraux définissait la culture tout entière comme l’ensemble des formes qui résistent à la mort. À vrai dire, remarque Jean-Paul Sartre, si l’œuvre d’art survit en effet à l’artiste, on ne saurait la confondre avec une chose, c’est-à-dire une réalité qui demeure indépendamment de l’imagination humaine. C’est parce que nous contemplons un tableau qu’il est davantage que des pigments étalés sur une toile. CertainesLe temps est le paramètre principal de la musique, un des rares arts à s’inscrire dans une évolution temporelle et à créer un temps. La différenciation entre temps subjectif et temps objectif y joue un rôle primordial, puisque l’émotion procurée se mesure à l’aune de ce temps subjectif de l’écoute active, temps non quantifiable, et qui fait l’objet de plusieurs recherches en psychologie. Plusieurs compositeurs contemporains, comme "Arvo Pärt", Pierre Boulez, José Manuel Lopez Lopez et bien d’autres, ont recherché des formes d’écriture, des procédés musicaux pour "suspendre" ce temps subjectif, pour inscrire le temps vécu dans une dimension"Vision interdisciplinaire du temps""Dans l'ordre de
Le temps est une notion qui rend compte du changement dans le monde. Le questionnement s'est porté sur sa « nature intime » : propriété fondamentale de l'Univers, ou plus simplement produit de l'observation intellectuelle et de la perception humaine. La somme des réponses ne suffit pas à dégager un concept satisfaisant du temps. Toutes ne sont pas théoriques : la « pratique » changeante du temps par les hommes est d’une importance capitale.
xwikis
Il a notamment travaillé en tant qu'interprète de chinois, d'anglais, de russe et d'espagnol. Après avoir quitté l'ONU, il travailla pour l'Organisation mondiale de la santé, entre autres en Afrique et en Asie. En 1968 il commença à pratiquer la psychothérapie, s'occupant surtout de supervision. Il a été chargé de cours à la Faculté de psychologie et des sciences de l'éducation de l'université de Genève (1973-1994).Claude Piron apprit l'espéranto dans l'enfance. Il utilisa cette langue dans de nombreux pays, y compris le Japon, la Chine, l'Ouzbékistan, divers pays d'Afrique et d'Amérique latine, et il l'enseigna à l'université de San Francisco (San Francisco State University, Humanities, 1981 et 1983). Il fut membre de l'Akademio de Esperanto, membre honoraire de l'Association mondiale d'espéranto et membre de l"'Esperantlingva Verkista Asocio (EVA)". Il a publié de nombreux articles en espéranto, en français et en anglais dans le domaine de la psychologie, de la communication interculturelle, des langues en général et de l'espéranto en particulier (voir Son œuvre en espéranto comprend une douzaine de romans, de nombreuses nouvelles, un recueil de poèmes et une cassette de chansons (traductions) sous le pseudonyme Johán Valano (et "Johán Balano" pour une œuvre érotique), en français quelques ouvrages sur des sujets psychologiques ou spirituels (le dernier—2005—s'intitule "Dieu, mon psy et moi"), ainsi qu'un essai sur la communication linguistique : "Le défi des langues - Du gâchis au bon sens" (Paris : L'Harmattan, éd. 2001).La psychologie intégrative selon Baudouin, in N. DURUZ et al., Traité de psychothérapie comparée, chapitre 6, Grenoble-Paris, Médecine et Hygiène.Son ouvrage "Gerda malaperis!" est souvent utilisé comme premier livre de lecture après un premier cours d'espéranto tel que "Lernu!" ou Kurso de Esperanto. Il s'agit d'un roman policier, se limitant à une grammaire de base et à un vocabulaire réduit aux mots les plus fréquents dans les premiers chapitres, pour s'élargir progressivement à des structures plus complexes et introduire une petite liste de mots nouveaux à chaque chapitre.Dans'("La Bonne Langue"), il critique le recours inutile aux néologismes empruntés aux langues européennes. En contrepartie, il défend la thèse selon laquelle l'espéranto est facile parce que sa structure se rapproche de celle de la pensée grâce à son principe agglutinant qui permet de s'exprimer en associant d'une manière créative des morphèmes selon un schéma qui est très proche de celui de la pensée : l'espéranto, contrairement à toutes les langues naturelles, permet, tant dans sa grammaire que dans la formation des mots, de se fier à son réflexe d'assimilation généralisatrice, une loi psycholinguistique décrite par Jean Piaget. Dans son livre "Le défi des langues - Du gâchis au bon sens", et dans des essais comme "Espéranto : l'image et la réalité", Claude Piron tente d'intéresser un grand public peu et mal informé (selon lui) sur l'espéranto. Le premier, paru en 1994, est une sorte de psychanalyse de la politique de communication internationale. Il y explique pourquoi les États préfèrent se compliquer la vie plutôt que de se la simplifier et attribue ce comportement à ce qu'il appelle le « syndrome de Babel » : névrose sociale de type masochiste persuadant les sociétés, institutions, élites ou responsables politiques qui en sont atteints qu'il n'existe pas d'autre moyen de surmonter la barrière des langues que de recourir au niveau international à une langue nationale même au prix d'un rapport efficacité/coût complètement aberrant : "Et si on prenait les handicaps linguistiques au sérieux?" Claude Piron estime que de nombreuses critiques d'ordre général faites à l'espéranto relèvent du préjugé, car provenant de gens n'ayant pas pris la peine de se documenter sérieusement sur le sujet ni d'étudier l'espéranto tel qu'il se pratique aujourd'hui dans sa littérature ou dans les nombreuses rencontres internationales. Il estime aussi que l'espéranto d'aujourd'hui n'est plus le « projet » qu'il était en 1887 sur lequel on pourrait discuter théoriquement, mais une langue vivante avec un siècle d'usage à son actif, un usage qui se laisse facilement observer et étudier. Il résume ainsi de nombreuses idées communément admises à propos de l'espéranto : Il consacre son essai "Espéranto : l'image et la réalité" à tenter d'y répondre point par point. Voici comment il résume ce qu'il considère comme la réalité de l'espéranto d'aujourd'hui telle que tout linguiste ou anthropologue peut l'étudier sur le terrain:
Claude Piron, né le à Namur en Belgique et mort le à Gland en Suisse, est un traducteur suisse, diplômé de l'École d'interprètes de l'université de Genève. Il fut aussi psychologue, pratiquant la psychothérapie et enseignant la psychologie. Il est l'auteur de nombreux livres écrits en espéranto dont certains sont utilisés pour l'apprentissage de cette langue.
xwikis
Au début du, le besoin d'une langue internationale était ressenti par de nombreuses personnalités, notamment parmi les scientifiques et les philosophes. Cette période correspond aussi à une floraison de nouveaux projets de langue internationale. Les problèmes liés aux nombreuses traductions linguistiques lors de l'Exposition universelle de 1900 accéléra la réflexion. À l'initiative du mathématicien français Léopold Leau, il se mit en place à partir du une "délégation pour l'adoption d'une langue auxiliaire internationale" avec le soutien de nombreux savants.En 1906, la Délégation avait reçu le soutien de plus de membres d'académies et d'universités de différents pays et de plus de 300 sociétés savantes. En mai 1907, la délégation soumit la question à l'Association internationale des Académies à Vienne, qui se déclara incompétente, par 12 voix contre 8 et une abstention. En conséquence, la délégation forma un comité de travail dont les membres furent élus par 242 voix sur un total de 253. Ce Comité comprenait des scientifiques de renom, tels que les linguistes Jespersen, Schuchardt et Baudouin de Courtenay ou encore le chimiste Ostwald. Par cooptation, d'autres personnalités furent admises, comme le mathématicien italien Peano. Léopold Leau et Louis Couturat furent les secrétaires du comité. Le comité se réunit au Collège de France à Paris durant le mois d' et examina de nombreux projets de langue internationale, présentés la plupart du temps par leurs auteurs. Il parvint rapidement à la conclusion qu'il n'existait que deux projets de langue internationale dignes d'intérêt. Le premier était l'espéranto, inchangé depuis son apparition en 1887 ; le second était l'Idiom Neutral, développé par l'ancienne Académie du Volapük. La délégation décida finalement de choisir l'espéranto, mais en y appliquant des réformes définies par le projet de « Ido ». Ce projet, d'auteur anonyme au moment de sa présentation, était une sorte de synthèse entre l'espéranto et l'Idiom Neutral. Ainsi que le rapporte le linguiste danois Otto Jespersen, membre du comité de la délégation :
La délégation pour l'adoption d'une langue auxiliaire internationale est un groupe d'intellectuels, linguistes, mathématiciens, philosophes et universitaires qui se regroupèrent en 1901 pour proposer une langue internationale aux instances dirigeantes. Cette langue auxiliaire internationale serait une langue véhiculaire dont la neutralité permettrait de transcender les cultures et dont la facilité rendrait son apprentissage et sa maîtrise plus rapide qu'une langue naturelle. Parmi ces langues neutres internationales, l'Espéranto, l'Ido et l'Idiom Neutral furent avancées.
xwikis
L’Association mondiale d’espéranto organise ce congrès chaque année dans un pays différent en prêtant attention à respecter la distribution géographique et les forces d’organisation du mouvement espérantophone. Le président de l’association décide du lieu de rassemblement, mais le directeur général joue également un rôle important en signant les documents nécessaires. Le travail annuel relatif au congrès est réalisé par le secrétariat permanent du congrès, à Rotterdam. Des caisses spéciales reçoivent des dons de congressistes et d’autres espérantophones. Ces dons, qui parviennent au siège social de l’association avant l’été, sont reconnus dans le livre du congrès. En 2001, les caisses ont été réparties pour des causes en faveur d’aveugles, d’enfants, du tiers-monde et pour d’autres organisations. Chaque année, les adhésions aux congrès sont à déposer avant le 15 juillet de l’année. Cette adhésion est gratuite pour les personnes de moins de 19 ans et une réduction est appliquée pour les participants entre 19 et 30 ans.Bien que le programme varie d’année en année, il existe des phases traditionnelles qui ont été conservées même depuis le premier ou le deuxième congrès. Tous les participants reçoivent le « livre du congrès » qui présente en détail le programme de la semaine.Les cérémonies d’ouverture et de clôture sont celles qui sont le plus suivies par les participants. Le début et la fin officiels des congrès sont habituellement marqués d’un coup de marteau par le président de l’Association. Ces deux cérémonies sont organisées de manière assez fixes. Traditionnellement, la cérémonie d’ouverture contient entre autres : "La Espero", l’hymne de l’espéranto, est aussi chanté régulièrement lors des congrès. Depuis le congrès mondial qui s’est tenu à Lille en 2015, ces deux cérémonies sont diffusées en direct sur YouTube par le comité local d’organisation.Chaque congrès a un thème bien précis qui est discuté tout au long du rassemblement. Celui-ci est le fil conducteur des « séances générales », présentes lors des congrès depuis 1949. Du reste, des lectures et présentations sont données sur le pays hôte du congrès et sa culture, et quelques cours de langue. Des associations spécialisées participent également à ces séances, ainsi que le conseil d'administration de l'Association mondiale d'espéranto et son bureau. Des concours de beaux-arts et des moments de lecture sont aussi traditionnellement organisés. Depuis 1925, l’université internationale du congrès propose des lectures sur divers thèmes à des niveaux universitaires. L’académie internationale des sciences de Saint-Marin propose des cours depuis 1995 dans le cadre de l’université d’été (""). Une conférence d’ est aussi tenue depuis 1978, ainsi qu’un moment d’instruction et d’initiation aux technologies et méthodes utiles pour transmettre des informations au mouvement espérantiste depuis 2003.D’ordinaire, des excursions et présentations artistiques sont aussi organisées tous les jours du congrès, mais elles sont regroupées le mercredi. Les présentations artistiques ont habituellement lieu en soirée : pièces de théâtre, cabaret, concerts de musique. Le dimanche soir, au début du congrès, a lieu la « soirée nationale » pendant laquelle est présentée la culture du pays d’accueil.Le premier congrès mondial d'espéranto s'est déroulé du 5 au 12 août 1905 à Boulogne-sur-Mer. Organisé par Alfred Michaux, il propose des conférences, débats, expositions, animations culturelles et une excursion en Angleterre. Preuve est faite que l'espéranto, utilisé jusqu'alors essentiellement par écrit, fonctionne parfaitement. Louis-Lazare Zamenhof assiste à ce premier congrès. Son petit-fils, Louis-Christophe Zaleski-Zamenhof était présent à la rencontre amicale célébrée à Boulogne-sur-Mer à l'occasion du centenaire de cet évènement en 2005. Les congrès se suivent ensuite chaque année sauf en 1914 et pendant la Seconde Guerre mondiale. Le congrès prévu à Paris le devait accueillir congressistes de 50 pays. Il n'aura finalement pas lieu.Un petit congrès international est aussi tenu chaque année pour les enfants espérantophones de 6 à 13 ans ; ils ont pour la plupart soit appris la langue dans leur famille soit dans des clubs ou des écoles qui enseignent l’espéranto. Ce petit congrès a lieu pendant la même semaine que le congrès mondial de l’année en cours, dans un endroit proche du lieu de rassemblement. Le premier petit congrès international a eu lieu en 1951 à Munich, à l’initiative du Sigfried Ziegler, de Josef Moravec et de Margarete Klünder. Chaque année, environ 25 à 40 enfants se rencontrent ainsi et participent à des excursions, des chants, lectures, rédactions d’histoires. Suivant les lieux, des activités de natation, de théâtre ou de jeux de rôle sont aussi prévues. L’organisation accorde un guide pour cinq enfants.Certaines données proviennent : D’autres informations proviennent en partie de "esperanto.cri.cn" :
Le congrès mondial d’espéranto, "Universala Kongreso de Esperanto" ou tout simplement UK, est un congrès organisé chaque année et dont la langue de travail est l'espéranto. Selon les années, il rassemble entre et espérantophones, mais à plusieurs occasions, la participation a dépassé le chiffre de congressistes.
xwikis
Le nom de Méduse (en grec : ) est le participe présent du verbe : régler, protéger, régner sur. Il peut donc se traduire par « la protectrice ». Dans les premiers états duLes premières mentions du mythe apparaissent chez Homère, qui ne cite jamais Méduse ni Persée, mais seulement la Gorgone, et celle-ci est simplement une tête monstrueuse placée sur l’Égide. Ainsi, quand Athéna est prête à se lancer dans la bataille, elle. Le bouclier d'Achille est muni d'une tête de Gorgone sculptée sur un fond d'émail noir, « à l’aspect effrayant et aux regards horribles ». Dans l’"Odyssée", alors qu'il est descendu aux Enfers, Ulysse craint que Perséphone ne lui exhibe et fait immédiatement demi-tour. Selon Vernant, cela laisse entendre que Gorgone Hésiode nomme trois Gorgones : Euryalè, Stheinô et Méduse, cette dernière étant proprement "la" Gorgone, et il donneDans les premiers états du mythe, « la Gorgone est un monstre, l'une des divinités primordiales, appartenant à la génération pré-olympienne. Puis on en vint à la considérer comme une victime d'une métamorphose. » Ce monstre hybride avait des ailes d'or, des mains de bronze et des défenses de sanglier. Elle est parfois représentée sous la forme d'un centaure femelle (voir ci-dessous). Sa demeure varie selon les auteurs : elle est située à l'extrême ouest du monde, du côté des Hespérides selon Hésiode, chez les Hyperboréens auFille de Phorcys et de Céto, et donc sœur des Grées, mais mortelle, Méduse est une belle jeune fille dont Poséidon s'éprend. Violée par ce dieu dans un temple dédié à Athéna, elle est punie par cette même déesse qui la transforme en Gorgone. Ses cheveux deviennent des serpents, ses yeux se dilatent et désormais son regard pétrifie tous ceux qui le croisent. Selon une autre version, que cite Apollodore, Méduse était une jeune fille tellement fière de sa beauté et de sa chevelure qu'elle avait osé rivaliser avec Athéna. Pour la punir, la déesse changea ses cheveux en serpents et modifia son regard. De même, selon Ovide. Elle vivait sur l'île de Sériphos. Or, Danaé, chassée d'Argos avec son fils Persée, est recueillie par Dictys, un pêcheur de cette île. Celui-ci la prend dans sa maison et élève son enfant. Comme Polydecte, frère jumeau de Dictys et roi de l'île, s'était épris de Danaé et cherchait un moyen d'écarter le jeune Persée, il l'invite avec d'autres à lui faire cadeau d'un cheval pour la dot d'Hippodamie. Persée ayant répondu par bravade, le roi le prend au mot et déclare que s'il ne la lui apportait pas, il épouserait Danaé. Se lamentant sur son triste sort, Persée se rend à l'autre bout de l'île. Il rencontre le dieu Hermès, qui lui dit de ne pas se décourager. Avec son aide et celle d'Athéna, Persée se rend chez les sœurs des Gorgones, les Grées (les « Vieilles »), qui sont nées avec des cheveux blancs et vivent dans une grotte où ne pénètre jamais la lumière du Soleil ni la clarté de la Lune ; elles n'ont ensemble qu'un seul œil et une seule dent, qu'elles se passent à tour de rôle. Comme elles refusent de coopérer, il leur subtilise leur œil et leur dent au moment où elles se les passaient de l'une à l'autre, pour les forcer à lui répondre. Il apprend ainsi le chemin qui mène chez les nymphes, après quoi il leur rend l'œil et la dent, ou, selon une autre source, il jette ceux-ci dans le lac Triton, en Libye, afin de les neutraliser définitivement. Arrivé chez les nymphes, celles-ci lui indiquent la grotte où se trouvent les Gorgones et lui remettent trois objets magiques : des sandales ailées qui permettent de voler,Omniprésent dans les objets de la vie quotidienne mis au jour par les fouilles archéologiques, le "gorgonéion" n'est paradoxalement jamais décrit dans les textes anciens. Méduse est presque toujours présentée de face plutôt que de profil, contrairement aux figures mythiques généralement vues de profil. Les représentations sont aussi remarquablement semblables les unes aux autres à une même époque. La représentation a passé par trois phases. La première est la Gorgone archaïque, qui va du au. Les représentations les plus anciennes de Méduse ne comportaient que la tête. Celle-ci figurait parfois au fronton des temples, décorait souvent des acrotères et des antéfixes, à la façon des gargouilles, et était utilisée comme talisman sur des vêtements, des pièces de monnaie ou des armes, bien avant l'époque d'Homère. Hésiode ajoute à la Gorgone un corps et fait intervenir le personnage de Persée. On trouve ensuite de belles représentations du personnageDès une époque ancienne, ce mythe a fait l'objet d'interprétations historicisantes, visant à lui trouver un substrat historique vraisemblable. Ainsi, dans un passage du "Phèdre" de Platon souvent cité, Socrate évoque ce genre d'explications rationnelles pour ensuite déclarer que celles-ci ne l'intéressent pas car la mythologie compte La recherche d'explications rationnelles connait cependant un regain d'intérêt sous l'influence de l'évhémérisme au. Selon Palaiphatos, ami d'Aristote et auteur des "Histoires incroyables", Persée serait un pirate qui, pour s'emparerÀ l'époque chrétienne, on trouve d'autres interprétations rationalisantes de ce mythe. Fulgence le Mythographe écrit que Méduse, ayant hérité d'une grande somme d'argent, s'en était servi pour développer l'agriculture. Son succès avait attiré l'attention de Persée, mais celui-ci, au lieu de l'épouser, l'aurait tuée, avec l'aide d'Athéna. Cela signifie, selon cet auteur, que l'union de la sagesse et de la force masculine peut vaincre le pouvoir et les charmes de la femme. Contrairement au récit antique, Méduse n'est plus un monstre à éliminer mais devient une femme fatale par l'association que fait le christianisme entre sexualité et péché. Dans les "Étymologies", Isidore de Séville interprète le mythe comme une métaphore, les Gorgones étant. De colossales têtes de Méduse servent de base à deux colonnes de laAbsente de l'iconographie médiévale, la représentation du "gorgonéion" devient très populaire à la Renaissance et au. Selon Jean Clair, ce motif Pour cet historien, la fameuse démonstration de la perspective à foyer unique par Brunelleschi en 1425 est un acte fondateur équivalent à la décapitation de Méduse par Persée. Assez curieusement, dans une fresque de "La vie de saint Jacques" par Andrea Mantegna, réalisée en 1453-1457, le "gorgonéion" apparait sur un bouclier que tient une femme auprès du corps du martyr. Avec la redécouverte de l'antiquité, les attributs archaïques de Méduse font leur réapparition. Ainsi dans la très populaire "Hypnerotomachia Poliphili" (Venise, 1499), le narrateur raconte son arrivée devant une énorme pyramide : L'importance donnée à la chevelure pourrait avoir été inspirée par la célèbre "tasse Farnèse", camée réalisé à Alexandrie au et dont Laurent de Médicis avait fait l'acquisition en 1471. Cet aspect terrifiant va désormais dominer la plupart des représentations visuelles, tout particulièrement dans le bouclier sur lequel, au début du, Léonard de Vinci aurait peint une figure de Méduse. Cette peinture ajoutait à l'aspect terrifiant du personnage toute l'intensité du pathos. Une des représentations les plus connues de cette époque est "Persée tenant la tête de Méduse" par Benvenuto Cellini (1554) : selon Elizabeth Johnston, cette statue voulait mettre en garde contre le pouvoir politique croissant des femmes en Italie. Pour l'historien Irving Lavin, il s'agissait plutôt d'un message adressé aux ennemis du duc Côme de Médicis, libérateur de Florence/Andromède. Comme l'a montré Tobin Siebers, la tête de Persée et celle de Méduse présentent des profils identiques et ont toutes deux un nez aquilin, des joues délicates et les yeux baissés. Cellini révèleLa Gorgone appartient à une classe de créatures mythologiques qui sont bien connues du grand public grâce à leur apparence étrange, tels le cyclope, le centaure et le minotaure. Avec Dionysos et Artémis, elle est une des trois divinités grecques représentées par un masque. Le corps de Méduse apparait pour la première fois sur les métopes du sanctuaire d'Apollon à Thermos, entre 640 et 620 avant notre ère. La question de l'origine de ce masque a suscité de nombreuses hypothèses. DansS'interrogeant sur la place importante que donne le mythe à la petite île rocheuse de Sériphos, une des moins importantes des Cyclades, le spécialiste de l'antiquité classique J. H. Croon remarque que celle-ci comportait des sources thermales, ce qui est également le cas de nombre d'autres cités antiques dont les pièces de monnaies portaient la figure de la Gorgone, indiquant l'existence d'un culte local. Ce culte s'explique par le fait que les sources étaient nécessairement perçues comme des orifices du monde souterrain et, par conséquent, fréquemment associés à des rites religieux en l'honneur des divinités souterraines du monde des morts. Au cours de ces cérémonies, le célébrant portait le masque de la Gorgone, selon une masse d'indices convergents que propose Croon à la suite de Jane Ellen Harrison :. L'histoire de Persée serait donc un mythe expliquant le rituel du masque en usage sur cette île, à proximité des sources thermales. Comme le note Wilk, la théorie de Croon est la seule capable d'expliquer la présence dans le mythe de PerséeLoin d'être le seul trio de divinités féminines dans la mythologie grecque, les Gorgones présentent des points communs avec plusieurs autres groupes, mais pour lesquels les représentations sont assez rares : En Égypte, les représentations du dieu Bès présentent aussi des points communs avec celle de la Gorgone : toujours présenté de face, avec de grands yeux, un large nez et la langue qui dépasse, il est assez fréquemment dépourvu de corps. Figure très populaire, il s'est maintenu depuis le milieu du deuxième millénaire av. J.-C jusqu'à l'époque romaine et semble avoir eu une fonction apotropaïque, tenir à distance les mauvais sorts et écarter les démons. Robert Graves voit des éléments communs avec la déesse égyptienne Neith, déesse de l'amour et de la guerre, ainsi qu'avec Lamia, déesse libyenne qui avait des yeux amovibles et dont la cruauté avait changé le visage en un masque de cauchemar. Selon d'autres interprétations, le masque de Méduse dériverait du démon Humbaba, qui a été décapité par le héros de l'épopée de Gilgamesh. On a découvert nombre de têtes de Humbaba, représentations de ce dieu sans corps, datant de 2750 av. J.-C. ToujoursSelon l'ingénieur en optique Stephen R. Wilk, le mythe vise à illustrer les systèmes stellaires très particuliers que sont les constellations de Persée et celles qui lui sont associées. Dès une époque ancienne, les cartes du ciel regroupaient les étoiles les plus brillantes de la constellation de Persée dans une figure censée représenter le héros éponyme en pleine action, brandissant la serpe dans la main droite et tenant dans la gauche la tête de Méduse (voir illustration ci-contre). Une telle représentation, qui se trouve dans la grande "Uranometria" de Johannes Bayer (1603), apparaissait déjà chez l'astronome persan du Ramah al-Sufi. Dans cette constellation, l'étoileL'appartenance de Méduse aux divinités pré-olympiennes semble indiquer que ce mythe a un substrat très ancien. Dans le mythe de Méduse, tout comme dans ceux de la Chimère et de l'Hydre de Lerne, les divinités féminines sont associées à la Terre ("Gaia"), par opposition aux divinités olympiennes qui résident dans le ciel. Toutes trois ont en commun d'être des monstres et d'emprunter certains de leurs traits aux serpents, dont le lien avec la terre, le féminin et le mystérieux est très ancien. Toutefois, dans le cas de Méduse, le pouvoir maléfique est converti en objet de protection une fois le monstre décapité. Dès 1911, A. L. Frothingham avait noté les parallèles entreSe basant sur une analyse du texte homérique et des données archéologiques, Thalia Feldman, spécialiste en histoire de l'art, fait l'hypothèse que la quête de Persée et la décapitation de Méduse seraient d'origine posthomérique. En revanche, le thème d'une tête sans corps, le "gorgonéion", serait très ancien, comme le montre notamment une terre cuite d'époque archaïque trouvée sous le Parthénon (voir en haut de la page). Ce motif aurait sa source dans la nécessité pour l'être humain d'exorciser ses peurs, notamment en les représentant sous la forme d'un masque grimaçant, d'une figure de terreur. Le "gorgonéion" serait donc à l'origine un croque-mitaine.Pour Tobin Siebers, Athéna et Méduse sont intimement liées, comme deux pôles opposés, et partagent une histoire de rivalité et de phénomènes inversés. La naissance d'Athéna, qui naît casquée du crâne de son père Zeus, offre en effet une image inversée de la mort de Méduse, qui donne naissance à Pégase et à Chrysaor jaillissant de sa tête. Jalouse de la beauté de Méduse, Athéna arme et guide Persée pour aller tuer sa rivale. Victorieuse, elle marque par l'apposition du masque de Méduse sur son égide la présence subliminale de l'autre, comme si l'une n'était que le double de l'autre. Toutefois,Toutes ces hypothèses ont alimenté une intense activité de réappropriation du mythe dans une perspective féministe. En 1971, dans un poème intitulé "The Muse as Medusa", l'écrivaine belgo-américaine May Sarton dénonce le processus d'identification des lectrices au héros Persée, alors que celui-ci s'est approprié le pouvoir de Méduse, et elle invite les femmes à prendre leur revanche dans l'écriture. Cet appel sera repris en France quelques années plus tard. Dans un essai aux allures de manifeste intitulé « Le rire de la Méduse » (1975), Hélène Cixous développe l'opposition entre la raison masculine et le corps féminin, représenté par Méduse et sauvagement réprimé. Prenant le mythe à contrepied (« Méduse n'est pas mortelle : elle est belle et elle rit »), Cixous ironise sur les théories freudiennes et refuse la métaphore de la femme vue comme « un continent noir » qu'il faudrait cartographier et coloniser, plaidant en faveur du désir et de la libération des femmes à l'égard du discours masculin. Récusant le mythe de la femme fatale incarnée par Méduse, elle suggère que laRoger Caillois voit dans le récit de l'expédition de Persée allant tuer la Gorgone un parfait exemple de conte d'initiation : Se basant sur l'iconographieLe mythe se prête à une étude anthropologique du regard, en raison de l'importance qu'il accorde à ce dernier ainsi qu'à l'utilisation du gorgonéion comme amulette préservant du mauvais œil. L'idée que le regard peut avoir un pouvoir maléfique se trouve dans la plupart des cultures, non seulement dans des récits légendaires, mais aussi dans des textes religieux comme la Bible et le Coran. Cette croyance repose sur une conception très ancienne du mécanisme de la vision. La plupart des savants et philosophes grecs qui se sont intéressés au phénomène de la vision, ont accepté la théorie de l'émission, selon laquelle la vision opèreE. d'Hooghvorst renvoie notamment à la descente de Dante aux Enfers comme étant l'initiation par excellence. En effet, les Érinyes y accueillent Dante en criant :Dans un bref article intitulé "La Tête de Méduse", où il s'interroge sur la sexualité féminine, Sigmund Freud propose une interprétation psychanalytique de ce mythe selon laquelle la décapitation de Méduse serait une représentation de la castration. La terreur qu'inspire le monstre serait donc la peur de la castration, résultant de la vue de quelque chose qu'on n'était pas censé voir ni regarder. Cette angoisse apparaîtrait chez le petit garçon qui, en apercevant les organes génitaux féminins, découvre que la menace de castration est bien réelle. Cette interprétation de Freud établit ainsi un. Le visage rond entouré d'une couronne de cheveux serait en fait un sexe féminin. Cette représentation présente certaines ressemblances avec Baubo, une figure féminine liée aux mystères d'Éleusis. Celle-ci en effet montre sa vulve en soulevant sa robe. Mais alors que Selon Jean Clair, cette associationCarl Jung s'est intéressé à « l'effet Méduse », phénomène de pétrification psychique qui survient lorsque le patient est confronté à une situation en apparence inextricable. Il insiste sur le fait que Méduse comporte, comme tout être humain, un côté spirituel. Pour ne pas céder aux forces destructrices, il faut suivre l'exemple de Persée et ne regarder les forces de destruction qu'à travers un miroir. Méduse et Athéna sont deux archétypes du féminin : tandis que l'une est asexuée et protège les priorités masculines et le contrôle du patriarcat, l'autre incarne le côté chaotique, érotique et incontrôlable de la femme. Selon Paul Diel, les Gorgones, en tant que monstres, ne peuvent que « symboliser l'ennemi intérieur à combattre »Comme le note Janine Filloux, Pour elle aussi, le mythe de Méduse raconterait comment le sexe féminin a été vaincu, défait, dans la lutte originaire. Le mythe propose des représentations complexes et contrastées du féminin, notamment par l'apposition de la tête de Méduse sur l'égide d'Athéna, opposant ainsi dans une même image la sensualité féminine à la raison par laquelle elle a été vaincue. Les mêmes figures antithétiques sont aussi réunies autour du héros par excellence qu'est Persée : Méduse, dont le regard brave et pétrifie les hommes, et Andromède, la jeune vierge timide qui n'ose même pas regarder un homme. À ces personnages, il faut ajouter Danaé, qui avait sauvé Persée d'une mort certaine alors qu'il était encore au berceau. Des analystes ont aussi relevé l'importance du chiffre trois dans ce mythe : trois Gorgones, trois Grées, trois cadeaux des nymphes, trois étapes dans la mission de Persée. Dans "La Naissance de la tragédie", Friedrich Nietzsche voit la décapitation de MéduseAu, Méduse atteint selon un analyste le statut d'une étoile du rock ("") et est célébrée à un point que ni Hésiode ni Homère n'auraient pu imaginer, tout en gardant certains de ses attributs monstrueux. Elle n'est plus la belle victime romantique, mais se rapproche de la femme fatale. Elle est un motif fréquemment représenté dans l'art corporel, les tatouages et les styles de coiffure. L'acteur américain Harrison Ford s'est ainsi fait photographier déguisé en Méduse lors de la remise du prix de l'homme de l'année à la Hasty Pudding 1996 de Harvard. Sur le thème « "Dangerous beauties: Medusa in Classical Art" », le Metropolitan Museum de New York lui consacre une exposition au cours de l'année 2018. Les représentations de Méduse sont mises en relation avec ces autres beautés fatales que sont Scylla, les sphinx et les sirènes. La représentation typique de Méduse avec des serpents dans les cheveux sert également à caricaturer des femmes arrivées à une importante position de pouvoir politique ou médiatique, comme c'est notamment le cas pour Angela Merkel et surtout Hillary Clinton lors de la campagne pour l'élection présidentielle américaine de 2016. Une image stylisée de la Gorgone, sous la forme classique de la femme fatale à la fois belle et dangereuse, sert de logotype au couturier italien et designer d'accessoires Gianni Versace, qui voyait Méduse comme sa muse et son "alter ego" et l'admirait pour la dangereuse attraction de sa séduction (voir le logo sur la ).Dans sa nouvelle "Shambleau" parue en 1933 et mêlant le fantastique à la science-fiction, l'écrivaine américaine Catherine Lucille Moore renouvelle le mythe de Méduse et Persée, en lui donnant une dimension cosmique. On y trouve une créature dangereuse, un regard hypnotique, un humain sous contrôle et un miroir. Le titre du roman "A Severed Head" ("Une tête coupée") publié en 1961 par la romancière britannique Iris Murdoch fait allusion à l'interprétation freudienne de la tête de Méduse (voir ci-dessus). Dans la littérature grecque du, la figure de la Gorgone est connotée positivement, et parfois combinée avec celle de la sirène. Ainsi, dans le roman "Notre-Dame la Sirène" (1949), Strátis Myrivílis met en scène une icône de la « Vierge-Gorgone », moitié femme et moitié poisson. La Gorgone apparaît aussi dans la nouvelle "La Gorgona", d’Andréas Karkavitsas, où elle est la sœur d'Alexandre le Grand, qu'elle recherche désespérément partout dans leFernand Khnopff réalise au crayon sur papier une "Étude pour le Sang de la Méduse" (1898). Selon David Leeming, ce dessin serait une parfaite illustration des maux du capitalisme que Marx voyait dans la tête de Méduse. Dans "L'esprit a combattu le mal" (1904), Paul Klee inverse les représentations traditionnelles en dessinant Persée de face avec un visage terrible alors que Méduse est montrée de profil et en plus petit format. Franz von Stuck peint "Persée tenant la tête de Méduse" (1908). L'Autrichien Julius Klinger traite souvent le thème de Méduse. Dans "Vertreibung", on voit une femme décapitée tenant sa tête dans une main et le nœud de serpents dans l'autre pourchasser un homme devant elle. Alexej von Jawlensky peint une "Méduse" aux très grands yeux dont les pupilles verticales évoquent un félinFernand Khnopff réalise une "Tête de Méduse" en forme de crucifix (1900). Camille Claudel crée "Persée et la Gorgone" (1902). Antoine Bourdelle réalise en 1925 une "Tête de Méduse" (étude pour un heurtoir de porte). Alberto Giacometti fait une "Tête de Méduse" (1935) ; Julio González réalise "La Montserrat", représentant une femme hurlant. Cette sculpture, assimilée à Méduse par Jean Clair, était placée à côté du tableau "Guernica" de Picasso auMéduse apparaît dans "Les Titans" de Duccio Tessari, péplum comique italien sorti en 1962. Elle est la gardienne de la princesse Antiope, qui a été emprisonnée par son père Cadmos, cruel roi de Thèbes ; le personnage principal du film, Crios, affronte et tue Méduse pour libérer Antiope. "Persée l'invincible" (1963) est un péplum italo-espagnol qui met en scène pour la première fois les aventures de Persée contre Méduse et le sauvetage d'Andromède, mais au prix de nombreuses distorsions et en inventant des actions et des personnages sans aucun rapport avec le mythe. Le mythe est complètement réécrit dans le film d'horreur "La Gorgone" (1964) du réalisateur britannique Terence Fisher. L'histoire se situe en Bavière, où s'est réfugiée la dernière des trois Gorgones. ElleLe gorgonéion, dont le regard a été adouci, est un des emblèmes du drapeau de la Sicile, adoptéLe nom de méduse se retrouveMéduse apparaît dans deMéduse apparaît dans de nombreux jeux vidéo.
Méduse (en ), appelée aussi la Gorgone (Gorgo), est dans la mythologie grecque l'une des trois Gorgones (avec ses sœurs Euryale et Sthéno). Elle est la seule à être mortelle. Fille de Phorcys et Céto, et donc petite-fille de l'union de la Terre (Gaïa) avec l'Océan (Pontos), elle appartient au groupe des divinités primordiales, tout comme ses cousines, la Chimère et l'Hydre de Lerne, qui, elles aussi, avaient des traits associés à l'image du serpent et ont été détruites par des héros. Même si elle figure au fronton de plusieurs temples, elle ne faisait l'objet d'aucun culte.
xwikis
Par convention, les noms d'unités sont des noms communs qui s'écrivent en minuscules (même s'ils dérivent de noms propres de savants : « kelvin » et non « Kelvin », « ampère » et non « Ampère »), et qui prennent en français la marque du pluriel (exemple : un volt, deux volts). Le symbole d'une unité est (ou commence par) : Les symboles d'unité ne prennent pas la marque du pluriel (3 kg et non 3 kgs). Ce ne sont pas des abréviations : ils ne sont pas suivis d'un point (sauf bien sûr en fin de phrase). Selon la règle, l'écriture correcte du nom de l'unité dont le symbole est °C est « degré Celsius » (l'unité degré commence par la lettre d en minuscule et le qualificatif « Celsius » commence par la lettre C en majuscule, parce que c'est un nom propre). Les caractères ° et C sont indissociables. Cependant, on ne doit pas parler de « degrés Kelvin » ni utiliser le symbole °K, mais parler de kelvins et utiliser le symbole K. Ajouter un préfixe multiplicateur ou diviseur ne change pas le nom ni le symbole : mm = millimètre, mA = milliampère, mHz = millihertz ; MHz = mégahertz, MΩ = mégaohmLes colonnes « M - L - T - I - Θ (thêta) - N - J » précisent les « facteurs dimensionnels » des grandeurs dérivées, correspondant aux « expressions » dans les unités de base du Système international « kg - m - s - A - K - mol - cd ».Les unités de chaque grandeur physique doivent être "homogènes", c'est-à-dire s'exprimer en fonction des unités fondamentales. Le tableau ci-dessous donne un rappel de conversion de grandeurs physiques (mécanique) composite, en fonction de l’expression de la longueur (L), du temps (T) et de la masse (M).Avant l'adoption du Système international d'unités (cf."infra"), d'autres systèmes d'unités ont été utilisés à des fins variées, par exemple : Certains pays ou professions, par tradition culturelle ou de corporation, continuent à utiliser tout ou partie d'anciens systèmes d'unités.Des unités non standard sont encore en usage au sein de professions particulières.Elles sont obtenues en faisant le rapport de deux grandeurs de même dimension :Autrefois, les unités de poids et de longueur étaient fondées soit sur un objet concret appelé "étalon" (partie du corps humain ou objet telle une perche), soit sur un usage particulier, soit sur une action qui permettait de mesurer. En conséquence, les mesures avec ce type de systèmes étaient variables (nous n'avons pas tous le même « pied »). C'est pourquoi le Système international (SI) a adopté des définitions d'unités en fonction de paramètres invariables, ou supposés tels. Aujourd'hui, parmi les unités de base du SI, seul le kilogramme est encore défini en relation avec un objet matériel (l'étalon du Bureau international des poids et mesures, donc susceptible de s'altérer. En 2018, des propositions de nouvelles définitions du Système international d'unités tentent de lui trouver une description plus universelle et stable.
En physique et en métrologie, une unité de mesure est un étalon nécessaire pour la mesure d'une grandeur physique. Les systèmes d'unités, définis en cherchant le plus large accord dans le domaine considéré, sont rendus nécessaires par la méthode scientifique dont un des fondements est la reproductibilité des expériences (donc des mesures), ainsi que par le développement des échanges d'informations commerciales ou industrielles.
xwikis
Espéranto-France a lancé une préparation à une future épreuve écrite d'espéranto comme langue facultative au baccalauréat français et propose aux lycéens intéressés de passer un bac blanc d'espéranto. Le premier examen blanc de ce type a eu lieu le samedi ; cependant la date d’introduction de l'espéranto dans la liste des langues facultatives au baccalauréat dépend d’une décision du ministère de l’Éducation nationale. Le, la directrice générale de l’enseignement scolaire Florence Robine précise par une lettre qu’« "il est tout à fait possible d’entreprendre, dans les établissements où l’enseignement de l’espéranto pourrait se développer, une démarche expérimentale à l’échelle locale" ». L’espéranto est l'une des langues officielles de l'Académie internationale des sciences de Saint-Marin (AIS) dont le but est de favoriser l'utilisation de l'espéranto dans toutes les sciences. Parmi les universités disposant de cycles d'études espérantophones, les plus réputées sont : Concernant l’Université Adam-Mickiewicz de Poznań, des cours d’interlinguistique sont dispensés depuis 1997 dans le cadre de la faculté de philologie de, et un cursus de trois ans en espéranto est proposé. Il valide des crédits ECTS. C’est Ilona Koutny,Le nombre d'espérantophones est difficile à évaluer. Les estimations varient entre cent mille et dix millions. Deux millions est le nombre le plus couramment repris, voire jusqu'à trois millions. Toutefois, on peut affirmer en 2015 qu'il y a dans lesquels se trouvent des espérantophones. Étant une langue construite, l'espéranto est généralement appris comme langue seconde, et très souvent en autodidacte par une méthode ou un cours en ligne. Il existe cependant un certain nombre d'espérantophones natifs. Le linguiste finlandais estime leur nombre à. Jouko Lindstedt évalue par l'échelle suivanteEn tant que langue construite, l'espéranto n'est généalogiquement rattaché à aucune famille de langues vivantes. Cependant, une part de sa grammaire et l'essentiel de son vocabulaire portent à le rattacher aux langues indo-européennes (bien souvent aux langues romanes). Ce groupe linguistique a constitué le répertoire de base à partir duquel Louis-Lazare Zamenhof a puisé les racines de laL'espéranto possède vingt-huit phonèmes : cinq voyelles et vingt-trois consonnes. Ils sont transcrits au moyen d'un alphabet de vingt-huit lettres : vingt-deux lettres de l'alphabet latin ("q", "w", "x" et "y" ne sont pas utilisés, sauf dans les expressions mathématiques), et six lettres utilisant deux diacritiques (accent circonflexe et brève), propres à l'espéranto : "ĉ", "ĝ", "ĥ", "ĵ", "ŝ", "ŭ". L'orthographe est parfaitement phonologique : chaque lettre représente invariablement et exclusivement un seul phonème. En plus de leur rôle premier de transcription, les lettres diacritées rappellent en espéranto l’orthographe ou la prononciation d’autres langues. Par exemple,'« poste », rappelle graphiquement et phonétiquement le mot'du tchèque, du slovaque, du slovène, du serbo-croate, mais aussi par la graphie les mots français,La grammaire de l'espéranto se fonde sur seize principes énoncés dans le ", adopté comme référence intangible au premier congrès mondial d’espéranto de Boulogne-sur-Mer en 1905. Ils ne constituent cependant qu'un cadre dans lequel ont été progressivement dégagées des règles plus détaillées. Chaque radical peut recevoir des morphèmes invariables signalant chacun un trait grammatical précis : —o pour les substantifs, —a pour les adjectifs, —e pour les adverbes dérivés, —j pour le pluriel et —n pour le cas accusatif. La régularité de la langue permet d’en expliquer la grammaire de façon aisée sans avoir recours à la terminologie technique habituelle, parfois difficile pour certains néophytes. L’ouvrage " propose ainsi un panorama complet de la grammaire espérantophone sans vocabulaire complexe.Les verbes se caractérisent par une série de seulement six désinences ou finales détachables invariables qui forment une conjugaison, avec, mêlant des valeurs temporelles pour l'indicatifL'espéranto utilise également comme déterminants un ensemble de pronoms-adjectifs assemblés systématiquement à partir d'une initiale et d'une finale caractéristiques : D'autres finalesL'espéranto recourt également à diverses particules invariables dans l'organisation de la phrase : il s'agit de conjonctions de coordination (' « et »,'« ou »,'« donc »,'« maisL'ordre des mots est relativement libre en espéranto : grâce à la marque -n du complément d'objet (accusatif), toutes les constructions (SOV, VSO, OSV) sont acceptées ; l’ordre le plus fréquent est toutefois "sujet-verbe-objet" suivi du complément circonstanciel. L'usage d'autres dispositions est courant notamment en cas de mise en relief afin de placer l'élément le plus important en début de phrase. Il existe cependant certaines règles et tendances bien établies : D'une manière générale, on peut dire que l'ordre des syntagmes est libre mais que la disposition des morphèmes à l'intérieur d'un syntagme est fixée par l'usage. Certaines tendances expressives peuvent sembler peu communes par rapport à l'usage du français : Du fait de l'absence de restriction sur la combinaison des monèmes, une même phrase peut se formuler de multiples façons : L'espéranto peut ainsi alternativement se montrer synthétique ou analytique.Au même titre que la majorité des langues européennes dont le français qui tirent leurs racines en partie du latin et du grec et qui empruntent à l’anglais ou à d’autres langues, l’espéranto est une langue construite "a posteriori" : elle tire ses bases lexicales de langues existantes. Les principales sources sont, par importance décroissante : Les mots provenant d'autres langues désignent surtout des réalités culturelles spécifiques :'« renne » (du same),'« yoga » (du sanskrit), " « baguettes (pour manger) » (du japonais) Les morphèmes grammaticaux doiventLa formation des mots espéranto est traditionnellement décrite en termes de dérivation lexicale par affixes et de composition. Cette distinction est cependant relative, dans la mesure où les « affixes » sont susceptibles de s’employer aussi comme radicaux indépendants : ainsi le diminutif'forme l’adjectif'« petit (avec idée de faiblesse) », le collectif'forme le nom'« groupe », le causatif'forme le verbe'« faire, rendre » Les deux principes essentiels de formation des mots sont : En théorie, il n’existe pas d’autre limite que sémantique à la combinatoire des radicaux. Il enLe tableau ci-dessous présente quelques mots etLa akcent' estas sur la antaŭlasta silab'. La kern' de la silab' formas vokal'. Vokalj" ludas granda rol' en la ritm' de la parol'. Substantivj" finas per ', adjektivj" per -a. La sign' de la plural' estas "-j". La plural' de « lasta vort' » estas « lastaj" vort"'j" ». « -o » = substantifs« -a » = adjectifs« -j » = pluriel« -n » = accusatif Traduction :" L'accent tonique est sur l'avant-dernière syllabe. Le cœur de la syllabe est formé par une voyelle. Les voyelles jouent un grand rôle dans le rythme de la parole. Les substantifs finissent par "-o", les adjectifs par "-a". La marque du pluriel est "-j". Le pluriel de «'» (« dernier mot ») est «'»".L'idée d'une langue équitable pour la communication internationale germa à Białystok au cours des années 1870, dans la tête d'un enfant juif polonais nommé Louis-Lazare Zamenhof. Quelques années plus tard, à l'âge de 19 ans, il ébaucha son premier projet qu'il présenta à ses camarades de lycée. Ce n'est qu'après ses études en ophtalmologie qu'il publia en langue russe, à Varsovie, le 26 juillet 1887, l'ouvrage "Langue Internationale", premier manuel d'apprentissage. Il fut suivi au cours des deux années suivantes de versions dans plusieurs autres langues. Dans ce manuel, Zamenhof avait défini ainsi le but de la Langue Internationale : « "Qu’on puisse l’apprendre, comme qui dirait, en passant [et] aussitôt en profiter pour se faire comprendre des personnes de différentes nations, soit qu’elle trouve l’approbation universelle, soit qu’elle ne la trouve pas [et que l’on trouve] les moyens de surmonter l’indifférence de la plupart des hommes, et de forcer les masses à faire usage de la langue présentée, comme d’une langue vivante, mais non pas uniquement à l’aide du dictionnaire." ».Très vite, l'espéranto rencontra un vif succès, dépassant même les espérances de son initiateur. Le nombre de personnes qui apprirent la langue augmenta rapidement, au départ principalement dans la Russie impériale et en Europe deL'apprentissage de l'espéranto repose en grande partie sur l'utilisation de méthodes autodidactes ou de cours traditionnels via des associations ou des clubs locaux. Toutefois, quelques établissements d'enseignement ont introduit des cours d'espéranto à leur programme. Au début des, l'apparition de méthodes d'apprentissage en ligne de l'espéranto, souvent gratuites, les plus connues étant'et " (kurso.com.br)", a permis de toucher un public nouveau, en particulier parmi les jeunes. Le, le site d’apprentissage de langues en ligne, Duolingo, met en ligne la version bêta d'apprentissage de l'espéranto pour les anglophones et les hispanophones. En 2017, la méthode compte plus d’un million d’apprenants. Une version pour francophones est prévue pour 2020. Le site de langues Memrise comporte plusieurs cours d’espéranto, dont l'un publié par l'association Esperanto-France. Viendront aussi des applications d’apprentissage pour téléphone portable, comme L’espéranto en, une adaptation de la '. Enfin l’espéranto est présent parmi les langues mises en place sur la plateforme de recueil d'échantillons de voix Common Voice, de Mozilla : la fonction Enregistrer permet de s’entraîner à prononcer des phrases, puis de se ré-écouter, alors que la fonction Valider permet d'entendre d'autres locuteurs en espéranto.Les tests de niveaux en espéranto sont organisés suivant deux filières : Actuellement seul l'institut des langues de l'université Eötvös Loránd (Budapest, Hongrie) délivre des diplômes officiels de connaissance de l'espéranto. Depuis 2009, ces diplômes sont fondés sur le cadre européen commun de référence pour les languesCes études furent reprises et confirmées par d'autres études dans le rapport remis au ministère italien de l'enseignement public (ministère de l'instruction), ainsi que dans le rapport Grin. Cette facilité de l'espéranto fut constatée par Inazō Nitobe, membre de l’Académie Impériale du Japon, homme de science, Secrétaire général adjoint de la Société des Nations, qui avait participé au congrès mondial d’espéranto de Prague en 1921 pour se rendre compte par lui-même de l’efficacité de cette langue. Dans un rapport intitulé "" (L’espéranto comme langue auxiliaire internationale), publié en 1922, il avait écrit :. Lorsque l'on a déjà appris une langue étrangère, l'apprentissage d'une nouvelle langue étrangère est plus facile, d'où l'intérêt de commencer par une langue étrangère facile. Des études menées sur des échantillons comparatifs d'élèves ont montré que les élèves qui avaient d'abord étudié l'espéranto avant de passer à l'étude d'une langueL'espéranto est soutenu par un réseau de militants regroupés dans de nombreuses associations. Au niveau international, ce réseau d'associations nationales et d'associations thématiques est fédéré par l'association mondiale d’espéranto. L'ensemble des militants favorables à l'espéranto est souvent désigné comme "Le mouvement espérantophone" ou même tout simplement "Le mouvement espérantiste". Toutefois, cette appellation est trompeuse dans la mesure où les espérantophones ne constituent pas un ensemble homogène. Dans les faits, les motivations, les aspirations et les idées des espérantophones reflètent la diversité des opinions présentes dans le monde. Il est également à noter que seule une minorité d’espérantophones sontL’espéranto a longtemps été une langue plus écrite que parlée. Dès le début, toutefois, son usage oral a été assuré par les clubs d'espéranto, disséminés un peu partout en Europe, en Asie orientale et dans quelques pays d'Amérique. Les personnes intéressées s'y retrouvaient une fois par semaine ou par mois pour pratiquer la langue et accueillir des voyageurs étrangers qui l'avaient apprise. Au début du sont apparus de nombreux écrivains, hommes et femmes, poètes..., qui, ayant adopté l'espéranto comme langue de leurs écrits, lui ont donné sa littérature. Dans la résistance à l'occupation japonaise, des artistes coréens, notamment des réalisateurs qui seront à l'origine du cinéma nord-coréen, choisissent ainsi de se regrouper en 1925 dans une association ayant choisi un nom en espéranto : laLa littérature en espéranto se compose à la fois d'œuvres originales et d'œuvres traduites. Quelques ouvrages originaux : Parmi les œuvres traduites, on trouve des ouvrages aussi divers que "Le Petit Prince", laIl existe de nombreuses publications originales en espéranto. Parmi les plus connues, on trouve : À côté de la presse papier, onLa musique espérantophone est presque aussi ancienne que l'espéranto. ", qui deviendra l'hymne du mouvement espérantophone, a été écrit par Zamenhof, peu après la publication du premier manuel, Langue Internationale, paru en 1887. La musiqueLes premières émissions de radio en Espéranto datent de 1922 et furent émises à () et Londres (Royaume-Uni). En 2012, les émissions sont principalement des podcasts, mais certaines radios diffusent une émission hebdomadaire comme Radio Havana Cuba, ou Radio libertaire à Paris. La première radio diffusant entièrement en espéranto, Muzaiko, est apparue le. Elle émet sur Internet grâce à la technologie de lecture en continu. Son programme se compose de musique espérantophone, d'interviews, et d'informations généralistes.Sur les bandes radioamateurs l'espéranto est utilisé aux fréquences :L'essentiel des films tournés originellement en espéranto sont des courts métrages. Seuls trois longs métrages ont été tournés directement en espéranto : Plusieurs films ont par ailleurs été doublés ou sous-titrés en espéranto. Dans le film de Charlie Chaplin, "Le Dictateur", les plaques des magasins du ghetto juif sontBien qu'il soit couramment utilisé dans un contexte associatif, l'usage de l'espéranto dans un contexte professionnel est jusqu'à présent resté relativement limité. On peut citer l'exemple de l'association Réinsertion et Espéranto qui de 1997 à 2008 formaDès l'origine de l'espéranto, des propositions de réformes de la langue sont proposées, y compris par Zamenhof lui-même. Cependant, la communauté espérantophone fut toujours très réticente à de telles réformes et tous les projets échouèrent. De fait, le projet de réforme le plus connu est celui qui fut présenté par Louis de Beaufront et Louis CouturatLe nom "espéranto" fonctionne comme un nom propre quand il désigne la langue même, mais est parfois utilisé comme nom commun (dans une sorte d'antonomase) pour représenter une langue commune ou un moyen commun dans un domaine donné où cette mise en commun ne va pas de soi. Cette utilisation du mot "espéranto" peut aussi bien être prise dans un sens positif que dans un sens négatif. Dans le domaine de l'informatique, Java fut qualifié d'« espéranto des langages de programmation », en particulier à cause de sa simplicité et de son universalité (indépendance par rapport au système d'exploitation), métaphore reprise pour XML, qualifié à son tour "d'espéranto du système d'information". En Allemagne et en Autriche, les opposants à l'euro le décrivirent comme'ou'(' = « argent » ;'= « Monnaie »), voulant dire par là qu'un tel projet international était intrinsèquement voué à l'échec.
L’espéranto est une langue construite internationale utilisée comme langue véhiculaire par des personnes provenant d’au moins 120 pays à travers le monde, y compris comme langue maternelle. N’étant la langue officielle d’aucun État, l'espéranto permet d'établir un pont neutre entre cultures ; certains locuteurs nomment « Espérantie » la zone linguistique formée des lieux géographiques où ils se trouvent. Nécessitant un court apprentissage pour être utilisable, l'espéranto est ainsi présenté comme solution efficace et économiquement équitable au problème de communication entre personnes de langues maternelles différentes.
xwikis
Louis-Lazare Zamenhof naquit le, à Białystok, actuel chef-lieu de la voïvodie de Podlachie au Nord-Est de la Pologne, sa langue paternelle était le russe et maternelle le yiddish. À l'époque, la Pologne n'existait pas en tant qu'État mais était partagée entre l’Autriche, la Prusse et l'Empire russe. La ville cosmopolite de Białystok faisait alors partie de l'Empire russe (gouvernement de Grodno) et était habitée par des Polonais, des Allemands et des Russes de religions diverses. Ville de, Białystok héberge quatre communautés et quatre langues qui forment des barrières sociales : le russe (), polonais (), allemand () et yiddish (). Avec une telle diversité de nationalités, de religions, de langues et de mœurs, Białystok est le théâtre permanent de tensions et de graves incidents, tel le pogrom de Białystok. Louis Lazare en vient dès son enfance à s’interroger sur le moyen d’éradiquer les préjugés de race, de nationalité et de religion. Né dans une famille juive, fils de Markus, professeur d’allemand et de français, auteur de manuels très renommés de langues et de géographie, rigoureux, très attaché à la culture du savoir, et de Rozalia (Liba), une mère sensible et profondément humaine, le jeune Zamenhof se passionne vite pour les langues. Il pense qu’au sein de chacune des communautés qu’il côtoie se trouvent des gens avec lesquels tout problème peut trouver une solution honorable. Il pense que l’impossibilité de communiquer joue un grand rôle dans cette situation et qu'une passerelle linguistique ouvrirait la voie à des relations plus constructives.Alors qu’il aime la langue russe, Louis-Lazare voit pourtant cet état d’esprit, à l’échelle du monde, à travers une langue n’appartenant à aucun pays dominant, sans lien avec quelque nation que ce soit. Il s’attèle donc sans tarder à la tâche. Il n’a que 19 ans lorsqu’il présente un projet baptisé « "Lingwe Uniwersala" » à ses camarades de lycée. Il se retrouve vite seul, et les circonstances vont quelque peu perturber ses projets. Son père l’envoie étudier la médecine à l’université de Moscou. Hostile à des activités qu’il juge chimériques et craignant que des documents qui puissent sembler être chiffrés n’attirent des ennuis à son fils, il lui fait promettre de ne pas s’occuper de cela durant ses études, et garde les notes et manuscrits sous clé.À Moscou, les études de médecine n’empêchent pas Louis-Lazare de toujours s’intéresser aux langues. À vingt ans, il rédige la première grammaire yiddish, restée non publiée. Il tient malgré tout sa promesse quant au projet qui lui tient pourtant à cœur. De par ses origines, la question juive le préoccupe aussi. Il prend part à des activités visant à établir une colonie, voire un pays, où le peuple juif pourrait vivre sa propre vie. Il se rendra compte, après son retour à Varsovie, de la contradiction entre un tel projet et ses aspirations à unir les peuples, d’autant plus que certains comportements excessifs l’inquièteront. Il décidera par la suite de se mettre avant tout au service de l’humanité tout entière, conscient que c’est seulement ainsi qu’il servira le mieux son peuple et lui restituera sa dignité. Après deux ans d’études, il revient à Varsovie, certain que son père, homme scrupuleux, a conservé ses manuscrits en lieu sûr et qu’il pourra enfin reprendre ses travaux linguistiques. Mais sa mère lui révèle alors que son père a tout détruit. L’amertume et la rancœur cèdent vite la place à la détermination. Quoi qu’il en soit, Louis-Lazare se sent désormais libre et se remet à l’ouvrage. Sa mémoire lui permet de reconstituer l’essentiel de sa langue. Il lui apporte des modifications et des améliorations. On sait qu’il effectua ses observations de linguistique comparée lors de ses études de médecine à Moscou, ceci grâce aux contacts directs qu’il avait avec des étudiants venus de toutes les régions linguistiques du vaste empire russe.Louis-Lazare termine ses études à Varsovie puis s’installe comme généraliste. Ses premiers pas dans la vie professionnelle sont particulièrement pénibles. Il exerce sa profession dans des milieux défavorisés. La douleur physique et morale de ses patients le bouleverse au point qu’il ne peut plus tenir. Il décide alors de changer de métier, et de se spécialiser en ophtalmologie. La pratique de cette spécialité, toujours dans des quartiers très pauvres à Kherson, près de la mer Noire, à Grodno, en Lituanie, puis à Varsovie, lui permet de vivre plutôt mal que bien. Il lui arrive bien souvent de renoncer à faire payer ses consultations et ses soins. Le jour, il soigne. La nuit, il travaille sur la nouvelle langue.Le, après bien des difficultés, parmi lesquelles la censure et les obstacles financiers, résolus grâce à son futur beau-père, Louis-Lazare parvient à publier un premier manuel en russe sous le titre Langue Internationale. Il adopte alors le pseudonyme de « Doktoro Esperanto ». C’est par le biais de ce pseudonyme que nait le nom sous lequel la Langue Internationale se fera peu à peu connaître du grand public. Il se marie le avec Klara Silbernik (1863-1924). Compagne enthousiaste, enjouée, dévouée, collaboratrice efficace, elle a épousé l’homme et partage l'aventure de cette création. Alexandre Silbernik, le père de Klara, sera toujours là lorsque surviendront des difficultés, partageant lui aussi l’idéal de son gendre et l’enthousiasme de sa fille. Il travaille toujours intensivement, malgré bien des épreuves. Il écrit en prose et en vers et réalise de nombreuses traductions, afin que la "Langue Internationale" soit éprouvée, rodée, qu’elle n’ait rien à envier aux autres sur les plans de l’expression, de la précision, de l’esthétique. Des avis favorables se manifestent peu à peu : American Philosophical Society en 1889, Max Müller, l’un des plus éminents linguistes de l’époque, et Léon Tolstoï en 1894. En 1889 paraît la première liste de mille adresses ; il y en aura en 1900, en 1905. La censure du régime tsariste n’est pas parvenue, en 1895, à empêcher l’essor de la langue qui a déjà franchi les frontières de l’Empire russe et qui gagnera les autres continents au début des années 1900. La littérature espérantophone se développe et des sociétés d’espéranto se fondent : 44 en 1902, 308 en 1905Du 5 au, Boulogne-sur-Mer accueille le premier congrès mondial d'espéranto avec 688 participants de 20 pays. Preuve est faite que l’espéranto utilisé jusqu’alors essentiellement par écrit, fonctionne parfaitement. Pendant ce congrès, Zamenhof fonde une instance linguistique, le Lingva Komitato (comité linguistique), qui deviendra l'Akademio de Esperanto. Le Fundamento, qui fixe les 16 règles fondamentales de la langue, est adopté lors du congrès mondial de Boulogne. Les congrès se suivront ensuite chaque année : 1906 à Genève, ville dans laquelle Zamenhof séjourna dès 1905, puis Cambridge, Dresde, Barcelone, Washington, Anvers, Cracovie (l’un des plus importants), Berne. Le, tout est prêt pour accueillir à Paris congressistes originaires de 50 pays. Ce congrès n’aura malheureusement pas lieu ; la Première Guerre mondiale vient d’éclater, et Zamenhof n’en verra pas la fin.Zamenhof maîtrisait le russe, le polonais, l’allemand, l’hébreu, le yiddish et l'espéranto. Il connaissait bien le latin, le grec ancien, l’anglais et le français, assez bien l’italien, et avait aussi quelques connaissances d’araméen. (Ce qui lui donnait une certaine connaissance de douze langues.) Il avait en outre étudié le volapük, projet de langue internationale élaboré par Johann Martin Schleyer en 1879 qui échoua après une courte période de succès. Cette période dura suffisamment longtemps toutefois (1879-1889) pour ne pas discréditer l’idée de langue internationale construite. Contrairement au fondateur du Volapük, Zamenhof ne s’est pas comporté en propriétaire. Il avait renoncé à ses droits d'auteur et, en 1912, lors du congrès de Cracovie, il avait déclaré qu’il ne serait plus jamais devant les congressistes, mais parmi eux. Il avait compris qu’une langue ne pouvait être l’affaire d’un seul homme, ni même d’un comité de linguistes. Celle qu’il proposait au monde devait être capable de vivre sa propre vie, sans dépendre de son initiateur. De 1912 à sa mort, il s’attacha surtout à des traductions et aussi à la réalisation pour les religions de ce qu’il avait fait pour les langues : extraire le meilleur d’entre elles pour en faire percevoir l’esprit plutôt que la lettre. En 1984, on découvrit en Allemagne, que Zamenhof avait obtenu un brevet d’invention pour une machine à écrire. Faute d’argent pour la mettre sur le marché, il n’en profita pas. D’autres hommes eurent la même idée et l’exploitèrent. Louis-Lazare Zamenhof est enterré au cimetière juif de Varsovie.Zamenhof s’est toujours montré attentif à l’aspect humain des choses. Sans violence, il s’est battu sans autres armes qu’une inébranlable force morale afin que tous les peuples puissent retrouver leur dignité et dialoguer pacifiquement. Les adversaires de Zamenhof, dont certains au sein du mouvement, se moquaient de lui en le traitant de « prophète juif » en raison de son rêve, qu’il appelait « l’idée interne », de réconcilier un jour l’humanité. Pour ces intellectuels, l’espéranto était uniquement à considérer comme un projet linguistique et ils ne songeaient qu’à discuter de questions de grammaire pour définir la marque du pluriel ou l’infinitif. Mais c'était justement cette idée interne qui enthousiasmait les simples adhérents voyant en elle le moyen d’arriver à une meilleure communication internationale. Cette opposition éclata lors du Congrès de Boulogne. Les dirigeants à qui Zamenhof avait communiqué le texte de son discours furent scandalisés de son ton messianique et prédirent une tempête de sifflets. En fait, ce discours fut accueilli par de longs applaudissements plusieurs fois répétés, tandis que les opposants, perdus dans la foule, se contentaient de prendre des mines de désapprobation. Le clivage se concrétisa par la suite, lors de la « crise de l’Ido » : un certain nombre d’intellectuels adhérèrent à cette nouvelle langue qui satisfaisait mieux leurs conceptions théoriques, mais seule une minorité d'espérantophones les suivirent et l'Ido finira par décliner.Un peu après la fondation de la Société des Nations (SDN), 13 pays incluant ensemble environ la moitié de la population mondiale, dont la Chine, l'Inde et le Japon recommandent, en, d'utiliser l'espéranto comme langue de travail additionnelle de l'institution. Cette recommandation se heurte au véto de la France dominé alors par une majorité conservatrice qui pense maintenir ainsi le statut du français comme première langue diplomatique.Néanmoins l'espéranto devient, particulièrement à partir de ce moment, la langue internationale auxiliaire de référence. À partir des années 30 les espérantistes vont être fortement réprimés par les dictatures, particulièrement hitlérienne et stalinienne. Le 15 décembre est considéré comme le Jour de Zamenhof par de nombreux espérantistes. Il s'agit de l'anniversaire de Zamenhof, mais aussi le jour où à 19 ans il présenta à ses amis les ébauches de ce qui allait devenir l'espéranto. Les espérantistes profitent généralement de l'occasion pour se réunir. De nombreux objets à travers le monde portent le nom de Zamenhof ou de l'Espéranto. Ces objets sont appelés ZEO (Zamenhof/Esperanto objektoj) et sont généralement des rues, mais peuvent être des bateaux, des bustes, des monuments, voire des astéroïdes. Une liste sur la version Espéranto de Wikipédia compte notamment (en ) pour la France, 95 rues, places, ponts, squares...... portant le nom de Zamenhof, ainsi que cinq monuments lui étant dédiés. À cela s'ajoutent les rues, monuments, arbres dédiés à l'Espéranto ainsi que le musée national de l'espéranto à Gray (Haute-Saône), unique en France. Parmi les bustes, on cite celui qui fut réalisé par l'artiste-peintre espérantiste Ludovic-Rodo Pissarro et exposé au Salon des indépendants de 1935. Parmi les adeptes de l'Ōmoto, issue du shintoïsme, il est considéré comme un dieu. Cette religion reconnait de nombreux dieux ("kamis") mais qui seraient les différents aspects d’un seul. Jusqu'à son décès en 2005, le Japonais Itô Kanzi a continué de réunir les écrits et discours de Zamenhof (49 volumes, soit plus de pages). Umberto Eco a déclaré, quant à lui, à propos de l’espéranto :. Le centenaire de la mort de Zamenhof est marqué le, par la clôture de l'année Zamenhof au siège de l'UNESCO.Louis-Lazare Zamenhof et sa femme Klara ont eu trois enfants : un fils Adam et deux filles Sofia et Lidia. Lidia Zamenhof devient enseignante de l'espéranto, voyageant en Europe et aux États-Unis et devient baha'ie. Les trois enfants de Louis-Lazare Zamenhof sont assassinés lors de l'Holocauste. Adolf Hitler avait écrit dans "Mein Kampf" : Si bien qu'après l'invasion de la Pologne, la Gestapo de Varsovie reçoit l'ordre de « prendre soin » de la famille Zamenhof. Adam est donc tué dans un camp en 1940 et les deux sœurs sont assassinées dans le camp d'extermination de Treblinka en 1942.
Le docteur Ludwik Lejzer Zamenhof (en, "Eliezer Lewi Zamenhof" ; en ; en, "Liodvik Lazar Zamengof" ; en ; en ), dit en français Louis-Lazare Zamenhof, est un médecin ophtalmologiste polonais, né le à Białystok, dans l'Empire russe, et mort le à Varsovie. Né dans une famille juive, ses langues d’usage sont le yiddish, le russe et le polonais. Il est connu pour avoir élaboré la langue construite espéranto dans son ouvrage "Langue Internationale", publié en russe le sous le pseudonyme Doktoro Esperanto (« le docteur qui espère »). Il fut nommé une douzaine de fois au prix Nobel de la Paix.
xwikis
La géologie est la science qui, historiquement, s'occupait de la description et de l'histoire des couches externes de la Terre. Elle s'intéresse traditionnellement à la composition, à la structure et à l'évolution de la surface et des couches superficielles de la croûte terrestre qui, au cours des processus géologiques, sont tantôt enfouies sous la surface, tantôt exposées à la surface. Depuis le milieu des années 1960, avec l'avènement de la tectonique des plaques par une méthode géophysique (magnétisme des roches), approuvant l'ancienne théorie de la dérive des continents d'Alfred Wegener, les géologues ont trouvé un cadre plus général et plus approprié dans lequel placer et interpréter leurs observations. Le résultat en est que les géologues s'intéressent maintenant aussi à des zones plus profondes de la croûte et du manteau de la Terre, qui avant 1965 furent essentiellement l'apanage des géophysiciens. Il en résulte un brassage des idées profitables pour l'ensemble des sciences de la Terre. Néanmoins, si les géologues tiennent compte dans leurs modèles géologiques des acquis de la géophysique interne, cette dernière fait appel à des modèles physiques suffisamment simples pour être mis en équations et dégager des résultats quantitatifs, tandis que les modèles géologiques sont souvent assez complexes mais restent qualitatifs. Les sciences géologiques, organisées à l'échelle mondiale dans l'Union internationale des sciences géologiques, comprennent plusieurs disciplines qui se recoupent et sont souvent associées :La géodésie et la géophysique sont des sciences qui étudient la Terre par des méthodes mathématiques et physiques. Elles sont regroupées officiellement dans le cadre de l'Union géodésique et géophysique internationale, qui comprend les sept subdivisions suivantes, formant autant d'associations internationales :Le but de la météorologie est de trouver les lois régissant la dynamique du fluide que l'on nomme l'air et de pouvoir prédire son comportement futur. L'air est un fluide compressible, formé de différents gaz et se trouvant dans une mince couche à la surface d'un référentiel en rotation (la Terre). La météorologie étant une branche de la physique, la théorie des fluides, le calcul des forces et la thermodynamique sont mises à profit pour expliquer le comportement de l'atmosphère.L'écologie étudie les interactions entre la Terre et le vivant en s'intéressant notamment aux interfaces entre géosphère, hydrosphère, biosphère, écosystèmes, économie et sociétés, car ces dernières ont pris une importance croissante avec la conjonction d'une explosion démographique et du développement industriel qui ont fortement augmenté l'empreinte écologique de l'Humanité et des individus qui la composent. Les sciences de la Terre s'intéressent ainsi à l'étude des impacts du développement et aux modes d'aménagement du territoire en tant qu'impactant plus ou moins fortement la naturalité des milieux, pour trouver des moyens de gérer, restaurer et protéger les ressources primaires (eau, air, sol, diversités génétique, paysagère et spécifique). Les sciences de la Terre s'intéressent pluridisciplinairement aux conséquences des manières dont l'Homme modifie les dynamiques écopaysagères, climatiques, géomorphologiques, écologiques (biodiversité, de productivité biologique, en incluant des approches de type écotoxicologie, écoépidémiologie, bioindication...). Les sciences de la Terre tentent aussi de mesurer le degré de surexploitation de ressources pas, peu, lentement, difficilement ou coûteusement renouvelables, dans l'espace (aux échelles globales et locales) et dans le temps (écologie rétrospective, paléoécologie...), pour contribuer à élaborer des solutions pour un développement plus soutenable, des mesures conservatoires et mesures compensatoires quand cela semble possible.
Les sciences de la Terre, ou géosciences, regroupent les sciences dont l'objet est l'étude de la Terre (lithosphère, hydrosphère, atmosphère et biosphère) et de son environnement spatial ; en tant que planète, la Terre sert de modèle à l'étude des planètes telluriques.
xwikis
"Rychlé šípy" était à l’origine une série de bandes dessinées parue de 1938 à 1989 avec des pauses imposées par les Nazis en 1941 puis par le régime communiste de Tchécoslovaquie. Bien que ce soit toujours Jaroslav Foglar qui ait écrit le texte, la première série a été dessinée par le Dr Jan Fischer, la deuxième série (réalisée lors du printemps de Prague de 1968) a été dessinée par Marko Čermák. La première série a été publiée dans les magazines "Mladý Hlasatel" et "Vpřed". Les récits racontant les aventures des jeunes garçons, sont destinés à un jeune public. Le but était d'inspirer les jeunes lecteurs à créer leur propre club.Les Rychlé šípy sont les personnages principaux de la trilogie de romans "Dobrodružství v temných uličkách" ( « Aventures dans les ruelles sombres ») : "Záhada hlavolamu" ( « Le Mystère de l'énigme », 1941), "Stínadla se Bouri" ( « Stínadla se révolte », 1947) et "Tajemství Velkého Vonta" (« Le Secret du Haut Vont », 1986). "Záhada hlavolamu" a été adapté en film en 1993 (réalisé par Petr Kotek) et en série télévisée en 1969 (réalisée par Hynek Bočan). Ses accessoires célèbres incluent le vélo volant de Tleskač, le mystérieux Em, les ruelles sombres de Stínadla (« Les Ombres ») et la chanson des Vont, qui n’a pas de paroles.En 2018, la série fête ses 80 ans. Pour rendre hommage aux personnages et à l'auteur, une anthologie regroupant cinquante artistes de bandes dessinées tchèques et slovaques sort chez Akropolis Publishing House, avec la coopération de la Jaroslav Foglar Scout Foundation. Le, un Google Doodle lui est dédiée.
Rychlé šípy (littéralement « Flèches rapides ») est le nom d'un club fictif de cinq garçons, composé de Mirek Dušín, Jarka Metelka, Jindra Hojer, Červenáček (« Casquette rouge »), Rychlonožka (« Rapide ») et un chien nommé Bublina (« Bulle »). Ils ont été créés par l'écrivain tchèque. Les "Rychlé šípy" sont célèbres en République tchèque et en Slovaquie, la série étant une pierre angulaire dans l'histoire de la bande dessinée tchécoslovaque. Le nom de Mirek Dušín est même devenu proverbial, et fait référence à quelqu'un qui est extrêmement droit, honnête et travailleur, et qui est généralement utilisé de manière sarcastique.
xwikis
La notion de pression, corollaire de celle du vide, est à l'origine liée au problème de la montée de l'eau par pompe aspirante. Héron d'Alexandrie donne la première description des pompes de ce type, interprétant leur fonctionnement en termes de vide créé par « une certaine force ». Aristote récuse le concept de vide. La pensée scholastique médiévale généralise : « la Nature a horreur du vide » ("horror vacui"), ce qui n'empêche pas les progrès techniques de l'âge d'or islamique tels que la pompe aspirante-foulante décrite par Al-Jazari. Ces progrès gagneront l'Europe de la Renaissance avec les techniques de pompage étagé. Le problème scientifique refait surface au. En 1630, Jean-Baptiste Baliani suggère le rôle du poids de l'air pour équilibrer celui de l'eau dans une lettre à Galilée. Celui-ci remet en cause l'inexistence du vide en 1638, mais l'âge arrête ses réflexions sur le sujet. Evangelista Torricelli, reprenant le problème des fontainiers de Florence lié à la limitation des pompes aspirantes initialement confié à Galilée, confirme l'hypothèse du « poids de l'atmosphère » et invente le baromètre en 1643. Gilles Personne de Roberval précise le concept en étudiant en 1647 l'expansion des gaz, puis Blaise Pascal publie son fameux traité sur la pression atmosphérique en 1648. Robert Boyle établit la relation entre pression et volume en 1660 et Edmé Mariotte en 1676 (la loi de Boyle-Mariotte). On a à cette époque une description assez complète mais empirique de la pression des gaz. La théorie cinétique des gaz commence avec Daniel Bernoulli en 1738. Ludwig Boltzmann la mène à un degré de précision proche de l'état actuel en 1872 et 1877. Satyendranath Bose étend le domaine au rayonnement en 1924.Avec la pression on s'intéresse au transfert de quantité de mouvement dans un milieu liquide ou gazeux et à ses effets sur une paroi réelle ou virtuelle. On note x le vecteur unitaire normal à la paroi.La pression est définie classiquement par son effet sur une surface élémentaire formula_1. La force exercée est normale à la surface : où formula_3 est le vecteur unitaire normal à la surface, dirigé vers l'extérieur. Cette expression définit le scalaire, la pression. Pour un milieu d'aire finie : Cette définition élémentaire, commode au plan didactique, est insuffisante car la pression existe en l'absence de toute paroi.Considérons tout d'abord le cas d'un milieu unidimensionnel où Cette définition est une de la pression. Elle correspond en une dimension d'espace à la pression dynamique dans le cas d'une description macroscopique du problème d'un écoulement et se généralise aisément à un milieu tridimensionnel à symétrie sphérique lorsque la distribution des vitesses est isotrope. C'est le cas pour la description microscopique d'un gaz en équilibre thermodynamique (voir ci-dessous). En effet dans ce cas le flux est identique dans toutes les directions. Plus généralement ces échanges de quantité de mouvement ne sont ni isotropes ni totalement directifs et dans ce cas on utilise le tenseur des contraintes formula_5 (ou tenseur de pression) pour les décrire. En l'absence de couple interne au système ce tenseur est symétrique. Ceci est vérifié pour un fluide newtonien (mais pas seulement). Pour un fluide au repos ce tenseur est isotrope où formula_7 est le tenseur unité et p la pression hydrostatique. On définit le tenseur de contraintes visqueuses comme le déviateur où δ est le symbole de Kronecker. Pour un fluide newtonien et avec l'hypothèse de Stokes σ est un tenseur à diagonale nulle. Cette propriété est utilisée pour l'écriture standard des équations de Navier-Stokes.On définit la pression comme l'effet sur une paroi des impacts de particules (atome, molécules), effet résultant du transfert de quantité de mouvement. où n est la densité volumique des particules, m leur masse et v leur vitesse microscopique. < v2 > est la moyenne statistique du carré du module de la vitesse. Pour un gaz à l'équilibre thermodynamique local la moyenne statistique se réduit à la moyenne temporelle au point considéré et la vitesse obéit à la distribution statistique de Maxwell. On peut écrire où T est la température thermodynamique et k la constante de Boltzmann. Dans cette approche la paroi est supposée parfaitement réfléchissante, ce qui ne correspond pas à la réalité. En fait la condition de réflexion parfaite définit une condition de symétrie, donc la négation même d'une paroi : ce type de condition aux limites est utilisé en physique pour éviter tout problème lié à l'écriture d'une condition physiquement réaliste.La distribution maxwellienne des vitesses dans un gaz à l'équilibre thermodynamique résulte des interactions particule-particule dans le milieu libre. Les interactions paroi-particule sont de nature très différente et la distribution des vitesses est profondément altérée par la présence de la paroi sur une hauteur de quelques libres parcours moyens l. On peut définir une échelle macroscopique pour toute variable scalaire "a" par Si l est grand devant l on est en régime moléculaire décrit par l'équation de Boltzmann. Le calcul de l'effort sur la paroi se fera à partir de celui des interactions individuelles. Dans le cas l « l la paroi influence la distribution des vitesses dans une région épaisse de quelques libres parcours moyens appelée couche de Knudsen. On peut montrer que la contrainte normale sur la paroi p est la pression p hors de la couche de Knudsen à un facteur correctif près qui est en formula_12. Ce terme tend donc vers 0 lorsque la masse volumique du gaz augmente. Pour un gaz monoatomique il est strictement nul en l'absence d'écoulement et de transfert thermique. De la même façon il existe des termes de cisaillement p et p (tension superficielle) en formula_13. Si l'effet sur la pression est toujours négligeable, celui sur la vitesse et la température doivent être pris en compte dans certaines situations, par exemple l'écoulement en milieu poreux décrit par l'équation de Darcy-Klinkenberg.La tension interfaciale entre un liquide et un gaz ou entre deux liquides est liée aux phénomènes d'interaction entre molécules. Cet effet est analogue à celui dans un milieu gazeux proche d'une paroi solide décrit ci-dessus. Toutefois les interactions moléculaires dans un liquide sont beaucoup plus complexes que dans un gaz et il n'existe pas de surface en tant que discontinuité comme pour un solide. L'analyse analytique du phénomène est beaucoup plus difficile. On est réduit à l'expérience ou à un calcul de dynamique moléculaire, donc une expérience numérique. Toutefois l'approche qualitative utilisant le tenseur de pression permet d'illustrer le phénomène. Le tenseur de pression est diagonal du fait des symétries du problème. L'équilibre en x (axe normal à la surface) implique que p (x) = C = p. Les termes transverses p et p sont égaux par symétrie et varient avec x. On note p (x) leur valeur. Ces termes induisent une contrainte correspondant à l'écart à p l'intégration se faisant sur un domaine incluant la région d'épaisseur nanométrique de la couche incriminée. γ est la tension superficielle qui est une propriété du liquide seulement. Généralement la modélisation du phénomène s'appuie sur une approche mécanique ou thermodynamique qui ne dit rien des mécanismes sous-jacents.La thermodynamique du gaz de photons (des bosons obéissant à la statistique de Bose-Einstein) permet de définir une pression radiative qui a les mêmes attributs que la pression des atomes et molécules. Elle existe dans le milieu vide ou contenant un matériau non opaque et est utilisée en transfert radiatif. Dans les gaz à très haute température elle est du même ordre de grandeur ou même supérieure à la pression gazeuse. Cependant, par rapport aux gaz, le problème est simplifié par l'absence d'interaction photon-photon. Pour calculer le phénomène on peut donc superposer le rayonnement incident et le rayonnement émis de la paroi. Il n'existe pas l'équivalent de la couche de Knudsen. La force résultante sur la paroi peut avoir une direction quelconque. Dans le cas d'un faisceau parallèle impactant une surface absorbante, la force résultante a la direction du faisceau.Dans les étoiles denses comme les naines blanches ou les étoiles à neutrons la densité est telle que la matière est dans un état dégénéré. La composante de la pression liée au mouvement des particules est négligeable devant la part quantique liée à l'impossibilité pour les électrons ou les neutrons de se rapprocher au-delà d'une certaine distance sous peine de violer le principe d'exclusion de Pauli. La thermodynamique permet d'attribuer une pression isotrope à ce milieu, appelée pression de dégénérescence. Elle varie comme la puissance 5/3 de la masse volumique et est indépendante de la température. Le domaine est limité par la température de Fermi définie par où μ est le potentiel chimique. Dans le cas de dégénérescence électronique la température de Fermi des corps est de l'ordre de quelques dizaines de milliers de kelvins.En thermodynamique, la pression est définie à partir de l'énergie interne formula_16 par où "V" est le volume occupé, "S" l'entropie et "N = n V" le nombre de particules dans le volume "V". En général la pression est strictement positive car il faut fournir de l'énergie () pour diminuer le volume (). Cette définition est cohérente avec celle de la pression pour un milieu à l'équilibre thermodynamique en cinétique des gaz.Il existe de nombreux problèmes dans lesquels la couche limite est modifiée par l'état de paroi : rugosité à l'échelle millimétrique en aérodynamique, à l'échelle centimétrique en hydraulique ou à l'échelle métrique pour les vents dans l'atmosphère. Pour ne pas avoir à détailler chaque détail de la surface on définit une surface plane équivalente et on transfère les effets de la rugosité sur une condition aux limites "ad hoc". Lorsqu'on regarde ce qui se passe au niveau élémentaire on voit qu'il se produit une surpression dans la région au vent de la rugosité et une dépression dans la région sous le vent (voir figure). La force résultant de cette pression a donc une composante parallèle à la paroi équivalente. Celle-ci est petite devant la composante normale mais pas toujours totalement négligeable. Elle est généralement incluse dans le frottement et peut ainsi constituer une partie prépondérante de la valeur apparente de celui-ci. Le problème des écoulements sur paroi rugueuse est un problème non totalement résolu de la mécanique des fluides, à l'exception du cas de l'écoulement de Stokes pour lequel une homogénéisation est possible. Cet exemple met en évidence le fait que la décomposition habituelle du tenseur des contraintes en un terme diagonal (la pression) et un déviateur (le cisaillement) n'est pas toujours très pertinente, même dans le cas d'un fluide newtonien.Une perturbation quelconque dans un milieu solide ou fluide va créer un déséquilibre qui va se propager sous diverses formes. La propagation de la pression sous forme d'une onde étant rapide, c'est elle qui va porter l'information de cette perturbation dans le milieu environnant.Pour la simplicité on s'intéresse tout d'abord à un milieu uniforme où une onde plane se propage dans la direction x. La perturbation, supposée faible, ne perturbe que faiblement la distribution des atomes ou molécules à l'échelle microscopique, sur une distance de quelques libres parcours moyens. Deux cas sont possibles : Dans le cas du gaz on sait calculer la vitesse de propagation dans le cas où la perturbation est suffisamment faible pour supposer la transformation adiabatique. On peut alors écrire une équation de propagation à partir des équations d'Euler, d'où l'on tire la vitesse du son. Cette onde est faiblement amortie. En effet la viscosité dynamique ne concerne que les termes de cisaillement, ici absents. Par contre la viscosité volumique, correspondant aux phénomènes de compression et détente et liés aux échanges microscopiques entre énergie interne et énergie cinétique, joue un rôle d'amortissement de l'onde. La valeur de cette quantité est faible, son effet négligeable pour les calculs de mécanique des fluides. Elle influence cependant la propagation du son sur de longues distances.Dans un écoulement on parle d'onde simple pour décrire une onde provoquant des variations de pression locale comme les ondes de détente ou de compression isentropique. Leur analyse constitue la base de la compréhension des solutions des équations d'Euler au travers de l'analyse des caractéristiques.L'unité standard définie dans le Système international est le pascal (symbole Pa). Une pression de correspond à une force de exercée sur une surface de : = =. On utilise encore diverses unités, souvent d'origine historique, comme la barye (symbole ba, système CGS), le millimètre de mercure (mmHg) ou torr (Torr), l'atmosphère (atm) ou le bar (bar). Toutes ces unités sont encore d'usage courant dans divers domaines. On trouve encore dans le monde anglo-saxon des unités spécifiques comme la livre-force par pouce carré (psi = pound per square inch). La pression peut être négative. Un liquide placé dans une centrifugeuse subit une force qui peut être interprétée comme la résultante d'une. Des pressions négatives sont également observées dans de l'eau refroidie dans un volume constant, qui peut rester liquide à une température de en produisant une pression de (soit ). La pression théorique du vide absolu est nulle. La pression du vide interstellaire est d'environ (soit ). La pression maximale théorique est la pression de Planck (≈ ). Les pressions les plus élevées observées expérimentalement se situent au cœur des étoiles, la pression dans le soleil est d'environ (soit ).On peut faire varier expérimentalement la pression statique sur plus de vingt ordres de grandeur : depuis pour les vides poussés jusqu'à pour les plus hautes pressions produites en cellule à enclumes de diamant, utilisées par exemple pour déterminer l'équation d'état de métaux ou roches au centre des planètes. Selon la gamme de pression visée, les appareils de mesure utilisent des principes physiques très différents. Les méthodes de mesure peuvent être classées en méthodes directes et indirectes. Les premières reposent sur la mesure directe d'une force, exercée sur une membrane par exemple, et sont proches de la définition première de la pression. Les méthodes indirectes reposent sur la mesure d'une autre grandeur physique (résistivité, température...) qu'on peut relier à la pression par un étalonnage. Ces sondes de pression peuvent porter des noms très divers suivant leur utilisation et donc leur mode de fonctionnement. On peut citer comme appareils traditionnels : Certaines technologies ont été développées spécifiquement pour un domaine, par exemple les peintures sensibles à la pression (PSP) pour les expériences en soufflerie. La mesure de pression peut être absolue (valeur physique) ou relative à une valeur de référence, généralement la pression normale (1 bar). Dans ce dernier cas on parle toujours de pression alors qu'il s'agit d'une différence de pression, qui peut donc être négative. Il existe également des moyens permettant d'obtenir de très hautes pressions dynamiques (lasers de puissance, hautes puissances pulsées). Les hautes températures qui accompagnent ces expériences conduisent à l'utilisation de diagnostics optiques.La notion de pression étant d'un usage extrêmement général on se limitera à quelques exemples utilisables dans un objectif de vulgarisation. On trouve assez facilement des sites illustrant les bases de chacun de ces aspects.Une application très courante consiste à faire varier la surface d'application dans le but de multiplier l'effort exercé localement. Cela peut être réalisé par l'intermédiaire d'un solide, par l'exemple d'un objet pointu comme un clou ou un poinçon. On peut également utiliser un liquide comme pour la presse hydraulique. L'effet contraire de démultiplication est illustré par l'usage d'un support de surface notable pour exercer un effort sur un sol déformable. La notion d'intensité de la force due à la pression atmosphérique est illustrée par l'expérience historique des hémisphères de Magdebourg. Le lien avec la gravité permet d'expliquer un phénomène comme la poussée d'Archimède comme pour le thermomètre de Galilée ou le fonctionnement du baromètre tel celui de Huygens. La notion de pression de rayonnement permet d'expliquer le fonctionnement d'une voile solaire ou d'un radiomètre.Un élément caractérisant la pression en mécanique des fluides est le fait qu'elle est à l'origine d'écoulements. Un calcul simple permet de le montrer : prenons un élément de volume de fluide incompressible dV = dS dl, d'épaisseur dl, nommé « particule fluide ». En présence d'une différence de pression dp il est soumis à une force : On exprimera ceci plus généralement en disant que la force exercée par unité de volume est proportionnelle au gradient de pression : En lui appliquant l'équation fondamentale de la dynamique on trouve l'équation de conservation de quantité de mouvement pour un fluide non visqueux écrite en repère lagrangienSi la pression peut être mesurée par l'intermédiaire d'un phénomène qui en dépend, certaines quantités sont mesurées par leur dépendance à la pression.L'altitude formula_21 (au sens mathématique) sur terre peut être mesurée par l'intermédiaire de sa relation avec la pression au travers de la loi d'équilibre hydrostatique : où formula_23 est la masse volumique et formula_24 l'accélération de la pesanteur supposée constante dans l'intervalle d'altitude considéré. On calcule le profil formula_25 d'où on déduit formula_26. Diverses applications illustrent cette relation :L'échelle absolue de température thermodynamique est basée sur l'équation d'état du gaz parfait et la mesure de pression ou de volume. Le thermomètre à hydrogène constitue un étalon secondaire de mesure.On peut estimer le débit d'un fluide en utilisant un système entraînant une perte de charge calibrée (par ex. une plaque à orifice ou diaphragme). La différence de pression entre l'entrée et la sortie du système déprimogène est reliée à la vitesse du fluide par : avec : On calcule ainsi la vitesse : Dans un tube de Pitot, qui permet notamment de mesurer la vitesse des avions, l'un des capteurs mesure la pression totale (somme de la pression statique et de la pression dynamique) dans la veine du fluide et l'autre la pression statique seule. Le coefficient de perte de charge formula_60. Avec formula_61 la surface de la section d'entrée du capteur, le débit massique formula_62 vaut :
La pression est une grandeur physique qui traduit les échanges de quantité de mouvement dans un système thermodynamique, et notamment au sein d'un solide ou d'un fluide. Elle est définie classiquement comme l'intensité de la force qu'exerce un fluide par unité de surface.
xwikis
Les premiers écrits pour la jeunesse, comme ceux de Charles Perrault, ne lui étaient en fait pas réservés ; ils s'adressaient aux adultes autant qu'aux enfants. Dans le domaine français, le premier livre destiné à un enfant (Louis de France) est "Les Aventures de Télémaque" (1699) de Fénelon. C'est avec Jeanne-Marie Leprince de Beaumont que sont écrits les premiers contes spécifiquement destinés à la jeunesse. À la même époque, le jeune public s'approprie les Gulliver, Don Quichotte et, bien sûr, Robinson Crusoé, recommandé par Rousseau. Le charme de la littérature de jeunesse tient à ce qu'elle soit d'abord un support de rêveries enchanteresse ou inquiétantes. Au apparaissent les libraires d'éducation (éditeurs). Louis Hachette, d'abord spécialisé dans les manuels scolaires, investit l'édition de loisir à partir de 1850. C'est le développement des voyages qui lui donne l'idée d'implanter des kiosques dans les gares, dans lesquels il vendra à partir de 1853 sept collections destinées aux voyageurs et dont une seule, la Bibliothèque rose, perdurera, avec des auteurs tels que la Comtesse de Ségur ou Zénaïde Fleuriot. En 1843, Jules Hetzel fonde le "Nouveau magasin des enfants". Puis, en 1864, de retour d'exil, il publie le "Magasin d'éducation et de récréation" destiné à la lecture en famille. Le projet est de faire collaborer savants, écrivains et illustrateurs dans le but de réconcilier la science et la fiction, et de mettre l'imagination au service de la pédagogie. C'est une position difficile à tenir dans un climat positiviste, mais grâce à la rencontre avec Jules Verne, Hetzel réussit à imposer un nouveau genre. En 1865, en Angleterre, paraît Alice au pays des merveilles de Lewis Carroll. Il sera traduit en français en 1869. Après 1870 on assiste à une multiplication des titres et des éditeurs. C'est l'époque des romans à succès d'Hector Malot : "Sans famille", Erckmann-Chatrian : "L'Ami Fritz" et de Frances Hodgson Burnett : "Le Petit Lord Fauntleroy" (1886). Dès 1907, après le premier aéroplane de Hubert Latham qui vole à 300 mètres, les rêves de voyages envahissent la littérature avec "Le Tour de la France par deux enfants" de Madame Augustine Fouillée, (sous le pseudonyme de G. Bruno) et "Le Merveilleux Voyage de Nils Holgersson à travers la Suède" de Selma Lagerlöf, deux romans à vif succès qui vont marquer un tournant dans la littérature pour la jeunesse. Ces rêves de voyages rapprochent l'enfant et l'adulte qui lit plus volontiers la littérature enfantine, avec toutefois deux pauses historiques dans la production : le passage de deux cataclysmes sous forme de guerres mondiales. L'explosion de l'Image d'Épinal et des recueils de contes en images aussi bien que des recueils de textes patriotiques après la Première Guerre mondiale relancent l'intérêt pour la lecture et du même coup, pour ce qui deviendra l'ancêtre de la bande dessinée. Dans l'entre-deux-guerres, il faut signaler (en France) le Père Castor (Paul Faucher), "Les Contes du chat perché" de Marcel Aymé, et quelques livres de Jacques Prévert. En Belgique Albert Hublet a du succès avec la collection des "Alain Belle-Humeur". Tout de suite après la deuxième Guerre mondiale, Louis Mirman, directeur de la section Jeunesse chez Hachette, et son épouse Madeleine Gueydoux, auront l'idée d'utiliser du simple papier journal pour imprimer des livres à coût réduit qui permettront de multiplier les publications dans la Bibliothèque verte et la Bibliothèque rose. A partir des années 1950, alors que la littérature jeunesse se développe et se renouvelle fortement, l'activité de critique littéraire émerge, sous la plume de pionniers parmi lesquels Natha Caputo, Marc Soriano, Mathilde Leriche et Janine Despinette. Plusieurs associations professionnelles sont créées, ainsi que Durant les années 1970, François Ruy-Vidal avec l'aide d'Harlin Quist, aborde des thèmes jusqu'alors plutôt réservés aux adultes et considère qu'« il n'y a pas de littérature pour enfants, il y a la littérature » ; Françoise Dolto a fortement critiqué sa vision des choses. Une vision d'autant plus critiquable que la littérature de jeunesse se veut au service de la jeunesse car elle ambitionne à contribuer tant au développement qu'au bien-être de ses lecteurs. Son rôle est ainsi d'accompagner et de favoriser la lente mutation de son jeune public au travers de trois grands objectifs : l'élaboration de la personnalité en s'intéressant essentiellement à la morale et à l'idéologie, la transmission des savoirs et le divertissement. À la fin du, avec une liberté plus grande pour les auteurs et les illustrateurs, dès le début des années 1980, la littérature humoristique cesse d'être marginale comme avec Marcel Aymé et voit les jeux de mots de Pierre Elie Ferrier : le "Prince de Motordu", ou encore "Le Monstre poilu" dont l'insolence maîtrisée sera appréciée jusque dans des écoles primaires et chez des orthophonistes. À la même époque, pour amener les pré-adolescents amateurs de jeux vidéo à se rapprocher du livre, on a vu fleurir une nouvelle variété de "romans" pour lecteurs-zappeurs : les livres dont vous êtes le héros dont la lecture s'apparentait à un jeu de piste. En majorité traduits de l'anglais, ces livres connurent un immense succès feu-de-paille pendant dix ans. Depuis le début du, on assiste à un regain d'intérêt pour la littérature de jeunesse, principalement sous l'effet des livres de la série "Harry Potter". Cette série ayant redonné le goût de la lecture à certains enfants, d'autres auteurs ont vu les ventes de leurs livres augmenter. Mais aussi parce qu'il y a un essor du choix et de la créativité chez les nouveaux auteurs de jeunesse. La Corée s'impose comme un des principaux acteurs du marché grâce à la richesse et la diversité de ses illustrateurs. Les rapports annuels sur le taux d'illettrisme (10 %) en France restent malgré tout identiques depuis plus de trente ans.Comme les autres types de littérature, celle qui s'adresse à la jeunesse s'adapte à la révolution numérique. En France, à partir de 2009 environ, elle commence à se transformer. Alors que des éditeurs tels que Nathan, Fleurus ou Gallimard jeunesse, plus traditionnels, s'en tiennent à la production de versions électroniques de leurs publications papiers, de nombreux éditeurs jeunesse se lancent dans une production 100 % numérique, tels que GoodBye Paper éditions. L'édition jeunesse fait face à différents enjeux dans son passage au numérique. Elle doit se questionner sur la pertinence d'utiliser la multitude de fonctionnalités proposées par le numérique. Elle doit également s'adapter aux impératifs économiques et juridiques, qui peuvent être nombreux et différents dans un modèle où s'accroît la diversité des éléments intégrés dans les publications. Enfin, il importe aux éditeurs de s'interroger sur les modèles économiques privilégiés, puisque ceux-ci sont associés à l’adoption d'un format de diffusion : publier via une application, par exemple, exige de transiger via iTunes et Google Play.Depuis quelques années, les auteurs de littérature de jeunesse ont grandement accru et étoffé les rayons des librairies. En effet, on peut y trouver un choix et une créativité abondants. L'un des genres dans lequel s'épanouissent particulièrement les auteurs de jeunesse contemporains, comme Claude Ponti et Grégoire Solotareff, sont les albums illustrés. Une véritable culture de l'album, tant dans les foyers qu'à l'école, est en train de se mettre en place. En effet, c'est là l'un des premiers objets culturels que l'enfant va pouvoir manipuler et même posséder dès son plus jeune âge. Certains enseignants utilisent même la littérature d'enfance et de jeunesse comme support à l'apprentissage de la lecture. De plus, beaucoup d'éditeurs tels que Gallimard, Hachette, Circonflexe, Thierry Magnier ou l'École des loisirs proposent des albums élaborés (textes poétiques et / ou symboliques, illustrations artistiques...) sur des thèmes variés et importants (la différence, la tolérance, la mort...). Il s'agit parfois de petites maisons d'édition misant sur la qualité, telles que Mémo, éditeur nantais depuis 1993, qui consacre une partie de son catalogue à de grandes rééditions, ou encore les Éditions du Jasmin, créées en 1997, révélées par la publication des "Contes de l'alphabet" d'Emmanuelle et Benoît de Saint Chamas. Certaines maisons d'édition prennent parfois le risque d'éditer des textes politiquement incorrects mais dont le contenu amuse les adultes et les enfants, comme "Le Dragon dégoûtant" par Henriette Bichonnier illustré par Pef (Gallimard). À partir des années 1970, la critique se penche spécifique sur ces œuvres graphiques, avec notamment les travaux de Janine Despinette qui crée le concept de. L'édition jeunesse voit apparaître de nouvelles formes narratives qui s'appuient sur les cinq sens de l'enfant. La technologie et les possibilités d'impression sur différents matériaux étendent l'acte de lecture vers des champs d'expérimentation complexes, toujours plus riches. La narrativité augmentée telle qu'abordée par Typlume & graphine, offre également une nouvelle expérience de lecture, le principe d'inclure dans l'histoire et donc le livre des éléments réels de la vie de l'enfant permettant d'aborder le livre sur un axe ludo-éducatif favorisant les apprentissages. Un point de réserve est à souligner, cependant, sur la proposition de certains acteurs du marché qui tendent à mettre en scène l'enfant en situation de justicier.Les livres pour enfants bon marché ont existé dès le mais ce secteur éditorial se voit touché à la fin des années 1970 par le phénomène du livre de poche, soit une vingtaine d'années après le secteur adulte, comme si le public enfantin (ou les parents?) avait jusqu'alors répugné à (s')offrir du petit roman jetable. Les éditions de l'Amitié (Hatier) lancent en effet leur collection « Jeunesse poche » dès 1971 puis L'École des loisirs ses « Renard Poche », collection où paraissent, à partir de 1976, "Le Voyage en ballon" et "Crin-Blanc" d'Albert Lamorisse, des titres de Tomi Ungerer ou Arnold Lobel et des classiques ("Robinson Crusoé" de Daniel Defoe, "L'Homme à l'oreille cassée" d'Edmond About, "Le Roman de la momie" de Théophile Gautier, "Les Voyages de Gulliver" de Jonathan Swift, "Quentin Durward" de Walter Scott, "Tartarin de Tarascon" d'Alphonse Daudet...). Mais le véritable coup de tonnerre dans le petit monde de l'édition enfantine est la parution en 1977 du premier « Folio junior » pour un public d'adolescents et préadolescents. Cette collection publie notamment les œuvres d'Henri Bosco, Roald Dahl, Claude Roy, Michel Tournier, Marcel Aymé etc. Désormais, les enfants connaissent eux aussi le charme du livre dont les pages se décollent, les premières éditions de Folio junior étant particulièrement fragiles. Le succès de la collection incite Gallimard à lancer en 1980 des livres de poche illustrés en couleurs pour les 5-7 ans (« Folio Benjamin ») puis la collection « Folio Cadet » pour la tranche d'âge intermédiaire en 1983. Hachette suit le mouvement avec « Le Livre de poche jeunesse » en 1979 ː Erich Kästner avec "Émile et les Détectives", Hans Peter Richter, José Mauro de Vasconcelos avec "Mon bel oranger", Henriette Bichonnier avec "Émilie et le Crayon magique", Paul Berna, etc. Viennent ensuite, en 1980, le tour de Flammarion avec « Castor Poche » (et l'édition de "Jonathan Livingston le goéland" de Richard Bach illustré par Gérard Franquin), et Casterman avec « L'Ami de poche ». Dans les années 1980, tous les grands éditeurs pour la jeunesse lancent leur collection de poche. Depuis les années 1990 la plupart des romans pour jeunes et adolescents ne connaissent pas d'autre édition que le livre de poche. Celui-ci, cependant, a tendance en ce début du à grandir. Ainsi les poches de la collection Folio benjamin sont-ils réédités dans un format qui se rapproche de celui de l'album. Ces dernières années, la frontière entre livres de poche et autres livres, a tendance, en littérature de jeunesse, à se brouiller : certains éditeurs font paraître de courts romans pour des élèves de cours préparatoire (CP) ou des classes suivantes qui reprennent les personnages de certaines méthodes de lecture du CP (Ratus, Gafi,...). D'autres éditeurs font paraître en petits livres de poche des œuvres qui relèvent autant de l'album que du roman, c'est-à-dire qu'ils comportent beaucoup d'illustrations et un texte souvent court ("Le Loup rouge" de Friedrich Karl Waechter ou "Du commerce de la souris" d'Alain Serres par exemple). Enfin, alors que le livre de poche avait tendance à privilégier les romans, les recueils sont devenus très fréquents (recueils de textes courts comme "Histoires pressées" de Bernard Friot, recueils de textes poétiques, recueils de nouvelles policières comme "Drôle de samedi soir" de Claude Klotz, recueils de contes comme "Contes d'un royaume perdu" d'Erik L'Homme et François Place.L'essor de ce secteur éditorial a été accompagné d'une multiplication des prix littéraires décernés par des collectifs de libraires, des associations professionnelles, des salons et autres manifestations littéraires. On en recense pas moins de 136 en France.Quelques autres prix :Dans les écoles et les collèges français, les professeurs doivent désormais être sensibilisés à la littérature de jeunesse. Les professeurs de français en collège doivent ainsi faire lire au moins une œuvre de littérature de jeunesse à leurs élèves. Des titres sont conseillés dans les programmes officiels édités par le ministère de l'Éducation nationale. Par ailleurs, "via" le portail Éduscol, des listes de « Lectures pour les collégiens » sont proposées afin de compléter les titres de la littérature patrimoniale des programmes du collège. En Primaire, la demande est beaucoup plus importante : les enseignants de cycle 3, par exemple, doivent faire lire dix œuvres (albums, romans, contes...) par an aux élèves (œuvres travaillées en classe avec tous les élèves). De plus, ils doivent permettre aux élèves de lire, en plus, dix œuvres de façon plus libre ; pour ces dix livres, les élèves ne choisissent pas tous les mêmes, les livres ne sont pas travaillés collectivement en classe ; les enseignants doivent permettre aux enfants de les lire en les aidant par exemple à choisir dans la bibliothèque de l'école. Depuis 2002, le ministère édite aussi une liste destinée aux enseignants des écoles élémentaires. Lors de son apparition, cette liste a été vivement contestée aussi bien par des auteurs que par des libraires, des éditeurs ou par certains enseignants. Avec elle était considérée comme trop restrictive, on pouvait craindre qu'elle ne fige le paysage littéraire. En 2004, une actualisation, sous la direction de Christian Poslaniec a élargi les recommandations à. La liste de proposés par le ministère en 2004 ne concerne que le cycle 3 de l'école primaire (CE2-CM1-CM2) ce qui veut dire qu'il y a beaucoup plus que si l'on tient compte des deux autres cycles (cycle 1 avec la maternelle et cycle 2 avec grande section de maternelle, CP et CE1). Néanmoins, il est vrai que c'est surtout pour le cycle 3 que le ministère a produit des documents (comme les documents d'application Littérature cycle 3 et le document d'accompagnement "Lire et écrire au cycle 3". Il faut préciser qu'il s'agit là d'une liste à titre indicatif. À noter que cette liste contient des classiques de la littérature de jeunesse qui sont tombés dans le domaine public et dont les textes sont donc librement photocopiables et diffusables auprès des élèves. Certains de ces textes sont d'ailleurs disponible sur Wikisource (comme "Le Stoïque Soldat de plomb", "La Petite Fille aux allumettes" et "La Petite Sirène" d'Hans Christian Andersen ; "L'Oiseau bleu" de Madame d'Aulnoy, "Dame Hiver", "Le Pêcheur et sa femme" et "L'Oiseau d'Ourdi" des frères Grimm ; "Ali Baba et les quarante voleurs" et "Sinbad le Marin", tous deux extraits des "Mille et une Nuits" ; les "Fables de La Fontaine", "La Belle et la Bête" de Jeanne-Marie Leprince de Beaumont ; plusieurs contes de Charles Perrault, dont "Cendrillon" et "Barbe-Bleue").Les principaux festivals et salons en France sont :On considère que la littérature jeunesse au Québec commence avec les "Aventures de Perrine et Charlot", de Marie-Claire Daveluy, en 1923, paru pour la première fois dans la revue "L'Oiseau bleu" publiée par la société Saint-Jean-Baptiste à l'intention des jeunes Canadiens français. À cette époque, la production était plutôt réduite, et dans les années 1920 seuls quelques titres jeunesse ont été publiés dont "Dollars ou L' Épopée de 1660 racontée à la jeunesse", de Joyberte Soulanges alias Ernestine Pineault-Léveillé. La première bibliothèque francophone destinée aux enfants est fondée en 1937, à Montréal, dans le quartier Hochelaga. Dès les années 40, la littérature de jeunesse s'est développée, de façon accidentelle, au Québec à la suite des événements de la Seconde Guerre mondiale. En effet, les relations étant coupées entre la France et le Canada, l'approvisionnement en livres européens était difficile. Il a donc fallu produire plus de livres au Québec. Pour ce faire, le premier ministre du Canada, William Lyon Mackenzie King, accorda aux éditeurs canadiens-français la licence de reproduction des œuvres françaises. Cette intervention du pouvoir fédéral contribua à l'essor de l'édition québécoise. L'industrie du livre connu la prospérité et Montréal devint, pendant la Seconde Guerre mondiale, un grand centre d'édition. Au cours de ces années, l'implication des bibliothécaires participa également à l'envol de la littérature de jeunesse grâce aux animations littéraires qu'ils mirent en place pour stimuler le jeune lectorat. Depuis les années 1980, la production en littérature jeunesse au Québec explose et se diversifie.
La littérature d'enfance et de jeunesse est un secteur de l'édition qui se spécialise, par sa forme et son contenu, dans les publications destinées à la jeunesse (enfants et adolescents). C'est un genre littéraire qui a émergé à partir du et a pris de l'importance au cours du. L’appellation " littérature enfantine " apparaît en 1950 dans des ouvrages de critique. Cette appellation a progressivement évolué avec le temps, faisant place à " la littérature pour la jeunesse ", puis " la littérature d'enfance et de jeunesse " et enfin, " la littérature de jeunesse ". Ce secteur, régi par des lois différentes des autres éditions, est issu d'une histoire spécifique. En France, la loi qui régit les publications pour la jeunesse est la loi du 16 juillet 1949 sur les publications destinées à la jeunesse modifiée par l'article 14 de l'ordonnance du et par la loi du.
xwikis
La première loi de Kepler est dite loi des orbites ou loi des ellipses. Les planètes du système solaire décrivent des trajectoires elliptiques, dont le Soleil occupe l'un des foyers. Plus généralement, les objets célestes gravitant autour du Soleil décrivent des trajectoires qui sont des coniques dont le Soleil est un foyer. Dans le cas des comètes, on peut en effet avoir aussi des trajectoires non-fermées, paraboliques ou hyperboliques. Dans le référentiel héliocentrique, le Soleil occupe toujours l'un des deux foyers de la trajectoire elliptique des planètes qui gravitent autour de lui. À strictement parler, c'est le centre de masse qui occupe ce foyer ; la plus grande différence est atteinte avec Jupiter qui, du fait de sa masse importante, décale ce centre de masse de ; soit solaires — des déplacements plus importants peuvent être obtenus en cumulant les effets des planètes sur leur orbite. Les ellipses que décrivent les centres de gravité des planètes sont quasi-circulaires, ayant une faible ou très faible excentricité orbitale, les plus élevées étant celles de Mercure (~0,2), suivie de celle de Mars (~0,09). C'est cette dernière que Kepler a utilisée pour sa découverte de la première loi, et il est aidé en cela par la faiblesse de l'excentricité de l'orbite de la Terre (~0,017) relativement à celle de Mars. Les foyers sont eux bien distincts du centre de l'ellipse.La deuxième loi de Kepler est dite loi des aires. "Des aires égales sont balayées dans des temps égaux." Si "S" est le Soleil et "M" une position quelconque d'une planète, l'aire (de la surface) balayée par le segment ["SM"] entre deux positions "C" et "D" est égale à l'aire balayée par ce segment entre deux positions "E" et "F" si la durée qui sépare les positions "C" et "D" est égale à la durée qui sépare les positions "E" et "F". La vitesse d'une planète devient donc plus grande lorsque la planète se rapproche du Soleil. Elle est maximale au voisinage du rayon le plus court (périhélie), et minimale au voisinage du rayon le plus grand (aphélie). De cette deuxième loi, on déduit que la force exercée sur la planète est constamment dirigée vers le Soleil. Kepler écrira à un collègue : "Une chose est certaine : du Soleil émane une force qui saisit la planète". De la loi des aires découle directement l'équation de Kepler qui permet de trouver l'aire parcourue en fonction de la position exacte d'une planète. En effet la deuxième loi de Kepler implique que la planète accélère en approchant du Soleil et décélère en s'éloignant du Soleil. La vitesse n'est donc pas constante mais seulement la vitesse aréolaire (la planète balaie des aires égales en des intervalles de temps égaux). C'est pourquoi à "formula_1" la planète n'a pas parcouru un angle de 90° mais a balayé une aire de "formula_2". L'équation est de la forme "formula_3". Avec "M" l'aire parcourue (connue sous le nom d'anomalie moyenne), "e" l’excentricité et "E" l'angle au centre de l'ellipse. Comme l'équation de Kepler est non linéaire (en "formula_4"), le problème inverse qui revient à trouver l'angle de la planète en fonction de l'aire (et donc du temps), ne possède pas de résolution simple. Mais il existe une solution exacte sous forme de séries (sommes infinies) ainsi que des approximations E obtenues par la méthode de Newton. En partant, par exemple, de E=M on a :La troisième loi de Kepler est dite loi des périodes ou loi harmonique. Le carré de la période sidérale "P" d'une planète (temps entre deux passages successifs devant une étoile) est directement proportionnel au cube du demi-grand axe "a" de la trajectoire elliptique de la planète : avec "k" constant. Les lois de la gravitation universelle énoncées par Isaac Newton permettent de déterminer cette constante en fonction de la constante gravitationnelle "G", de la masse du Soleil "M" et de la masse de la planète "m" gravitant autour du Soleil selon soit, avec M»m En exprimant les distances en unités astronomiques et les périodes en années, la loi s'exprime très simplement : De cette troisième loi, appelée aussi « loi harmonique de Kepler » (car elle exprime un invariant à travers tout le système solaire, « donc » une certaine harmonie de celui-ci, le mouvement de toutes les planètes étant unifié en une loi universelle), on déduit qu'il existe un facteur constant entre la force exercée et la masse de la planète considérée, qui est la constante de gravitation universelle, ou constante gravitationnelle. Cette formule, avec celles de l'ellipse, permet de calculer les différents paramètres d'une trajectoire elliptique à partir de très peu d'informations. En effet, Johann Lambert (1728 - 1777) montra que la connaissance de trois positions datées permettaient de retrouver les paramètres du mouvement.Isaac Newton comprit le lien entre les lois de la mécanique classique et la troisième loi de Kepler. Il en déduisit la formule suivante : où Dans le cas d'un système étoile/planète, la masse formula_15 de la planète peut être négligée par rapport à la masse formula_16 de l'étoile : On commence par établir la loi des aires :Un exercice mathématique classique consiste à démontrer qu'on trouve les trois lois de Kepler pour un corps en mouvement à partir du moment où on admet que ce corps est soumis à une accélération inversement proportionnelle au carré de sa distance à un point fixe, et dirigée vers ce point. On parle d'accélération en 1/r2. Pour un même corps placé dans différentes conditions initiales, la troisième loi s'applique, avec un coefficient dépendant du problème.En admettant que le Soleil soit infiniment lourd par rapport aux planètes, et en négligeant leurs interactions entre elles, on constate que les planètes sont soumises aux trois lois. De plus, en combinant le principe fondamental de la dynamique (deuxième loi de Newton) et la loi universelle de la gravitation, on trouve que l'accélération est "indépendante de la masse du corps mobile" dans le cas d'un mouvement pour lequel la force qui s'applique est la gravité. En conséquence, la constante de la troisième loi est la même pour toutes les planètes. On peut appliquer les lois de Kepler pour tout autre objet central ; seule la constante de la troisième loi change. C'est le cas, par exemple, de la Lune et de la Terre ou d'un satellite artificiel en orbite autour de celle-ci ou pour les multiples lunes de Saturne.Les lois de Kepler peuvent aussi s'appliquer dans le cas d'un problème à deux corps. Simplement, dans ce cas, le point central auxquelles se réfèrent les deux premières lois n'est pas le centre du corps le plus massif, mais le centre de masse des deux objets.Comme on l'a dit plus haut, les lois de Kepler ne sont pas limitées à la gravitation. Elles s'appliquent pour toute accélération en 1/r2. Or c'est aussi le cas de la loi de Coulomb en électrostatique. Les lois de Kepler s'appliquent donc aussi aux électrons orbitant autour d'un noyau atomique. Le modèle de Bohr–Sommerfeld prévoit d'ailleurs des orbites elliptiques pour les électrons. Par contre, on n'a plus indépendance par rapport à la masse du corps mobile. La constante dans la troisième loi dépend des constantes de la force, et de la masse (indépendante d'un électron à l'autre). Toutefois aujourd'hui, la physique quantique considère que les électrons en orbite elliptique autour du noyau n'est qu'une approximation autrefois utile.Johannes Kepler découvre ses lois grâce à un travail d'analyse considérable des observations astronomiques établies par Tycho Brahe, qui sont bien plus précises que celles déjà connues, il s'appuie en particulier sur les positions de Mars, dont il étudie le mouvement dès 1600. Il est persuadé que le soleil est, d'une façon ou d'un autre, le « véritable » centre du système solaire (pour les planètes extérieures comme Mars, Copernic utilise un point fictif voisin du soleil comme centre d'un cercle sur lequel tourne à vitesse uniforme le centre d'un petit épicycle portant la planète). Guidé par cette conviction et après de longs errements, il finit par découvrir que le mouvement des planètes est elliptique, avec le soleil placé en un foyer de l'ellipse. Ses résultats et la façon dont il y est parvenu sont consignés dans son ouvrage majeur, l'Astronomia nova, paru en 1609, mais de fait terminé fin 1605. Ses lois ont permis, elles-mêmes, d'affiner les recherches astronomiques et de mettre en évidence des irrégularités de mouvements de corps connus, par une étonnante progression de l'analyse. L'exemple le plus spectaculaire fut celui des irrégularités d'Uranus qui permit la découverte de Neptune par Le Verrier (1811 - 1877), par le calcul : découverte confirmée par l'observation de Galle (1812 - 1910) en 1846.
En astronomie, les lois de Kepler décrivent les propriétés principales du mouvement des planètes autour du Soleil. L'éponyme des lois est l'astronome Johannes Kepler (-) qui les a établies de manière empirique à partir des observations et mesures de la position des planètes faites par Tycho Brahe, mesures qui étaient très précises pour l'époque (8 minutes d'arc de précision). Copernic avait soutenu en 1543 que les planètes tournaient autour du Soleil, mais il s'appuyait sur le mouvement circulaire uniforme, hérité de l'antiquité grecque, et les moyens mathématiques n'étaient pas si différents de ceux utilisés par Ptolémée pour son système géocentrique.
xwikis
De nombreuses expériences simples permettent de mettre en évidence l'existence d'un champ lié à l'action de particules chargées, ainsi que son caractère vectoriel. Il est notamment possible de citer :Le champ électrique est le champ vectoriel formula_3 qui résulterait de l'action à distance de particules électriquement chargées sur une particule test de charge unité au repos dans le référentiel d'étude (galiléen). C'est donc la force subie par la particule au repos divisée par la charge de cette particule. Il s'agit d'un champ vectoriel qui à tout point de l'espace associe une direction, un sens, et une grandeur (amplitude). L'équation aux dimensions du champ électrique est : Les normes de ce vecteur s'expriment en volts par mètre () ou en newtons par coulomb () dans le Système international d'unités. La valeur en un point donné du champ électrique dépend de la distribution de charges ou de la nature des matériaux remplissant l'espace. Historiquement il fut introduit au milieu du par Michael Faraday pour expliquer dans ses expériences certaines actions à distance, cette interaction est aujourd'hui reconnue comme portée par le photon. Associé au champ magnétique, il forme le champ électromagnétique qui permet notamment de décrire l'une des quatre interactions fondamentales de l'univers : l'interaction électromagnétique.Lorsque les charges qui créent le champ sont au repos dans le référentiel d'étude on parle de champ électrostatique. Ce champ est alors directement déduit de l'expression de la "loi de Coulomb" (ou interaction électrostatique).C'est en utilisant un dispositif (balance de Coulomb, cf. figure ci-contre) comprenant un fil de torsion en argent sur lequel étaient fixés des matériaux chargés que le physicien Français Coulomb a établi en 1785 que le champ doit varier comme le carré inverse de la distance entre les charges, à une précision de 0,02 sur l'exposant. La loi d'attraction entre deux charges ponctuelles "q" et "q", fixes dans le référentiel d'étude et situées à une distance "r" l'une de l'autre : Mathématiquement, il est possible de résumer ces résultats en écrivant l'expression de la force exercée par "q" sur "q" sous la forme : La difficulté conceptuelle de la notion de force à distance est liée notamment au fait qu'il est difficile de concevoir comment la charge "q" peut « savoir » qu'une autre charge ponctuelle "q" se trouve à une certaine distance, et « exercer une force » sur cette charge. De la même façon que pour le champ gravitationnel, il est utile de séparer dans la loi de force ce qui dépend de la charge subissant la force en remarquant qu'il est possible d'écrire : avec formula_11 "champ électrique" (plus précisément "électrostatique") créé par la charge "q" au point où se trouve l'autre charge. Avec cette écriture l'existence de la force à distance peut s'interpréter d'une façon nettement plus satisfaisante : la charge « source » "q" crée en tout point de l'espace un champ électrique dont la forme est donnée par l'expression précédente, et une charge « test » quelconque subira l'effet de ce champ sous la forme d'une force égale au produit de cette charge par formula_3. Ainsi le champ électrostatique apparaît-il comme la force entre deux particules ponctuelles fixes par unité de charge.En régime statique, les quatre équations de Maxwell se découplent en deux paires d'équations indépendantes, l'une relative au champ magnétostatique, l'autre au champ électrostatique. Cette dernière paire est constituée d'une équation de structure du champ électrostatique et d'une équation reliant celui-ci à la distribution volumique des charges électrostatiques formula_13La première de ces équations implique que le champ électrostatique dérive d'un potentiel scalaire formula_16 : elle donne donc une condition sur la structure du champ formula_3. Le potentiel scalaire est défini à une constante additive près, ce qui implique de choisir une "origine" pour le potentiel, c'est-à-dire de fixer sa valeur en un point donné (au besoin l'infini). Par suite, il n'est pas en soi une grandeur physique, mais plutôt un intermédiaire de calcul. En revanche, la différence entre les valeurs du potentiel "électrostatique" entre deux points distincts a une valeur bien définie quelle que soit l'origine choisie pour le potentiel, qui peut être mesurée dans certaines conditions (différence de potentiel, qui se confond avec la tension électrique entre deux points pour le seul régime stationnaire).Pour un potentiel scalaire donné formula_19, d'origine fixé, les surfaces d'équations formula_20, ou de façon équivalente telles que formula_21, sont appelées surfaces équipotentielles (cf. figure ci-contre à gauche). Les courbes telles qu'en tout point la direction du champ électrostatique y soit tangente sont appelées les lignes de champ du champ électrostatique (cf. figure ci-contre à droite). Elles sont définies par la condition qu'un élément formula_22 d'une ligne de champ donné soit tel que formula_23. Les surfaces équipotentielles et les lignes de champ permettent de visualiser l'allure du champ électrostatique généré par une distribution de charge donnée (cf. figures ci-contre). Il existe bien sûr une relation entre ces deux familles de courbes et de surfaces. En effet, la relation formula_17 implique que formula_25 pour tout « déplacement » infinitésimal formula_26. Les surfaces équipotentielles étant définies par la condition formula_21, ceci implique que les lignes de champs sont "normales" aux surfaces équipotentielles.L'expression précédente de formula_3 en fonction du potentiel scalaire "V" donne par substitution dans la seconde équation l'équation de Poisson, qui permet en théorie de calculer le potentiel scalaire pour toute distribution volumique de charges : Dans le vide de charge (formula_30) cette équation devient celle de Laplace : De façon générale en théorie des équations aux dérivées partielles les solutions de l'équation de Laplace sont appelées fonctions harmoniques. L'équation de Poisson (et donc celle de Laplace) est insensible à l'ajout d'une fonction formula_32 qui satisfait l'équation de Laplace, c'est-à-dire par l'ajout d'une fonction harmonique quelconque. Ceci pose bien sûr une difficulté sur le plan physique, le potentiel devant être défini de façon unique pour une distribution de charges donnée, à une constante additive près. Il est possible de démontrer que les équations de Poisson ou de Laplace ont une solution unique si les conditions aux limites sont fixées sur une surface donnée contenant la distribution de charges. Cette propriété est particulièrement utile pour générer un potentiel (et donc un champ électrostatique) de nature donnée. Un potentiel électrostatique particulier, et donc le champ électrostatique correspondant, est déterminé par la forme de ses surfaces équipotentielles (une fois l'origine fixée). Il suffit de fixer la (ou les) valeur(s) du potentiel par des électrodes ayant la forme des surfaces équipotentielles délimitant un volume donné. L'unicité de la solution de l'équation de Poisson ou de Laplace implique que le potentiel généré par ces électrodes sera exactement le potentiel désiré. Par exemple, pour fabriquer un piège de Penning il est nécessaire de générer un champ électrostatique quadripolaire. Le potentiel correspondant est tel que ses surfaces de révolution sont des hyperboloïdes de révolution à une nappe (valeur positive du potentiel) ou à deux nappes (valeur négative du potentiel). Il suffit alors d'utiliser des électrodes ayant respectivement la forme d'un hyperboloïde de révolution à deux nappes, pour l'électrode négative, et à une nappe, pour l'électrode positive, pour générer un champ électrostatique quadripolaire.Le champ électrique peut ainsi mettre en mouvement des particules chargées. À la différence du champ magnétique, il est capable de les accélérer. Bien que négligeable à une grande échelle devant l'interaction gravitationnelle car la matière est globalement neutre électriquement (c'est le cas de la majorité des systèmes planétaires), le champ électrique a un effet prépondérant à des échelles microscopiques, et est utilisé pour l'étude de la matière dans les accélérateurs de particules. Un champ électrique peut être créé relativement facilement entre deux plaques de condensateur, c’est-à-dire deux plaques dont la tension entre les deux est non nulle. Voir plus bas pour un calcul détaillé.Il existe une analogie forte entre le champ électrique et le champ gravitationnel : l'expression du champ et du potentiel ne diffèrent que d'une constante, et les principaux théorèmes de calcul (comme celui de superposition ou de Gauss) s'appliquent. La principale différence tient au fait que le champ électrique peut être attractif (entre deux charges de signe opposé) ou répulsif (entre deux charges de même signe) alors que le champ gravitationnel est purement attractif.Lorsque les particules chargées qui créent le champ sont en mouvement dans le référentiel d'étude, il convient d'ajouter au champ électrostatique un champ électrique induit E dû au mouvement de ces charges. Ce champ électrique induit est directement relié au champ magnétique B créé par ces charges en mouvement par l'intermédiaire du potentiel vecteur A : Le champ électrique total est alors C'est ce champ qu'il faut prendre en compte dans le cas général pour exprimer la force de Lorentz.La formulation covariante (relativiste) de l'électromagnétisme, qui est en toute rigueur la seule correcte, introduit une grandeur regroupant les champs électrique et magnétique: le tenseur de champ électromagnétique formula_5. Celui-ci est défini à partir du (quadri)potentiel de champ formula_37, qui regroupe potentiels scalaire "U" et vecteur formula_38, par: Il est évident qu'il s'agit d'un tenseur antisymétrique: formula_40. Il est facile de vérifier en utilisant les expressions tridimensionnelles des champs électrique formula_41 et magnétique formula_42 issue des équations dites de structure de Maxwell que ce tenseur s'écrit: Autrement dit, au facteur multiplicatif en "1/c" près, les composantes du champ électrique correspondent aux composantes temporelles de formula_5, et celles du champ magnétique aux composantes spatiales. Toutefois, il s'agit purement d'une convention d'appellation, plus qu'une différence conceptuelle fondamentale sur le plan physique: la seule quantité qui a du sens est bien le tenseur de champ électromagnétique, et il est possible de dire finalement qu'en réalité le champ électrique "n'existe pas". Plus précisément cela implique que le champ électrique (tout comme le champ magnétique) à un caractère "relatif": il dépend en fait du référentiel considéré. Dans un changement de référentiel galiléen, les composantes du tenseur formula_5 se transforment selon la transformation de Lorentz, et il est possible de trouver dans certains cas un référentiel dans lequel le champ électrique s'annule. D'ailleurs si dans un référentiel donné les champs électrique et magnétique sont orthogonaux, il sera toujours possible de trouver un tel référentiel.Dans la vie courante, ces sources du champ électrique sont la plupart du temps des électrons, chargés négativement, ou des protons, chargés positivement.On appelle généralement "dipôle électrique" un ensemble constitué de deux charges de même valeur, de signes opposées, et placées proches l'une de l'autre (du point de vue de l'observateur). Le moment dipolaire est alors le vecteur formula_46, où formula_47 est la valeur de l'une des charge (positive) et formula_48 le vecteur allant de la charge négative à la charge positive.Lorsque la matière se présente sous forme d'atomes, la charge électrique des électrons compense celle des protons qui en constituent le noyau. Si on se place à une distance importante d'un atome par rapport à sa taille, on parle d'échelle macroscopique : ce dernier est donc assimilable à un corps neutre électriquement. Le champ électrique qu'il créé est donc relativement très faible. En astrophysique par exemple, le champ électrique créé par la matière ordinaire qui constitue les planètes est négligeable devant l'influence exercée par cette même matière par l'intermédiaire de la gravitation. Mais bien que les atomes et les molécules soient neutres vus de loin, les charges positives et négatives ne sont pas localisées au même endroit. Si on se place à une distance de l'ordre de la taille de l'atome ou de la molécule, c'est ce qu'on appelle l'échelle microscopique, on s'aperçoit que cette dissymétrie de disposition des charges engendre ce qu'on appelle un moment dipolaire électrique. Un tel dipôle électrique engendre lui aussi un champ électrique mais d'intensité beaucoup plus faible que celle d'une charge électrique. On appelle forces de van der Waals les forces exercées entre les atomes et molécules du fait des champs électriques créés par tous ces dipôles microscopiques.La notion de champ électrique, bien que naturelle aujourd'hui, est en réalité assez subtile et est étroitement liée à la notion de localité en physique. Si on considère une charge électrique "source" formula_49 et une charge "test" formula_50 placée en un point formula_51 de l'espace alors la seule quantité effectivement mesurable expérimentalement est la force électrique formula_52 de la première sur la seconde. Il est important de réaliser qu'a priori la force électrique est donc définie comme une action à distance d'une charge sur une autre. L'avancée conceptuelle de la notion de champ est la suivante : il est possible de remplacer cette action à distance de formula_49 par l"'existence" en tout point de l'espace d'une nouvelle quantité, de nature mathématiquement vectorielle, appelée champ électrique et dont la valeur formula_54 résume l'influence de formula_49 en chaque point de l'espace. Pour déterminer l'évolution de la charge test formula_50 il n'est donc plus besoin de se référer constamment à la charge source située au loin mais seulement de lire l'information contenue "localement" dans le champ électrique à l'emplacement de formula_50. La force est alors obtenue selon l'équation formula_58 Ce principe de localité n'est absolument pas anodin. En particulier une conséquence non triviale de celui-ci est que si on considère deux configurations de sources électriques et que par ailleurs on peut montrer qu'en un certain point de l'espace les champs électriques créés par ces deux distributions sont les mêmes alors nécessairement l'effet de ces deux jeux de source "en ce point" sont absolument indistinguables. Un exemple de situation où la notion de champ, ou de façon équivalente la localité de la théorie électromagnétique, prend toute son ampleur apparait lorsque se pose la question de déterminer les propriétés de transformation d'un champ électrostatique sous les transformations de Lorentz : considérons un boost de Lorentz donné par un vecteur vitesse formula_1 et la décomposition du champ électrique formula_60. Ce champ est créé par une distribution "arbitraire" de sources. Par localité, en se limitant au point formula_61 on peut remplacer la distribution de charges par un condensateur plan contenant formula_61 et créant un champ électrique uniforme égal à formula_63 en tout point formula_51 intérieur à son enceinte(on note formula_65 la densité surfacique de charge associée). Supposons d'abord que formula_1 se trouve dans le plan de cette distribution surfacique fictive (ce qui est le cas si le champ électrique est transverse au mouvement) on en déduit que dans le nouveau référentiel, formula_67 par contraction des longueurs, avec formula_68, et donc formula_69. Si par contre le champ est longitudinal, alors la distribution surfacique des charges fictives est transverse et donc inaffectée par le changement de référentiel et alors formula_70. Dans le cas le plus général d'une direction quelconque on a alors par principe de superposition formula_71. On a donc déduit très simplement le champ électrique dans le nouveau référentiel sans jamais se poser la question de la distribution des sources réelles dans le nouveau référentiel (si la distribution d'origine était compliquée alors reproduire ce résultat de façon directe serait très difficile en général). Insistons enfin encore une fois sur l'absence de champ magnétique dans le référentiel original pour dériver ce résultat.Les quelques exemples qui suivent sont des applications simples du théorème de Gauss.Soit une charge ponctuelle située en un point. Soit un point de l'espace. La force induite par le champ électrique provoqué par en vaut :Pour un condensateur réel, ces relations restent valables si la distance entre les plaques est petite au regard de leur aire.
En physique, le champ électrique est le champ vectoriel créé par des particules électriquement chargées. Plus précisément, en présence d'une particule chargée les propriétés locales de l'espace sont modifiées, ce que traduit justement la notion de champ. Si une autre charge se trouve dans ce champ, elle subira l'action de la force électrique exercée à distance par la particule: le champ électrique est en quelque sorte le "médiateur" de cette action à distance.
xwikis
Créé par Gerald Carda avec l'aide de Thomas Knabel ainsi que de la société bplan, cette machine a évolué depuis ses premiers pas en 2001. Durant l'été 2002, les premiers Pegasos baptisés "Betatester" commencent tout juste à être vendus à quiconque accepte de signer un NDA (« accord de non divulgation »). L'histoire témoignera des problèmes de corruption de données imputés par l'équipe de développement au northbridge alors utilisé, l'Articia S, développé par la société américaine Mai. Apparaissent alors, en décembre 2002, les Pegasos pourvus du correctif April 1 à l'Amiga show à Aix-la-Chapelle en Allemagne. Les corrections apportées ne sont pas suffisantes et les Pegasos April 2 sortent en mars 2003. En fin de compte, certains problèmes ne peuvent pas être résolus (notamment avec le module processeur G4), compliqués par la relation tendue avec Mai et des problèmes d'approvisionnement en Articia S. Genesi (compagnie mère de bplan) annonce donc en avril 2003 l'abandon du Pegasos I, et le développement de son successeur, le Pegasos II, aux spécificités revues et équipé d'un northbridge de chez Marvell, le Discovery II. En janvier 2006, Genesi met librement à disposition des membres de la documentation, les schémas techniques et la liste des composants de la carte Pegasos II rev.2b5. Le Pegasos II devient ainsi un ordinateur "Open Hardware" et chacun est libre d'en réaliser une copie ou un clone. Les documentations sont mises à disposition des utilisateurs sur le site officiel du projet.Le Pegasos se présente comme une machine unique, ce n'est ni un clone de PC ni un clone de Macintosh, même si leurs caractéristiques sont proches. Le Pegasos peut faire tourner plusieurs systèmes d'exploitation comme MorphOS, Linux (Debian, Gentoo, Yellow Dog Linux,...), AROS, OpenSolaris ou encore MacOS X via Mac-On-Linux. Plus récemment, Acube system a annoncé la disponibilité de AmigaOS le.
Le Pegasos est une carte mère microATX utilisant un microprocesseur RISC PowerPC d'IBM et/ou Freescale (PowerPC G3 et G4). Grâce à sa conception modulaire, le Pegasos est adapté à de multiples utilisations. Les standards actuels y sont intégrés afin d'y connecter de nombreux périphériques.
xwikis
Son histoire est contée dans l’"Iliade" par Glaucos, fils d’Hippoloque, à qui Diomède a demandé sa lignée. Elle parla ainsi, et, à ces paroles, la colère saisit le Roi. Et il ne tua point Bellérophon, redoutant pieusement ce meurtre dans son esprit ; mais il l’envoya en Lycie avec des tablettes où il avait tracé des signes de mort, afin qu’il les remît à son beau-père et que celui-ci le tuât. Et Bellérophon alla en Lycie sous les heureux auspices des Dieux. Sur la route il dompta le Pégase, roi des chevaux. Et quand il y fut arrivé, sur les bords du rapide Xanthos, le roi de la grande Lycie le reçut avec honneur, lui fut hospitalier pendant neuf jours et sacrifia neuf bœufs. Mais quand Éos aux doigts rosés reparut pour la dixième fois, alors il l’interrogea et demanda à voir les signes envoyés par son gendre Proétos. Et, quand il les eut vus, il lui ordonna d’abord de tuer l’indomptable Chimère. Celle-ci était née des Dieux et non des hommes, lion par devant, dragon par l’arrière, et chèvre par le milieu du corps. Et elle soufflait des flammes violentes. Mais il la tua, s'étant fié aux prodiges des Dieux. Puis, il combattit les Solymes illustres, et il disait avoir entrepris là le plus rude combat des guerriers. Enfin il tua les Amazones viriles. Comme il revenait, le Roi lui tendit un piège rusé, ayant choisi et placé en embuscade les plus braves guerriers de la grande Lycie. Mais nul d'entre eux ne revit sa demeure, car l’irréprochable Bellérophon les tua tous. Et le Roi connut alors que cet homme était de la race illustre d’un Dieu, et il le retint et lui donna sa fille et la moitié de sa domination royale. Et les Lyciens lui choisirent un domaine, le meilleur de tous, plein d'arbres et de champs, afin qu’il le cultivât. Et sa femme donna trois enfants au brave Bellérophon : Isandros, Hippolochos et Laodamie. Et le sage Zeus s’unit à Laodamie, et elle enfanta le divin Sarpedon couvert d'airain. Mais quand Bellérophon fut en haine aux Dieux, il errait seul dans le désert d’Aléios : « Objet de haine pour les dieux, Il errait seul dans la plaine d’Alcion, Le cœur dévoré de chagrins, évitant les traces des hommes ».Les "Olympiques" de Pindare, composées dans le cadre des jeux olympiques, rapportent la capture de Pégase par Bellérophon :Bellérophon naquit à Ephyre sous le nom d’Hipponoos. Il était officiellement le fils de Glaucos et le petit-fils de Sisyphe, mais une rumeur faisait de lui le fils du dieu de la mer Poséidon. Il fut rebaptisé « Bellérophon » après avoir tué involontairement son frère Déliadès lors d’un lancer de disque, ou, selon d'autres récits par une flèche dans le dos (il visait une biche), avoir tué involontairement un noble corinthien tyran de son état, nommé Belléros. Il dut s’expatrier et fuir à Tirynthe pour que le roi Proétos le purifie de son crime. Mais la femme de ce dernier, Sthénébée, s’éprit du jeune homme. Bellérophon était très timide avec les femmes et la repoussa. Elle l’accusa faussement devant le roi d'avoir tenté de la séduire. Proétos décida de tuer le jeune homme. Ne pouvant mettre à mort son hôte lui-même sans s'attirer le courroux des Érinyes, il l’envoya à la cour de son beau-père Iobatès, le roi de Lycie et père de Sthénébée, avec une tablette scellée sur laquelle figurait un message ordonnant de tuer le porteur. Iobatès fit grand accueil à Bellérophon et le laissa manger et boire à sa table une semaine durant avant de lire le message. Il lui demanda alors d'éliminer la Chimère, un monstre qui causait de grands ravages dans son pays, persuadé que le jeune homme y trouverait la mort. Désemparé, Bellérophon consulta un devin, Polyidos, qui lui conseilla de sacrifier un taureau à Poséidon en le noyant et de passer une nuit dans le temple d’Athéna, ce qu’il fit. La déesse apparut dans ses rêves pour lui parler de Pégase, seule créature assez rapide pour lui permettre d'échapper aux flammes de la Chimère. Elle lui remit une bride d'or et lui dit où trouver le coursier ailé. À son réveil, Bellérophon trouva l’objet bien réel à côté de lui. Il réussit à apprivoiser Pégase près de la fontaine de Pirène où le cheval ailé aimait s'abreuver. Bellérophon vint à bout de la Chimère : selon une version du mythe en volant au-dessus d’elle, il la cribla de flèches ; selon une autre version il utilisa une lance garnie de plomb, que le souffle ardent de la créature fit fondre et qui lui brûla les entrailles. Iobatès, loin de le récompenser, l’envoya combattre les belliqueux Solymes, peuple montagnard de Lycie. Lorsque le guerrier et sa monture revinrent, le roi les renvoya affronter les Amazones, alliées des Solymes. Quand Bellérophon revint pour la troisième fois à la cour de Lycie, Iobatès posta secrètement des combattants en embuscade et demanda à Bellérophon de contacter un certain Acrisios, de nuit et sans armes. Bellérophon triompha une fois de plus. Comme Iobatès avait envoyé sa garde royale contre lui, Bellérophon mit pied à terre et demanda à Poséidon d’inonder la plaine à mesure qu’il avançait. Les hommes n'ayant pas réussi à l'arrêter, les femmes de la région relevèrent leur tunique par-dessus leur tête et marchèrent vers lui. Bellérophon était si pudique qu'il fit demi-tour, entraînant les vagues avec lui. Iobatès, impressionné après de tels exploits, fut convaincu de l’innocence de son invité et renonça à le mettre à mort. Il lui donna sa fille Philonoé en mariage ainsi que la moitié de son royaume en succession. Bellérophon eut plusieurs enfants : Isandros, Hippoloque et Laodamie, la mère du héros Sarpédon. Peu à peu, Bellérophon devint victime de son orgueil. Pour se venger de la reine Sthénébée (ou Antéia), il revint à Argos et fit semblant de succomber à ses charmes. Il lui proposa un petit voyage aérien sur le dos de Pégase et quand il fut assez haut, il la précipita dans les flots. Au sommet de sa gloire, il entreprit de voler vers l’Olympe grâce à Pégase, s'estimant digne de séjourner avec les dieux. Mais Zeus, furieux, envoya un taon qui piqua Pégase sous la queue. Bellérophon tomba dans un buisson d'épines, devint aveugle et erra sur la terre jusqu’à sa mort après avoir vu son fils Isandros tué par les Solymes, et sa fille Laodamie, qui meurt par la volonté d’Artémis, de maladie soudaine et inconnue. Selon le quatrième Livre de l’"Histoire d'Héraclée" par l’historien Nymphis, Bellérophon tua dans les campagnes de Xanthos un sanglier qui ravageait les cultures et élevages de la région. Sans aucune reconnaissance de la part des habitants, Bellérophon les maudit, et obtint de Poséidon qu’il sortît du sein de la terre des exhalaisons salées dont l'amertume corrompait tous les fruits. Le fléau ne cessa que lorsque les femmes vinrent lui demander grâce.Les habitants de Corinthe lui rendaient un culte héroïque.Palaiphatos, dans ses "Histoires incroyables" rapporte que Bellérophon était un exilé, noble et courageux qui dévastait les villages côtiers dans une nef rapide, et Pégase était le nom de son navire. Amisodaros, un roi voisin du fleuve Xanthos et de la forêt, habitait entre des escarpements sur une montagne du nom de Chimère, le long d'une route et une cité le long d'une autre route. D'un côté se trouve un vaste ravin, où de la terre jaillissent des flammes. Un lion vivait près de l'accès principal, et un serpent non loin de là, dévorant les bûcherons et les bergers. Bellérophon mit le feu à la forêt de Telmissa, qui brûla ; les deux bêtes féroces périrent. Plutarque, dans "Les Lyciennes" reprend à son compte le texte de Palaiphatos en y ajoutant toutefois une modification personnelle : la Chimère n'est plus évoquée sous l'aspect d'un lion et d'un serpent vivant sur une terre d'où jaillissait du feu, mais par le biais du navire de Chimarrhos (dont le nom fait écho à celui de la Chimère), un guerrier cruel et inhumain à la solde d'Amisodaros. Les emblèmes étaient un lion à la proue et à la poupe, un dragon.Jean Haudry voit dans le récit de Bellérophon et de son châtiment un ancien mythe lunaire répandu dans le domaine indo-européen, où Lune, époux volage et parjure, abandonne son épouse Soleil. Lune (Bellérophon) refuse de s'unir à Soleil (Antée ou Sthénébée selon les récits). Antée se plaint à Proétos, mais le châtiment n’est pas suivi d’effets. Comme Yama, Bellérophon est puni une seconde fois, et « il est réduit à errer solitaire comme la Lune dans la daina », comme Yima privé de son pouvoir et de ses trois charismes ».Une mosaïque de pavement du fut découverte à Reims en 1938 lors de travaux dans la rue Jadart. Au centre, Bellérophon chevauche Pégase et terrasse la Chimère représentée ici comme un monstre bicéphale crachant des flammes. Le reste de la mosaïque est composée de losanges et de triangles encadrées de tresses dans une grande variété de coloris. La légende a inspiré la tragédie lyrique homonyme de Lully, sur un livret de Thomas Corneille. Jean de La Fontaine fait référence également à ce personnage mythologique dans L'Ours et l'Amateur des jardins, fable 10 du Livre Huit Des Fables. Un rapprochement peut aisément être effectué avec "La Tempête" de Shakespeare où une vengeance n’empêche pas un roi de confier sa fille à un ennemi tout désigné. Dans le film "Planète interdite" de Fred McLeod Wilcox, sorti en 1956, le vaisseau des scientifiques naufragés porte le nom de "Bellérophon", préfigurant ainsi sous forme d'indice l'attaque de la chimère née des cauchemars du seul scientifique survivant. Dans le film "Mission Impossible 2" de John Woo, sorti en 2000, l'équipe est aux prises avec une organisation ayant créé un virus exterminateur, la « Chimère », dont le seul remède connu s'appelle le « Bellérophon »."Bellerophon" est le nom du navire britannique sur lequel Napoléon embarqua après Waterloo en se plaçant sous la bienveillance de son plus constant ennemi, le Royaume-Uni. C'est sur ce navire qu'en 1815, il quitta définitivement le territoire français.L'ouvrage de Federico Grisone, fondateur de l'école d'équitation napolitaine, est publié la première fois en français sous le titre ""L'écuirie du Sir Frederic Grison..."" en 1559, imprimé à Paris par Guillaume Auvray, rue Jean de Beauvais, et parait chez le libraire Charles Perier à l'enseigne du "Bellérophon couronné." Ce dernier est alors l'un des quatre grands libraires jurés de la ville et de l'université de Paris. Il avait repris une affaire qui appartenait aux Wechel, dynastie de libraires originaires de Bâle et dont l'officine se trouva libre après le départ du fils André qui acheta en 1560 le fonds de l'imprimerie d'Henri Estienne. La marque utilisée par les Wechel sur leurs pages de titre représentait deux mains soutenant un double caducée que surmonte Pégase. Le Belléphoron de la marque d'imprimeur des Perier est chevauché par ce même Pégase. Tous les textes équestres produits sous l'enseigne du Belléphoron utilisent du matériel typographique des éditions Wecheliennes, des lettrines en bois taillées d'après Holbein et trois xylographies hippiques d'Hans Sebald Beham.
Dans la mythologie grecque, Bellérophon (en grec ancien / ) est un roi de Corinthe. Il est selon les versions le fils de Glaucos (et donc petit-fils de Sisyphe) ou de Poséidon, sa mère étant Eurynomé.
xwikis
Le mot vient du grec ancien, issu selon certains de (« lieu frappé par la foudre »), ou bien de ou (« être agité », ou « errer/flâner ») comme l'avance Eustathe de Thessalonique, ou encore de, synonyme de (« incorruptible »), en allusion à la nature incorporelle des âmes.Partie des Enfers, où, selon la religion grecque et la religion romaine, séjournaient les âmes vertueuses après la mort. C'était la quatrième division des Enfers, suivant les Grecs, et la septième, suivant les Romains.Chez Homère, les champs Élyséens se situent à l'extrémité occidentale de la Terre, près d'Océan. Dans l’"Odyssée", Protée les décrit ainsi à Ménélas : À l'époque d’Hésiode, les champs Élyséens deviennent les îles des Bienheureux, décrites par Pindare. Virgile, au chant VI de l’"Énéide", donne une description des champs Élyséens. Ceux-ci, situés dans les Enfers, accueillent les initiés aux mystères orphiques. Ce lieu connaît un éternel printemps et possède son propre soleil et ses propres étoiles. Certains auteurs de l'Occident chrétien ont repris ce modèle : les champs Élyséens se situent en enfer et accueillent les héros et poètes qui ont vécu avant la venue du Christ. C'est ainsi que dans le poème de Dante, la "Divine Comédie",, le premier cercle de l'enfer, dans lequel se trouve Énée. Chez Rabelais, les Champs Élysées sont peuplés, entre autres, de personnages célèbres de l'antiquité grecque et romaine, de chevaliers ou de chefs de l'Église catholique, s'employant à de vils ou modestes métiers, à titre d'exemples : « Hector était gâte-sauce », « Pyrrhus, plongeur à la cuisine », « Jules César et Pompée étaient goudronneurs de navires », « Lancelot du Lac était équarisseur de chevaux morts, tous les chevaliers de la Table Ronde étaient de pauvres gagne-deniers, des passeurs tirant la rame sur les rivières du Cocyte, du Styx [...] quand Messieurs les diables voulaient se divertir en faisant une ballade sur l'eau [...] », « Le pape Alexandre était preneur de rats », ou encore, « Boniface, pape huitième, était écumeur de marmites ».La scène des champs Élysées est la de l’acte II de l’opéra "Orphée et Eurydice" de Gluck. Cette scène est le ballet des Ombres heureuses ou ballet des esprits bienheureux. Ce ballet-pantomime se situe après la danse des Furies. Ces gardiennes des Enfers qui viennent d’être charmées par le chant d’Orphée l'autorisent à entrer aux Enfers et disparaissent dans un gouffre à la fin de cette danse. Orphée pénètre dans les champs Élysées, séjour des âmes vertueuses, jardin de buissons fleuris où se trouve Eurydice suivie des ombres des Héros et des Héroïnes. La musique de ce ballet est un solo de flûte accompagné par un orchestre à cordes.
Dans la mythologie grecque, les champs Élysées, champs Élyséens, ou simplement l’Élysée, sont les lieux des Enfers où les héros et les gens vertueux goûtent le repos après leur mort.
xwikis
Le Système international comporte sept unités de base, destinées à mesurer des grandeurs physiques "indépendantes" et possédant chacune un symbole : De ces unités de base on déduit des unités dérivées, par exemple l'unité de vitesse du Système international, le mètre par seconde. Certaines de ces unités possèdent un nom particulier. Il existe également des préfixes officiels permettant de désigner les unités multiples et sous-multiples d'une unité. Par exemple, le sous-multiple du mètre valant est appelé centimètre (symbole cm) puisque le préfixe correspondant à 10 est "centi-". C’est la Conférence générale des poids et mesures, rassemblant des délégués des États membres de la Convention du Mètre, qui décide de son évolution, tous les quatre ans, à Paris. La norme internationale ISO 80000-1:2009 décrit les unités du Système international et les recommandations pour l’emploi de leurs multiples et de certaines autres unités.Les principes de l'écriture des nombres, des grandeurs, des unités et des symboles forment ce que l'on peut appeler la « grammaire » du Système international d'unités. Les références normatives sont le Bureau international des poids et mesures, la norme internationale et, en France, le fascicule de documentation de l'AFNOR : de. Les unités ne peuvent être désignées que par leur nom (pouvant varier d'une langue à une autre), ou par leur symbole (international, indépendant de la langue). Il ne faut pas mélanger les "symboles" et les "noms" des unités. On écrit, correctement, « newton par kilogramme » ou N/kg mais jamais « newton par kg », « newton/kg », « newton/kilogramme », ni « km/heure ». Sont prohibées les abréviations telles que « sec » pour la seconde (s), « mn » pour la minute (min) ou « cc » pour le centimètre cube (cm). Les symboles des unités (et uniquement les symboles) commencent par une majuscule si le nom de l'unité provient d'un nom propre, et une minuscule dans le cas contraire. Ainsi, on peut comparer les symboles du pascal (Pa) et de la seconde (s). La seule exception à cette règle est le symbole du litre, qui peut s'écrire au choix « l » ou « L », pour éviter les confusions avec le ou la majuscule (I) selon les polices de caractères utilisées. Les symboles des unités sont toujours écrits en caractères romains quelle que soit la police du texte où ils figurent : ils ne sont pas mis en italique ; ils sont grammaticalement invariables et ne sont pas suivis d'un point (sauf nécessité typographique, par exemple en fin de phrase). Toutes les unités, toujours à droite de la valeur, sont par conventions séparées de la valeur par une espace insécable (exceptions faites des symboles des unités sexagésimales d'angle, exemple : (symboles prime ′ pour les minutes et double prime ′′ pour les secondes) et des degrés d'alcool, exemple : alcool à 90°). Ainsi, on écrit « » mais pas « 30cm » ; de même, on écrit « » mais pas « 30,2°C » ni « », le symbole °C étant composé du « ° » et du « C » qui sont, eux deux, indissociables. Le nom des unités écrit en entier est quant à lui un nom commun : même si l'unité dérive d'un nom propre, la première lettre du nom d'une unité est donc toujours une minuscule (contrairement à son symbole) ; en toutes lettres, le nom d'une unité prend la marque du pluriel. On écrit ainsi trois ampères, deux teslas. Note : contrairement au cas du kelvin, le nom du degré Celsius (°C) est composé, c'est la première lettre du mot « degré » qui prend la minuscule et la marque du pluriel : on écrit « deux degrés Celsius ». Les notations de la division et de la multiplication s'appliquent aux symboles des unités dérivées : ainsi on peut écrire le symbole du mètre par seconde m⋅s ou m/s et celui du kilowatt-heure kWh ou kW⋅h. Lorsque deux unités sont multipliées on utilise, entre les symboles, un point à mi-hauteur [⋅], conformément à l'usage international et à la place du point sur la ligne [.]. En ce qui concerne la division, tout ce qui est affecté d'un exposant négatif est énoncé à la suite de la barre oblique ou du mot « par » : ainsi, l'unité SI de vitesse est le mètre par seconde (m/s), la forme « mètre seconde » étant incorrecte (elle désignerait le produit d'une distance par une durée). Pour éviter les notations ambiguës, on n'utilise jamais plus d'une barre oblique dans le symbole d'une unité (A/m/s, qui correspond à l'ampère par mètre par seconde, A⋅m⋅s, pourrait être pris pour A/(m/s), qui correspond à l'ampère seconde par mètre, A⋅s⋅m ou A⋅s/m). Ainsi la conductivité thermique s'exprime par le watt mètre par mètre carré kelvin,, ou par le watt par mètre kelvin,. En cas de produit d'unités, on utilise un tiret ou une espace dans le nom de l'unité dérivée. Ainsi, les bonnes orthographes de l'unité dont le symbole est kWh sont kilowatt-heure et kilowatt heure. Dans ces deux cas, chacun des noms d'unités prend la marque du pluriel : kilowatts-heures ou kilowatts heures. En l'absence de trait d'union ou d'espace, seul le deuxième nom d'unité prend la marque du pluriel : wattheures, voltampères. Quand une même unité entre plusieurs fois dans un produit, on peut l'énoncer en faisant suivre son nom selon le cas, des adjectifs « carré », « cube » ou « bicarré », ou des expressions « au carré », « au cube » ou « à la puissance "n" » : Aucune adjonction au symbole d'une unité pour donner une information concernant la nature particulière de la grandeur ou le contexte de mesurage considéré n'est permise : et non (« tension efficace exprimée en volts » et non « volts efficaces »). De même, l'appellation « mètre linéaire » ne doit pas être employée, l'adjectif « linéaire » n'apportant aucune notion supplémentaire à l'unité. Pour former les noms des unités multiples et sous-multiples, des préfixes du Système international sont simplement accolés (sans espace ni tiret) à gauche de l'unité, toujours sans mélanger les symboles (entités mathématiques) et les noms des unités et préfixes : kilomètre (ou km), milliseconde (ou ms). On ne peut pas accoler plusieurs préfixes à une unité (nanomètre mais pas millimicromètre). Ainsi, même si le décanewton (daN) est une unité correcte (qui traduit approximativement l'ancien kilogramme-force), le kilodécanewton (kdaN, qui traduirait la tonne-force) ne l'est pas. De même, un hectopascal (hPa) est un multiple correct de l'unité dérivée, le pascal, mais le kilohectopascal (khPa, qui correspond sensiblement à une pression d'une atmosphère) ne l'est pas. Note : dans le cas du kilogramme, unité de base qui pour des raisons historiques comporte dans son nom le préfixe « kilo », les multiples et sous-multiples restent formés sur le gramme.La première tentative notable d'établir des unités universelles (c'est-à-dire fondées sur des phénomènes physiques reproductibles) est, dans le monde anglo-saxon, celle de John Wilkins, un scientifique anglais membre de la, qui définit en 1668 une longueur puis un volume universel et enfin une masse universelle (celle de la quantité d'eau de pluie contenue dans un cube de côté valant la longueur universelle). La longueur universelle ainsi définie est prise comme valant (approximativement ) soit environ celle d'un pendule simple dont la demi-période des petites oscillations est d'une seconde. Vers 1670 Gabriel Mouton, religieux lyonnais, propose une unité de longueur en se basant sur la mesure d'un arc de méridien terrestre. Il définit aussi la série de multiples et sous-multiples d'unité basée sur le système décimal. En 1675, le savant italien Tito Livio Burattini renomme la mesure universelle de John Wilkins en « mètre » () et en prend pour définition exacte celle du pendule précédemment décrit (et non plus celle de ), aboutissant ainsi à une longueur de. Cette valeur dépend cependant de l'accélération de la pesanteur et varie donc légèrement d'un lieu à l'autre.En 1790, l’Assemblée nationale constituante se prononce, sur proposition de Talleyrand, lui-même conseillé par Condorcet, pour la création d'un système de mesure stable, uniforme et simple, et c'est l'unité de Burattini qui est d'abord adoptée comme unité de base. Mais du fait que la longueur du pendule battant la seconde n’est pas la même selon l’endroit où l'on se trouve, en raison de la différence de gravité selon la distance avec l'équateur (voir "supra"), c’est finalement une mesure fondée sur la mesure du méridien de la terre qui est choisie en 1793. Cette longueur sera précisée, le (), comme étant. Deux savants sont chargés d'effectuer les mesures géodésiques nécessaires, Delambre et Méchain, lesquels vont, durant sept ans, mesurer la distance entre Dunkerque et Barcelone. Avec le mètre sont définies les unités de surface et de volume, l'unité de masse (le gramme), et l'unité monétaire (le franc germinal) : on crée ainsi le système métrique décimal, permettant de convertir plus aisément les unités puisque, désormais, pour passer d'une unité à ses multiples (et sous-multiples), il suffit de déplacer la virgule. Dans le même décret, la Convention nationale prévoit la création d'étalons pour le mètre. La définition ainsi choisie est définitivement adoptée le () par décret de la Convention nationale française. Ce système métrique est alors désigné par le sigle MKpS, pour mètre, kilogramme-poids, seconde. Les étalons du mètre et du kilogramme, en platine, prévus par les décrets de la Convention nationale sont déposés aux Archives nationales de France le (), ce qui est parfois considéré comme l’acte fondateur du système métrique. Introduit par le décret du (), le système métrique est rendu obligatoire en France à l’occasion de son cinquième anniversaire par l'arrêté du (), l'emploi de tout autre système étant interdit. Dans ses mémoires de Sainte-Hélène, Napoléon, qui avait naguère soutenu l'expédition géodésique en vue de déterminer la nouvelle mesure, mais pris conscience de la difficulté d'acclimatation à de nouvelles unités, écrit :Dès 1801, la République helvétique tente d'introduire le système métrique, « mais la loi ne fut jamais appliquée » — il fallut attendre 1877. C'est le Royaume-Uni des Pays-Bas (comprenant les actuels Pays-Bas, la Belgique et une partie du Luxembourg) qui l'adopte à nouveau le premier en 1816, sur l'impulsion de son souverain des Pays-Bas, quatorze ans avant la révolution française de 1830, qui signe sa réintroduction en France. Le, Napoléon prend un décret impérial instaurant pour le commerce de nouvelles unités au nom conforme à l'usage ancien, comme "aune, toise, boisseau, livre", mais avec de nouvelles valeurs fixées en référence au système métrique, et surtout, autorise pour ces nouvelles unités des fractions non décimales. Après la Restauration française en 1814, confirme dans un premier temps vouloir poursuivre l'établissement du système métrique, mais sous la pression des plaintes, un arrêté ministériel du ordonne la suppression des fractions décimales des poids et mesures, et l'emploi exclusif des mesures « usuelles » pour la vente au détail des denrées et marchandises. Le système métrique ne fut néanmoins pas abandonné dans l'enseignement et la recherche, et petit à petit, on prend conscience qu'il est temps de renoncer aux facilités introduites par le décret de 1812 et de s'en tenir aux unités légales établies par l'arrêté du. Ce sera l'objet de la loi du signée par Louis-Philippe, qui rend obligatoire l'usage des unités du système métrique à partir du, dans le commerce et dans la vie civile et juridique. En 1832, Gauss travaille pour l'application du système métrique comme système d'unités cohérent en sciences physiques. Il établit des mesures absolues du champ magnétique terrestre en utilisant un système d'unités fondé sur les unités centimètre, gramme et seconde parfois appelé « Système de Gauss ». Dans les, Maxwell et Kelvin s’impliquent au sein de la (BA), fondée en 1831, pour la mise en place d'un système d'unités composé d'unités de base et d'unités dérivées. Ceci aboutit en 1874 à la création du « système CGS » fondé sur les unités centimètre, gramme et seconde. Dans les, la BA et le Congrès international d’électricité, ancêtre de la Commission électrotechnique internationale, s’accordent sur un système d'unités pratiques, parmi lesquelles l’ohm, le volt et l’ampère.En 1875, la Convention du Mètre est créée et instaure le Bureau international des poids et mesures (BIPM), le Comité international des poids et mesures (CIPM) et la Conférence générale des poids et mesures (CGPM). La première CGPM a lieu en 1889 et adopte de nouveaux prototypes pour le mètre et le kilogramme. Le système d'unités consacré est alors le « système MKS », du nom de ses unités de base, le mètre, le kilogramme et la seconde. En 1901, le physicien Giovanni Giorgi montre qu'il est possible de combiner les unités électriques à celles du système MKS en ajoutant, à ce dernier, une unité électrique. La discussion de cette proposition par des organisations internationales parmi lesquelles l'Union internationale de physique pure et appliquée (IUPPA) et la Commission électrotechnique internationale aboutit en 1946 à l'adoption par le CIPM du « "système MKSA" », fondé sur le mètre, le kilogramme, la seconde et l'ampère. En 1954, après une enquête du BIPM ayant commencé en 1948, la CGPM entérine l'adoption des unités de base supplémentaires que sont le kelvin et la candela. Il reste alors peu d'étapes avant l'achèvement du système métrique actuel. Tout d'abord, lui donner son nom (« Système international d'unités », avec comme abréviation internationale « SI ») ; ce qui est fait en 1960. Ensuite, lui adjoindre comme dernière unité la mole, ce qui est fait en 1971.Les unités de base du Système international sont redéfinies lors de la conférence générale des poids et mesures du (à Versailles), à partir de sept constantes physiques dont la valeur exacte est alors « définitivement fixée ». Cette réforme entre en vigueur le.La plupart des pays du monde ont fait du Système international leur système officiel d'unités. En Asie de l'Est, ce fut au début du. Durant les, le gouvernement du Canada procède à la conversion au système métrique, sous l'égide de la Commission du système métrique. Cette action (passer officiellement d'un système d'unités national au système métrique) s'appelle métrification. En 2008, seuls trois pays dans le monde n'ont pas officiellement adopté le Système international : les États-Unis, le Liberia et la Birmanie. Il convient de nuancer en ce qui concerne les États-Unis, signataire de la Convention du Mètre :En France, il existe quelques exceptions notables : Au Royaume-Uni, l'usage du système métrique est légalisé depuis 1897 mais dans certains domaines tels que le commerce, la santé publique, la sécurité, l'administration, la signalisation routière et la vente de métaux précieux, l'équivalent en unités impériales est toléré. Aux États-Unis, il est possible de trouver dans la même documentation des données métriques et impériales. Cette utilisation conjointe de deux types d'unités de mesure est à l'origine de la perte de la sonde spatiale en. À cette liste, il faut également ajouter les domaines (aviation, navigation) dans lesquels. Il convient toutefois de bien faire la différence entre l'obligation légale et la tolérance ; de la même manière qu'en France on distingue le droit coutumier, l'usage, et les textes de loi. Au Canada, y compris au Québec, l'usage du système métrique est obligatoire depuis 1975, mais dans la plupart des domaines de la vie quotidienne, du commerce, de la construction, c'est le système impérial qui prédomine (surtout en dehors du Québec). Il est commun que des individus ignorent comment utiliser le système métrique dans le domaine des distances (en dehors du code de la route, où il est appliqué systématiquement) : nombreux sont ceux qui ignorent leur taille en mètres (pieds, pouces) et leur poids en kilogrammes (livres) ; de même il est commun de mesurer les dimensions d'un appartement (pieds-carrés), la largeur d'un terrain (pieds), la diagonale d'affichage des écrans électroniques (ordinateurs, TV, mobiles), ou en plomberie, en système impérial. La plupart des unités de mesures non métriques sont maintenant définies à partir des unités du Système international. Par exemple, le édite une table des définitions des unités de mesure anglo-saxonnes à partir des unités métriques.
Le Système international d'unités (abrégé en SI), inspiré du système métrique, est le système d'unités le plus largement employé au monde ; mais il n'est pas officiellement utilisé aux États-Unis, au Liberia et en Birmanie. Il s’agit d’un système décimal (on passe d’une unité à ses multiples ou sous-multiples à l’aide de puissances de 10) sauf pour la mesure du temps et des angles. C’est la Conférence générale des poids et mesures, rassemblant des délégués des États membres de la Convention du Mètre, qui décide de son évolution, tous les quatre ans, à Paris. L’abréviation de « Système international » est SI, quelle que soit la langue utilisée.
xwikis
Le concept de, en ce qui concerne l'électricité, implique un générateur qui produit un courant électrique dans des conducteurs et divers éléments qui forment une boucle entre ses pôles. En électronique, on désigne souvent les circuits par leur mode d'exploitation : on ne s'intéresse pour un circuit logique qu'à deux plages de niveau du signal électrique, notées 0 et 1, séparés par une plage incertaine. Certains circuits simples, pour lesquels la notion de circuit électrique se confond avec celle de montage électrique, présentent un intérêt pédagogique : circuit RC, circuit RL, circuit LC, circuit RLC.En théorie des circuits, un « circuit électrique » est une abstraction des configurations réelles, où l'on agence des éléments caractérisés par des relations mathématiques entre les tensions à leurs bornes, les intensités qui les traversent et le temps. Des conducteurs idéaux, dont toutes les parties sont au même potentiel et qui laissent passer le courant sans modification, relient ces éléments. Le caractère idéal des liaisons entre éléments permet d'écrire et d'étudier des équations. Les composants sont modélisés par des éléments localisés () : on ne considère pas ce qui se passe à l'intérieur des composants, ces derniers sont considérés comme « ponctuels » et obéissent à des lois globales. Pour obtenir des relations mathématiques, le "circuit équivalent" de la disposition matérielle peut séparer des composants matériels en plusieurs éléments : par exemple, décomposer un bobinage en une inductance et une résistance. Les générateurs matériels délivrent toujours une tension ou un courant qui varie selon la charge. Le circuit équivalent les décompose en un générateur de tension idéal et un résistance de sortie en série selon le théorème de Thévenin, ou en un générateur de courant idéal en parallèle avec la même résistance selon le théorème de Norton. Quand, comme dans le cas d'une ligne de transmission, on ne peut négliger l'influence des connections matérielles entre les composants, on regroupe cette influence dans des éléments de circuit qui en constituent un équivalent. On peut aussi regrouper des sous-ensembles pour lesquels on a pu calculer des relations caractéristiques, comme une fonction de transfert, et les assembler dans un circuit général. Ces relations peuvent inclure tous les paramètres nécessaires, comme la température.Le circuit le plus simple est une boucle comprenant un générateur et un récepteur. L'élément le plus simple d'un circuit est un dipôle caractérisé par les relations entre l'intensité qui le traverse, la tension à ses bornes et le temps. On peut grouper des éléments en branches considérées comme un dipôle. L'extrémité d'une branche s'appelle un nœud. Les nœuds qui ne relient que deux dipôles ne jouant aucun rôle dans les calculs, on ne considère souvent que ceux qui reliés à trois dipôles ou plus. Un ensemble de branches formant une boucle s'appelle une « maille ». Les lois de Kirchhoff relient ces définitions à des méthodes de calcul : la somme algébrique des courants passant par un nœud, tout comme la somme algébrique des tensions aux pôles des éléments d'une maille, sont nulles. On peut généraliser ces relations à des sous-ensembles du circuit : la somme algébrique des courants entrant dans une région délimitée d'un circuit est nulle (nœud généralisé), tandis que la somme algébrique des tensions dans une boucle est nulle (maille généralisée). Les branches dont les nœuds sont reliés à leurs deux extrémités sont dites « parallèles ». Les branches successives, traversées par le même courant, sont dites « en série ». En traitement du signal, on utilise souvent des quadripôles, dont les relations caractéristiques sont établies entre les grandeurs d'un dipôle d'entrée et un dipôle de sortie.Un circuit électrique est un modèle mathématique permettant de prévoir ce qui se passera dans un montage électrique. Ce modèle dépend de conditions généralement implicites : les éléments ne réagissent pas entre eux à distance et le temps de propagation des phénomènes électriques est négligeable. Ces conditions ne sont remplies qu'avec des composants relativement distants les uns des autres, et des fréquences modérées. La théorie du circuit électrique s'étend rapidement au circuit magnétique, par l'analogie d'Hopkinson. Perfectionnée par les études sur la rétroaction et les systèmes bouclés, généralisant les termes qu'on utilise pour des circuits complexes, la théorie débouche sur la systémique.En régime continu, les grandeurs électriques ne dépendent pas du temps.Pour étudier un circuit quand les grandeurs électriques dépendent du temps, ce qui est le cas général et d'une importance particulière dans les applications où on traite un signal électrique, on étudie l'effet d'un échelon idéal sur un circuit qui comprend des inductances et des capacités. Soit on imagine que le générateur puisse changer instantanément de valeur de tension ou de courant, et on applique les définitions des éléments qui incluent le temps, soit on lui fait délivrer idéalement une impulsion donnant une puissance finie dans un temps nul (un Dirac).Les relations qui comprennent le temps permettent souvent des élaborations mathématiques quand on considère que le générateur délivre une grandeur qui varie selon une fonction sinusoïdale. Pour que le concept de circuit s'applique, et que les liaisons entre les composants puissent être considérées comme parfaites, il faut que les dimensions du circuit matériel soient très inférieures à la longueur d'onde dans les conducteurs, ce qui pose une limite à la fréquence maximale de la fonction sinus. En régime sinusoïdal, les grandeurs électriques ont la forme formula_1, où est l'amplitude, la pulsation et la phase. Les calculs se trouvent simplifiés si considère plutôt les valeurs comme un nombre complexe, dont la partie réelle représente l'amplitude en phase, et la partie imaginaire l'amplitude déphasée d'un quart de période. On attribue alors aux éléments du circuits une impédance complexe, et une grande partie des lois du régime continu peuvent s'appliquer.Un circuit électrique est généralement représenté sous forme d'un schéma électrique. Le schéma donne une forme qui indique de façon aussi claire que possible le fonctionnement du circuit. Cette forme peut s'éloigner notablement de la réalisation matérielle, contrainte par la taille des composants et une quantité d'exigences pratiques. Cette présentation graphique obéit à des conventions qui évitent d'indiquer chaque fois par une légende la signification des pictogrammes. Ces conventions ont pu varier au cours du temps. Le schéma d'un circuit peut omettre certaines parties essentielles : le générateur d'alimentation électrique, les entrées et les sorties du signal électrique. Ces branches du circuit sont situées implicitement entre les bornes d'entrée et de sortie.L'électronique utilise presque toujours le circuit imprimé, sur lequel sont soudés les composants. Le wrapping a été utilisé pour les prototypes ou petites séries. L'électronique à tubes utilisait surtout des liaisons entre plots de raccordement.On appelle circuit électronique la réalisation matérielle, en électronique analogique ou numérique, d'un ensemble destiné à réaliser un certain nombre de fonctions (Amplification, filtrage, communications...). Un circuit intégré réalise ces fonctions dans un composant monolithique.Un court-circuit est une mise en relation directe de deux points qui sont à des potentiels électriques différents. Il existe deux types de court-circuit : Un court-circuit se traduit par une augmentation brutale du courant qui peut atteindre en quelques millisecondes une valeur égale à plusieurs fois le courant d'emploi.
Un circuit électrique au sens matériel est un ensemble simple ou complexe de composants électriques ou électroniques, y compris des simples conducteurs, parcourus par un courant électrique.
xwikis
Selon Pierre Chantraine, le nom de Persée est d'origine obscure. Les auteurs antiques le rapprochent de / "pérthô", « détruire, mettre à sac, piller ». Selon Thalia Feldman, le radical "perth-" serait issu de l'indo-européen *"bher-", « couper ».Persée est déjà mentionné chez Homère, qui le nomme le fils de Zeus et de Danaé, sans autre précision. Le "Catalogue des femmes" ajoute que Danaé est jetée à la mer dans un coffre, mais il faut attendre Phérécyde d'Athènes, au, pour que le récit soit complet : Acrisios, roi d'Argos, et son épouse Eurydice engendrent une fille, Danaé. L'oracle de Delphes, interrogé, lui annonce qu'il n'aura pas de fils, mais que le petit-fils que lui donnera Danaé le tuera. De retour chez lui, Acrisios fait bâtir une chambre de bronze souterraine où il enferme Danaé et sa nourrice. Zeus aperçoit pourtant la jeune fille et la séduit après s'être transformé en pluie d'or. Danaé donne naissance à Persée et l'élève en secret, jusqu'à ce que les cris du jeune enfant, âgé de trois ou quatre ans, trahissent son existence. Acrisios fait exécuter la nourrice et exige de savoir qui est le père de Persée. Refusant de croire les déclarations de Danaé, il la fait jeter à la mer dans un coffre, avec son fils. Le coffre est emporté par les flots jusqu'à l'île de Sériphos, où Danaé et Persée sont secourus par un pêcheur généreux, Dictys (« filet »), qui élève le garçon comme son fils. Une scholie de l’"Iliade" fait de Proétos, frère d'Acrisios, le véritable père de Persée, ce qui aurait été le motif de la querelle entre les deux frères. Cette variante, que le scholiaste attribue à Pindare, est également citée par le pseudo-Apollodore. Pindare mentionne pourtant l'histoire de la pluie d'or par ailleurs. Il est possible que dans la source du scholiaste et d'Apollodore, Danaé ait été séduite par Proétos et emprisonnée par son père en punition, laissant ainsi le champ libre à Zeus. La variante suivant laquelle Danaé est enfermée dans une tour plutôt que dans une chambre souterraine remonte à Horace, suivi par Ovide.Toujours selon Phérécyde, Dictys est le frère du roi de l'île, Polydecte. Alors que Persée a atteint l'âge adulte, Polydecte aperçoit Danaé et s'éprend d'elle. Il organise un "eranos", c'est-à-dire un banquet où chacun apporte sa contribution, auquel il convie le jeune homme. Polydecte feint d'avoir besoin de présents pour les noces d'Hippodamie, fille d'Œnomaos. À la demande de Persée, Polydecte précise qu'il veut des chevaux ; le jeune homme répond alors qu'il apportera la tête de la Gorgone – pour fanfaronner, précise Apollodore. Polydecte le prend au mot et quand Persée apporte un cheval le lendemain, il refuse et insiste pour obtenir la tête de la Gorgone, menaçant de s'emparer de Danaé si le jeune homme ne s'exécute pas. Le récit de Phérécyde n'est pas très clair : on ne comprend pas bien quelle était l'intention initiale de Polydecte en organisant le banquet, car il ne pouvait pas prévoir que Persée évoquerait Méduse. Des auteurs modernes expliquent que Polydecte réclame un cheval à Persée en sachant très bien que celui-ci n'en possède pas, mais cet élément ne se retrouve dans aucune source ancienne.La décapitation de Méduse par Persée ne figure pas chez Homère, mais elle apparaît dès la "Théogonie" d'Hésiode : Méduse, fille de Céto et Phorcys, est la seule des trois Gorgones à être mortelle et à être séduite par Poséidon ; elle est décapitée par Persée sur les bords d'Océan, et de son sang naissent le cheval ailé Pégase et le géant Chrysaor à l'épée d'or. Le "Bouclier d'Héraclès" montre Persée équipé du casque d'Hadès, poursuivi par les Gorgones après avoir décapité Méduse, dont la tête est enfermée dans un sac à franges d'or qu'il porte sur son dos. Un récit plus complet se trouve chez Phérécyde. Persée, à qui Polydecte, roi amoureux de sa mère, a réclamé la tête de Méduse afin de l'éloigner, se retire pour se lamenter. Hermès lui apparaît et, après avoir appris la cause de son chagrin, le mène chez les Grées, en compagnie d'Athéna. Sur les conseils divins, Persée vole l'unique œil et l'unique dent dont les trois sœurs sont pourvues, et qu'elles se passent de l'une à l'autre. Les Grées sont contraintes d'aider Persée pour récupérer leur bien et lui indiquent l'endroit où il pourra trouver les nymphes qui détiennent trois objets magiques : la kunée ou casque d'Hadès, qui rend invisible son porteur, une paire de sandales ailées qui permet de voler dans les airs et une besace (en grec ancien, "kibisis") destinée à recueillir la tête de Méduse. Persée leur rend alors œil et dent et part trouver les nymphes pour obtenir les trois objets. Grâce aux sandales, Persée gagne les bords d'Océan où résident les Gorgones, toujours accompagné par Hermès et Athéna qui lui recommandent de ne pas rencontrer le regard de Méduse. Persée coiffé du casque d'Hadès s'approche des Gorgones endormies, tranche la tête de Méduse, qu'il met dans la besace et s'enfuit, talonné par les deux autres Gorgones réveillées, qui suivent son odeur. Le récit est simplifié chez Eschyle, qui ne mentionne pas les nymphes : Persée y reçoit une épée d'Héphaïstos et Hermès fournit lui-même les sandales ailées et le casque d'Hadès. Les Grées y sont les gardiennes des Gorgones, ce qui pousse Persée à jeter leur œil dans le lac Triton, pour les empêcher de prévenir leurs sœurs de son approche. Apollodore ajoute au récit de Phérécyde quelques détails : Hermès donne à Persée une épée courbe et Athéna aide Persée à décapiter Méduse en tendant un bouclier poli comme un miroir, idée qu'on trouve pour la première fois chez Ovide. Dans la version d'Ovide, Persée revient en Grèce en passant par le pays d'Atlas. Celui-ci apprend que Persée est un fils de Zeus et tente de l'éloigner par la force, car Thémis lui a prédit qu'un fils de Zeus volerait un jour les pommes d'or du jardin des Hespérides. Persée, en colère, pétrifie Atlas en lui montrant la tête de Méduse, et le transforme en une chaîne de montagnes sur laquelle repose le ciel. Cette légende, probablement assez tardive, s'oppose à la version plus connue de la quête des pommes d'or entreprise par Héraclès dans laquelle Atlas est toujours vivant après plusieurs générations. Isabelle Turcan interprète la légende de Persée, victorieux de la gorgone Méduse comme un mythe cosmologique, celui d'un génie solaire vainqueur du règne de l'hiver. Les Grées comme les Gorgones sont liées au monde "noir" d'Ouranos, respectivement les premières sont du pays de la nuit et les Gorgones résident à l'extrême occident là où chaque jour disparaît le soleil. Le pouvoir pétrifiant du regard de Méduse est celui du gel.Le "Catalogue des femmes" mentionne le mariage de Persée et d'Andromède et l'épisode d'Andromède apparaît pour la première fois sur un vase corinthien à figures noires de 575-570 av. J.-C. environ, c'est-à-dire avant les premières traces de l'histoire de Méduse. Le premier récit développé semble être celui de Phérécyde, préservé chez Apollodore, puis Sophocle et Euripide consacrent à la légende des tragédies intitulées "Andromède", dont il ne subsiste plus que des fragments. Cassiopée, mère d'Andromède, s'est vantée que sa fille soit plus belle que les Néréides. En punition, Poséidon envoie un monstre marin qui ravage le pays. Après avoir interrogé l'oracle d'Ammon, Céphée, roi d'Éthiopie et mari de Cassiopée, doit offrir sa fille en sacrifice. Persée arrive et, après avoir débattu avec Céphée, libère la jeune fille. Des amphores corinthiennes du montrent Persée tenant Andromède par la main et repoussant le monstre marin à coups de pierre. Chez Ovide et les peintres sur vase postérieurs, Persée le tue à coup d'épée. Le recours à la tête de Méduse pour pétrifier le monstre n'apparaît pas avant Lucien de Samosate(). Persée épouse Andromède bien qu'elle ait été promise à Phinée, le frère de Céphée. Une querelle éclate lors des noces entre les deux hommes et Persée change Phinée en pierre grâce à la tête de la Gorgone. Chez Hygin, Agénor et non Phinée est le prétendant malheureux d'Andromède ; il est difficile de déterminer s'il s'agit d'une véritable variante ou d'une confusion de l'auteur. Andromède donne à Persée plusieurs enfants. Homère et le "Catalogue des femmes" citent seulement Sthénélos. La tradition ultérieure, notamment Apollodore, nomment également Persès, que Persée confie à Céphée, Alcée, Héléos, Mestor, Électryon, et une fille, Gorgophoné (« la tueuse de Gorgone »).À Sériphos, il délivra sa mère de Polydecte en se servant de nouveau de la tête de Méduse, changeant ainsi en pierre le roi et ses partisans. Persée laissa à Dictys le pouvoir sur Sériphos et se rendit avec Andromède à Argos, royaume d'Acrisios. Celui-ci, apprenant la venue de son petit-fils, s'enfuit à Larissa en Thessalie, par crainte que la prophétie ne se réalise. De retour en Grèce, Persée participa à des jeux funèbres que le roi thessalien Teutamidès donnait en l'honneur de son père et auxquels assistait Acrisios. Dépassant sa cible au lancer du disque, il frappa et tua accidentellement le vieillard, accomplissant ainsi la prophétie. Ovide rapporte que revenant à Argos, Persée découvrit que Proétos, le frère jumeau d'Acrisios, et selon certains, le père véritable de Persée, avait usurpé le trône de son frère. Le héros le tua en le transformant en rocher et monta sur le trône de la ville. Mais il préféra ne pas régner sur Argos, ayant tué le roi précédent. Il échangea donc son royaume contre celui de Tirynthe dont le roi était Mégapenthès et il y fonda les villes de Mycènes et de Midée. Comme la tâche de Persée était accomplie, Athéna lui recommanda de remettre les objets magiques à Hermès, qui les rendrait à leurs propriétaires respectifs. Selon certaines traditions, Athéna conserva le bouclier sur lequel elle plaça la tête de la Gorgone. Persée se rendit en Asie, où son fils Persès devint le fondateur légendaire de l'empire des Perses, à qui il donna son nom ; Platon dit que les Perses descendent de lui et Xénophon rapporte dans sa "Cyropédie" que Cyrus II descend de lui. Hygin donne toutefois une version très différente de ces événements mythiques. Pour lui, Polydecte fut un roi paisible qui épousa Danaé et mit Persée au service d'Athéna. D'autre part, Acrisios fut tué accidentellement par le jeune homme à Sériphos, pendant les jeux funèbres en l'honneur de Polydecte. Hygin indiqua aussi, rejoignant la version d'Ovide, que Persée fut tué par Mégapenthès, qui vengeait la mort de son père Proétos. On raconte que Persée se querella avec les suivantes de Dionysos, dont le culte fut introduit en Argolide à la même époque. Persée a également lancé une statue dans le lac de Lerne et a livré combat contre une certaine « Femme de la Mer ». Athéna place Andromède et Céphée au nombre des constellations du ciel et Zeus fait de même avec Persée et le monstre marin.Si le mythe de Persée n'est attesté dans des textes conservés qu'à partir du, il est probablement plus ancien. Au, un personnage de la "Samienne" de Ménandre s'exclame ainsi : Persée est en effet un sujet très fréquent à l'époque classique. Simonide de Céos chante dans l'un de ses poèmes la lamentation de Danaé, enfermée dans le coffre, et son appel à Zeus. Eschyle consacre à Danaé et Persée une trilogie complète. On ne connaît des tragédies que deux titres, "Les Phorcydes" et "Polydecte", et quelques fragments. Le drame satyrique qui complétait la trilogie est mieux conservé ; intitulé "Les Satyres tireurs de filets", il évoque le sauvetage de Danaé et Persée par Dictys. Sophocle compose également un "Acrisios", une "Danaé" et "Les Gens de Larisa",Dans "The Folktale" (voir Bibliographie), Stith Thompson signale une étude de Hartland sur la légende de Persée, dans laquelle l'auteur compare des contes traditionnels du monde entier sur ce thème ; il met notamment la légende en relation avec les contes-types du Tueur de dragons (AT 300) et des Deux Frères (AT 303), même s'il n'est pas possible de garantir que ces contes dérivent directement de la légende. Thompson mentionne divers motifs que l'on retrouve aussi bien dans la légende grecque que dans de nombreux contes populaires, ainsi : T511 (naissance surnaturelle du héros), S301 (le héros persécuté et abandonné en compagnie de sa mère), K333.2 (l'œil unique dérobé aux Phorcydes), D581 (la victoire sur Méduse au regard pétrifiant), T68.1 (la libération de l'héroïne livrée au monstre marin). Des motifs tels que la jeune fille enfermée dans la tour, les sandales ailées ou le casque d'invisibilité trouvent également écho dans les contes.Les diverses aventures de Persée ont fourni des sujets à la peinture et à la sculpture de la Renaissance au néo-classisisme et même jusqu'à l'époque contemporaine. Parmi les principaux artistes qui lui ont consacré des ouvrages, il faut citer : À ces noms s'ajoutent ceux de Pierre Puget, Pablo Picasso et Salvador Dalí.Dans le domaine de la sculpture, Benvenuto Cellini a réalisé un bronze, "Persée tenant la tête de Méduse" (de 1545 à 1554), exposé à Florence, loggia del Lanzi. Pierre Puget a donné un marbre "Persée et Andromède" (1684), exposé au Musée du Louvre. Antonio Canova a fait une sculpture appelée "Persée tenant la tête de Méduse" en 1801 qui se trouve au Musée Pio-Clementino au Vatican. "Persée et la Gorgone "est le titre d'une sculpture de Camille Claudel datée de 1902. C'est aussi celui d'une sculpture créée par Laurent Marqueste en 1875 (Persée et la Gorgone). Le thème de Persée combattant le monstre marin et délivrant Andromède se distingue de légendes similaires par des accessoires évoquant les autres aventures du héros : tête de Méduse, sandales d'Hermès, casque de Hadès. La représentation possible de Persée monté sur le cheval ailé Pégase, né de la mort de Méduse, n'est pas issue des récits antiques, mais d'une confusion induite par le manuscrit de l′"Ovide moralisé", faisant suivre le récit de Bellérophon par celui de Persée.Au cinéma, les aventures de Persée ont été adaptées librement par plusieurs péplums. En 1963, "Persée l'invincible" ("Perseo l'invincibile"), film italo-espagnol de Alberto De Martino, montre Persée affrontant Acrisios et son acolyte Galeron ainsi qu'une Méduse aux allures de plante à tentacules dotée d'un œil unique, qui peut animer et contrôler les hommes qu'elle a changées en statues ; Persée affronte aussi un monstrueux dragon. Un péplum américain inspiré de l'histoire de Persée est "Le Choc des Titans", réalisé en 1981. "Le Choc des titans" donne lieu à un remake américain dirigé par Louis Leterrier et portant le même titre. Ce remake donne lieu à son tour à une suite, "La Colère des Titans", réalisée par Jonathan Liebesman et sortie en 2012. Les premiers tomes de la série américaine de romans "Percy Jackson" de Rick Riordan, parue dans les années 2000, donnent lieu à des adaptations au cinéma dont la première est "" réalisé par Chris Columbus en 2010, suivi du second: "Percy Jackson : La mer des monstres" réalisé en 2013 par "Thor Freudenthal". Dans ces fictions, Percy tient son nom de Persée car, selon sa mère, c'est le seul héros à avoir eu une fin heureuse. Le troisième film n'est pas sorti.Persée est le héros du jeu d'aventure en mode texte "Perseus and Andromeda" développé en 1983 par Digital Fantasia, qui est une adaptation du mythe grec illustrée par des images composées de lettres et de lignes et qui est diffusé sur la plupart des ordinateurs personnels disponibles à l'époque (ZX Spectrum, Atari 8-bit, BBC Micro, Commodore 64, Commodore 16 et Oric-1). Dans le jeu vidéo "God of War II", un jeu vidéo américain d'action-aventure sorti sur consoles en 2007 et qui s'inspire très librement de la mythologie grecque, Persée est l'un des « boss » que Kratos, le héros du jeu, doit affronter. Persée est armé d'une épée, un bouclier, une fronde et un casque lui permettant de devenir invisible.
Persée (en grec ancien / ), roi argien, est un héros de la mythologie grecque. Persée est le fils de Danaé, fille du roi d'Argos, Acrisios. Ce dernier, averti par un oracle que son petit-fils le tuera, enferme sa fille dans une tour d'airain, ce qui n'empêche pas Zeus de la séduire sous la forme d'une pluie d'or. Persée naît ainsi dans le secret. Révélé à son grand-père par ses cris, il est enfermé dans un coffre avec sa mère et jeté dans les flots, qui les portent jusqu'à l'île de Sériphos. Tous deux sont recueillis par un pêcheur nommé Dictys, qui élève le garçon comme son fils. Devenu adulte, Persée se voit confier par Polydecte, le roi de l'île, la mission de tuer la gorgone Méduse, dont le regard pétrifie ceux qu'il atteint. Vainqueur grâce aux armes magiques remises par Hermès et Athéna, il passe sur le chemin du retour par l'Éthiopie, où il rencontre la princesse Andromède, qui doit être livrée à un monstre marin en punition des paroles imprudentes de sa mère Cassiopée. Persée la délivre et l'épouse. De retour à Sériphos, il se venge de Polydecte, qui a tenté de violer sa mère Danaé. Il rejoint ensuite sa patrie, Argos, qu'Acrisios a fui par peur de l'oracle pour se réfugier à Larissa. Or, le roi de cette cité organise des jeux funebres auxquels Persée prend part. En lançant le disque, il tue accidentellement Acrisios, qui assiste aux épreuves comme spectateur. Par égard pour son défunt grand-père, Persée échange sa royauté d'Argos contre celle de Tirynthe et donne l'île de Sériphos au pêcheur.
xwikis
Un traité est un contrat qui est conclu entre plusieurs sujets de droit international. L'accord écrit traduit l'expression des volontés concordantes de ces sujets de droit, en vue de produire des effets juridiques régis par le droit international public. Seuls peuvent conclure ces contrats ceux qui sont dotés d'une personnalité morale de droit international et qui disposent du "treaty-making power (TMP)". Il s'agit le plus souvent des États, mais d'autres personnes morales, comme certaines organisations internationales, peuvent en conclure. Un exemple de traité de paix est le Traité des Pyrénées.On oppose souvent les traités, et plus généralement les contrats, aux constitutions. Les premiers sont des actes juridiques traduisant une logique « horizontale » : les sujets de droit sont juridiquement égaux lorsqu'ils contractent. Les secondes suivent une logique « verticale » puisque les citoyens ne font qu'approuver ou non une Constitution qui leur a été donnée par une autorité hiérarchiquement supérieure. Dans certains pays la Constitution est le résultat d'un consensus entre la population et ses représentants. D'ailleurs, le vocabulaire juridique est le même tant pour les traités, les conventions et les contrats, qui sont conclus, que pour les Constitutions et tous les autres actes de nature législative ou réglementaire, qui sont légiférés, décrétés, arrêtés etc. Étant de nature contractuelle, le traité peut en principe comporter n'importe quelle clause, d'autant plus que les principaux contractants sont les États souverains. Le droit de certains pays impose cependant que les traités respectent les dispositions de la constitution. Dans ce cas, les traités ont une valeur infraconstitutionnelle et supralégislative dans la hiérarchie des normes. Il existe cependant des accords internationaux qui encadrent la conclusion d'autres traités, le plus connu étant la convention de Vienne de 1969, surnommée le « traité des traités ».La coexistence du droit international et du droit interne pose la question de leur rapport hiérarchique éventuel : l'une des deux normes doit-elle l'emporter sur l'autre? Il existe deux positions théoriques : Ainsi, en Italie, les traités internationaux signés et ratifiés doivent être formellement repris par une loi interne (dualisme) et ont donc l'autorité de la loi qui les a intégrés dans l'ordre juridique interne. En France, en revanche, les traités sont applicables dès leur ratification (monisme) : ils ont une position spécifique, qui est en l'occurrence supérieure aux lois internes, ils ont valeur (parfois contestée) infraconstitutionnelle etsupra-législative, en application de l'article 55 de la Constitution de la Cinquième République française : « Les traités ou accords régulièrement ratifiés ou approuvés ont, dès leur publication, une autorité supérieure à celle des lois, sous réserve, pour chaque accord ou traité, de son application par l'autre partie ». C'est donc la condition de réciprocité.Selon la Cour de justice des Communautés européennes, les traités communautaires sont supérieurs aux Constitutions nationales depuis l'Arrêt Costa contre ENEL du (aff. 6/64). Cependant, les juridictions internes et le Conseil constitutionnel n'admettent cette suprématie qu'au cas par cas et non explicitement. Quant à la jurisprudence du Conseil constitutionnel, il fait savoir que les dispositions des traités fondateurs de l'Union européenne ne peuvent être incompatibles avec la Constitution (le traité doit donc être conforme, ce qui indique qu'il lui est inférieur dans la hiérarchie des normes). Cependant, à la suite de la constatation de cette incompatibilité entre traité et Constitution en 1992, la Constitution est révisée et non le traité, ce qui aurait été compliqué dans le cadre d'un texte impliquant à l'époque 12 états, non forcément souhaité. Cela laisse supposer que dans le cadre de traités concernant l'UE, même s'ils ne sont pas supérieurs à la Constitution, cette dernière serait éventuellement révisée afin que le traité lui soit conforme, comme ce fut le cas en janvier 1999 et.La société internationale étant essentiellement décentralisée, les pouvoirs de création du droit et d'application du droit n'appartiennent pas à une entité centralisée. Il n'y a pas d'État mondial, et les principaux sujets de droit sont aussi les principaux créateurs du droit. Le droit international a trois sources principales : Il faudrait ajouter à ces trois sources l'article 38 du statut de la Cour internationale de justice (CIJ), les déclarations unilatérales. C'est la CIJ qui a conféré un statut de source de droit aux déclarations officielles faites par les gouvernements, comme en conférence de presse dans l'affaire des essais nucléaires français. La doctrine et la jurisprudence constituent aussi deux sources secondaires (ou auxiliaires) de droit international (cf. Article 38, chapitre 1, lettre d. du Statut de la Cour Internationale de Justice) mais sous réserve de la disposition de l'article 52 de ce même Statut.Il n'y a pas, en principe, de hiérarchie entre les sources du droit international, mais la Convention de Vienne sur le droit des traités de 1969, dans les articles 53 et 64, semble reconnaître une certaine hiérarchie des normes internationales. Cette hiérarchie est justifiée par ce que les spécialistes du droit international appellent le "jus cogens". Par les mots de l'article 53 de la Convention de Vienne sur le droit des traités, « Une norme impérative du droit international général est une norme acceptée et reconnue par la communauté internationale des États dans son ensemble en tant que norme à laquelle aucune dérogation n'est permise et qui ne peut être modifiée que par une nouvelle norme du droit international général ayant le même caractère ». Les normes qui bénéficient du "jus cogens" sont censées être impératives et l'emporter sur toute autre norme internationale comme le traité. Par exemple, l'interdiction du crime de génocide peut être considérée comme entrée dans le "jus cogens". Cette suprématie impérative du "jus cogens" est parfois sujette à polémique ou à de sérieuses difficultés diplomatiques et politiques lorsqu'elle est utilisée par certaines parties pour justifier une intervention extérieure contre une autre partie même si cette dernière est seule à s'opposer à une norme mais qu'elle défend sa position sur la base d'autres normes qu'elles considèrent plus importantes et essentielles pour elle (voir les questions relatives au droit d'ingérence). Dans certains cas, cette suprématie supposée n'a été justifiée qu', après l'intervention, mais dans d'autres cas, les arguments invoqués pour justifier l'intervention ont prouvé être en partie erronés ou biaisés avec la conséquence, dans le pire des cas, la remise en cause du bien-fondé de cette suprématie ou, dans le meilleur des cas, la démonstration des insuffisances des moyens de contrôle des normes et de négociation pacifique des litiges par la communauté internationale des États. Toutefois, les États concernés résistent à toute extension des moyens de contrôle sur leur territoire au-delà des dispositions des normes qu'ils ont déjà approuvées en l'état, avec alors pour effet d'amoindrir la portée contraignante supposée des mêmes normes.La création d'un traité international passe par les voies suivantes, conditions cumulatives : À la suite de l'adhésion et de l'entrée en vigueur, toute partie dispose du droit de se retirer d'un traité dans les conditions prévues par ses clauses. Sinon, elle devra en négocier les conditions avec les autres parties. Les parties peuvent également décider d'abandonner leurs anciennes réserves et adopter de nouvelles clauses optionnelles qu'elles n'avaient initialement pas ratifiées. Ces modifications entrent en vigueur dans les délais et selon les modalités d'enregistrement prévus dans les clauses du traité ou selon les conditions négociées et acceptées par les autres parties. Le défaut d'une partie, la suspension, la réduction de ses droits, ou l'application de sanctions dans le cadre du traité peuvent également être établis, soit par une décision collective des autres parties, soit par une cour de justice internationale, dans les conditions prévues par le traité. Enfin un traité peut prévoir les conditions minimales à la suite desquelles toutes les parties existantes se désengageront en même temps, déclarant le traité inapplicable et caduc après le délai prévu, en mettant alors fin aux activités de son secrétariat d'enregistrement, de ses organes de contrôle et de ses éventuelles assemblées délibérantes, et en procédant à la liquidation entre les parties des actifs et passifs restants.Le droit international public régit essentiellement les relations entre les États. Les sources du droit international, telles qu'acceptées et reconnues officiellement à l'article 38 du Statut de la Cour internationale de justice, sont les suivantes : les conventions (générales ou spéciales), la coutume internationale et les principes généraux du droit reconnus par les nations civilisés. Il faut cependant rajouter à cette liste les actes unilatéraux internationaux. En tant que sources subsidiaires et constituant plutôt des sources d'interprétation du droit international, on accepte la doctrine et les décisions judiciaires. Le droit international peut être divisé en deux catégories : le droit international public et le droit international privé. Lorsqu'on parle simplement de droit international, il s'agit habituellement du droit international public. Traditionnellement, les seuls sujets du droit international sont les États. Toutefois, la prolifération des organisations internationales depuis le début du les ont fait reconnaître comme sujet du droit international. Les récents développements du droit international humanitaire et de l'évolution de la protection des droits de l'homme dans le cadre du droit international pénal ont soulevé la question de savoir si les personnes privées, physiques ou morales (entreprises ou association) puissent se voir conférer la qualité de sujet de droit international, en tant qu'accusé et/ou victime. La réponse est peu claire, mais il est généralement accepté que les individus voient leurs droits fondamentaux protégés et consacrés par le droit international de façon plus ou moins indirecte, mais, étant donné que leur capacité juridique est très limitée, voire inexistante, il est donc peu prudent de qualifier l'individu de sujet de droit international.Sont sujets de droit international les États, les organisations internationales, certains mouvements de libération nationale, les États fédérés dans la mesure où cela est prévu par leur constitution fédérale, comme la Région wallonne ou la Communauté flamande et les autres entités fédérées belges, qui jouissent quasiment d'une pleine liberté d'action sur la scène internationale. Ce n'est pas le cas des organisations non gouvernementales, exception faite de la Croix-Rouge, qui possède un statut particulier. Les individus n'ont pas la capacité juridique de conclure des traités à moins d'être représentants d'une personne morale de droit international. Cependant, des doctrines ont essayé de donner aux individus une personnalité juridique de droit international. La doctrine catholique du droit naturel, dans un premier temps (notamment Grotius) part du postulat que l'État ne peut tout faire et qu'il est limité par l'existence d'un droit naturel antérieur à sa création. L'individu se voit donc reconnaître des droits ou pouvoirs publics. Cependant, cette vision ne correspondait pas à la réalité, les États étant les sujets de droit primaires, avec les organisations internationales sujets dérivés. L'individu n'avait aucune place en droit international.Les premiers bénéficiaires sont les personnes qui ont ratifié le traité. Une nouvelle doctrine a vu le jour dans l'entre-deux-guerres, menée notamment par Léon Duguit. Ils replacent l'individu au centre du droit international en partant de l'analyse du terme « droit des gens » (nom traditionnel du droit international). Une évolution s'est opérée, à la suite surtout de la Seconde Guerre mondiale et de la reconnaissance de la nécessité de droits accordés à tous les hommes, indépendamment des États qui voudraient ou non accorder ces droits à leurs ressortissants en signant ou refusant de signer les traités (théorie des droits de l'Homme universels, voir Déclaration universelle des droits de l'homme de 1948). Bien que les individus ne soient toujours pas dotés de la capacité juridique leur permettant de conclure des traités, ils peuvent bénéficier de ces traités. Cependant, cette universalisation des droits est confrontée au fait que les individus bénéficient de ces traités que de façon médiate, par l'intermédiaire de leur État qui signe et ratifie le traité. Les individus peuvent également bénéficier des traités lorsqu'ils sont regroupés en catégories (les militaires, les prisonniers de guerre, etc.).Les rapports entre le traité international et la Constitution française sont réglés par l’article 54 de la Constitution, qui dispose que si un engagement international de la France comporte une clause jugée contraire à la Constitution par le Conseil constitutionnel, l'autorisation de le ratifier ou de l'approuver ne peut intervenir qu'après révision de la Constitution. En principe, émanant d'un ordre juridique supérieur, le traité devrait l'emporter sur la Constitution, mais il en est tout autrement en pratique. En effet, aucun traité ne peut être ratifié par le Président de la République, s'il contient des dispositions contraires à la Constitution française. Pour qu'il puisse être ratifié, la Constitution doit être révisée selon une procédure lourde et complexe pour que la disposition non conforme puisse être modifiée. Cette procédure a été plusieurs fois utilisée en France. Par exemple, lors de la ratification du traité de Maastricht, qui était en complète contradiction avec les dispositions de la Constitution, notamment sur les questions de souveraineté, une loi 92-554 du est venue ajouter un titre nouveau à la Constitution libellé « des Communautés européennes et de l’Union européenne ».L'article 55 de la Constitution française attache une autorité supérieure à la convention internationale par rapport à celle de la loi interne. Autrement dit, le législateur français et, "a fortiori", l’exécutif ne peuvent adopter des dispositions contraires aux dispositions d'un traité international qui est conclu et ratifié par la France. En conséquence, un juge français se doit d'adopter une des deux attitudes suivantes : Cette autorité supérieure du traité est conditionnée par le principe de réciprocité : l'autorité du traité est subordonnée à son application par l'autre partie. Les rapports entre le traité et la loi sont au plus clairs. L'évolution jurisprudentielle en la matière a, en effet, été fort complexe et des divergences importantes sont apparues entre les différents ordres de juridiction qui semblent maintenant avoir été enrayées. Le Conseil constitutionnel refuse de connaître de la conformité des lois aux traités, au motif essentiel qu'« une loi contraire à un traité ne serait pas, pour autant, contraire à la Constitution ». Ainsi, il écarte les traités du bloc de constitutionnalité. Le Conseil constitutionnel estime que le cadre limité de sa mission ne lui permet pas de vérifier la conformité des lois aux traités et considère que les véritables destinataires de l'article 55 de la Constitution sont les juridictions des deux ordres. La Cour de cassation, dans un arrêt de 1975, prit position en faveur d:une supériorité sans condition du traité sur la loi interne, qu’elle soit antérieure ou postérieure à celui-là. La Haute juridiction reconnut ainsi le droit à tout tribunal de l’ordre judiciaire de juger de la conformité de la loi aux traités afin de faire prévaloir ces derniers. Le Conseil d’état s'est refusé pendant très longtemps à juger de la compatibilité des lois aux traités. Il effectuait une distinction, tout à fait illogique entre les lois antérieures, qu'il considérait comme implicitement abrogées par le traité, et les lois postérieures aux traités, qui emportaient sur la convention internationale. L’arrêt Nicolo opéra un alignement de la position du Conseil d'état sur celle de la Cour de cassation.En Suisse, le principe de la primauté du droit international est consacré à l'article 5, alinéa 4, de la Constitution suisse : « La Confédération et les cantons respectent le droit international ». Les traités entraînant l'adhésion à des organisations de sécurité collective ou à des communautés supranationales sont soumis au référendum obligatoire (article 140, alinéa 1 lettre b.). Les traités qui sont d'une durée indéterminée et ne sont pas dénonçables, qui prévoient l'adhésion à une organisation internationale, qui contiennent des dispositions importantes fixant des règles de droit ou dont la mise en œuvre exige l'adoption de lois fédérales peuvent être soumis au référendum facultatif (article 141, alinéa 1, lettre d.). Une initiative populaire qui ne respecte pas les règles impératives du droit international doit être déclarée nulle par l'Assemblée fédérale (article 139, alinéa 3 Cst.). Une fois ratifié, un traité international est assimilé au droit suisse et sa violation peut faire l'objet d'un recours devant le Tribunal fédéral (article 95, lettre b., où le droit international figure juste après le droit fédéral, sous « Droit suisse »).L'application extraterritoriale du droit américain s'est notamment concrétisée à travers les lois américaines D'Amato-Kennedy et Helms-Burton, qui imposent un embargo sur Cuba, la Libye et l'Iran. Ainsi, par l'extraterritorialisation de ces lois, toute société investissant dans ces pays, qu'elle soit américaine ou non, pouvait être condamnée par la justice américaine. Le rapport d'information déposé par la délégation de l'Assemblée nationale pour l'Union européenne sur les relations économiques entre l'Union européenne et les États-Unis () pose des questions sur l'application extraterritoriale du droit des États-Unis.Le droit international se distingue des droits nationaux par l'absence d'une structure centralisée chargée de faire respecter son application. L'absence de gendarme international a amené certains auteurs à douter que le droit international soit véritablement du droit. Il existe cependant plusieurs cours de justice internationale, ainsi que certains tribunaux d'arbitrage "ad hoc" qui appliquent le droit international, notamment la Cour internationale de justice (CIJ). Cependant, pour que la Cour puisse régler un différend, les deux États parties au litige doivent avoir expressément accepté la juridiction de la cour (cette acceptation est encore désignée sous le terme clause facultative de juridiction, qui est différente de la clause compromissoire). Cela peut se faire par plusieurs moyens, notamment la signature d'une entente après la survenance du litige, par une déclaration d'acceptation de la juridiction de la cour contenue dans un traité ou encore par une déclaration d'acceptation de la compétence générale de la cour. Cependant, ces déclarations d'acceptation de compétence générale sont plutôt rares et très souvent assujetties à de nombreuses réserves. Par exemple, parmi les membres du Conseil de sécurité, seule le Royaume-Uni a signé une telle déclaration (les États-Unis ont retiré la leur après l'affaire des contrats au Nicaragua, la France après l'affaire des essais nucléaires). L'application d'une convention dépend donc en grande partie de la bonne volonté des États liés par la convention. En cas de différend international, il existe plusieurs méthodes de résolution pacifique des différends. Cela peut aller de la négociation, à la médiation, arbitrage, jusqu'à la saisine de la CIJ. Ces modes de règlement peuvent éventuellement mener à l'application de mesures de rétorsion par un État. Cependant, ce droit n'est pas nécessairement garanti. En cas de refus d'exécuter un arrêt de la CIJ par exemple, l'État lésé doit d'abord saisir le Conseil de sécurité. En ce qui concerne le droit pénal international, distinct du droit international inter-étatique, le Statut de Rome a créé la Cour pénale internationale pour le cas des crimes contre l'humanité. Des mesures de rétorsion imposées par un État puissant seront plus efficaces que celles d'un État d'importance politique ou économique plus faible. Ainsi, en pratique, seuls les États forts sont véritablement en mesure de faire respecter les conventions qu'ils ont signées. Le concept d'État de droit ne s'applique donc pas pleinement aux relations internationales. Dans ces conditions, il pourrait sembler que le droit international n'est qu'un déguisement de la loi du plus fort. Cependant, il ne faut pas négliger le poids des relations diplomatiques et l'importance pour les États de leur image dans le monde. Sauf exception, les États ont avantage à respecter leurs obligations. Dans les États qui ont un système de droit positif fort, le droit international figure dans le bloc de conventionnalité de la pyramide des normes, à côté du droit européen (en Europe) et des lois organiques. Il dépend du droit constitutionnel qui figure dans le bloc de constitutionnalité, et s'impose donc en principe aux lois, qui sont à un niveau inférieur de la hiérarchie des normes.Pour les personnes morales de droit international, le respect des traités passe le plus souvent par les relations internationales. En effet, les États étant souverains, il est difficile de leur faire appliquer de force des traités alors même qu'ils les ont ratifiés. Ils peuvent à ce sujet invoquer comme moyen de pression le principe de réciprocité (il n'a pas à appliquer les dispositions d'un traité que l'autre partie ne respecte pas). Les États peuvent également ester en justice devant la CIJ, organe juridique de l'Organisation des Nations unies, qui regroupe 192 des 195 États qu'elle reconnaît. Cependant, il y de nombreuses condamnations de la Cour qui n'ont pas été appliquées. Les États-Unis, premiers condamnés par la CIJ, sont l'un des États qui respectent le moins les décisions de condamnation. L'Organe de règlement des différends de l'Organisation mondiale du commerce, qui regroupe 150 États en 2008, ne s'occupe que de traités touchant le commerce. Contrairement aux jugements de la CIJ, ses décisions sont en général très bien appliquées, malgré la décision des États-Unis en 1994 de se retirer en cas d'un trop grand nombre de condamnations. Pour ces deux juridictions, seuls les États peuvent ester en justice. Cependant, on a vu se développer, à l'initiative des États-Unis, une pratique consistant à la défense des intérêts économiques des entreprises nationales devant l'ORD. D'autres juridictions internationales ont des recours ouverts aux particuliers. On peut en citer deux notamment :
Un traité est un contrat conclu entre plusieurs sujets de droit international public. L'accord écrit traduit l'expression des volontés concordantes de ces sujets de droit en vue de produire des effets juridiques, qui sont régis par le droit international.
xwikis
De 1946 à 1948, les délégués des Nations unies se sont consacrés à l'élaboration de la Déclaration. Créée en 1946 par le Conseil économique et social, la Commission nucléaire des droits de l’homme a fixé comme principal mandat de la nouvelle Commission des droits de l’homme l’élaboration d’une charte internationale. Au début de l’année 1947, lors de sa première session, la Commission des droits de l’homme a établi un Comité de rédaction. Initialement composé de la présidente, Eleanor Roosevelt, du vice-président, P.C. Chang, et du rapporteur, Charles Malik, le Comité de rédaction sera élargi dans un second temps. Il se compose des membres suivants : Le Comité de rédaction se réunit pour sa première session du 9 au 25 juin 1947, puis pour une deuxième session du 3 au 21 mai 1948. Le projet de Déclaration rédigé par le Comité et transmis pour discussion à la Commission des droits de l’homme, puis au Conseil économique et social, et enfin à l’Assemblée générale. De nombreux amendements et propositions seront encore proposés par les États membres de l’ONU au sein de ces différents organes.La structure qui sous-tend la Déclaration apparaît dans sa seconde version préparatoire, élaborée par René Cassin. Se démarquant du premier jet de John Peters Humphrey, simple liste de droits conforme au modèle du "" de nombreux États américains, ce texte commence par un préambule. Il consacre ensuite ses premiers articles à l'énoncé de principes généraux, destinés à guider l'interprétation des dispositions détaillées qu'ils précèdent, imitant sur ce point le Code civil français, dont les six premiers articles répondent au même objectif. Cette structure a par ailleurs été comparée par René Cassin à celle du portique d'un temple grec : une succession de considérations comparables à des marches, quatre colonnes constituées par les droits individuels, familiaux, sociaux et politiques et un fronton unifiant l'ensemble dans une même vision de l'humanité, composé des trois derniers articles du texte.Certains affirment que la première déclaration des droits de l'homme connue serait celle transcrite sur le cylindre de Cyrus, rédigé par Cyrus le Grand, fondateur de l'Empire perse en l'annéeCertains auteurs, tels Norberto Bobbio, affirment que la Déclaration de 1948 trouve ses sources dans l'émergence du droit naturel, des théories du contrat social (en particulier celle de Locke) et dans l'individualisme qui aurait remplacé l'holisme des communautés antérieures. Il y aurait ainsi une filiation directe entre le jusnaturalisme de certaines philosophies du siècle des Lumières, et l'adoption de documents comme la Déclaration des droits anglaise, la Déclaration des Droits américaine et la Déclaration des droits de l'homme et du citoyen française. D'autres soulignent toutefois des divergences considérables entre les « théories contractualistes » (Hobbes, Locke et Rousseau — théories qui d'ailleurs divergent entre elles, Hobbes et Rousseau pouvant être assimilés au positivisme juridique) et la formulation de la Déclaration de 1789.Lors de la Seconde Guerre mondiale, les alliés adoptèrent les « quatre libertés » : la liberté d'expression, la liberté de religion, la liberté de vivre à l'abri du besoin et la liberté de vivre à l'abri de la peur, comme leurs buts fondamentaux dans ce conflit. La Charte des Nations unies réaffirme la, et engage tous les États membres à promouvoir Lorsque les atrocités commises par l'Allemagne nazie furent connues, après la Seconde Guerre mondiale, le consensus au sein de la communauté internationale était que la Charte ne définissait pas suffisamment les droits auxquels elle faisait référence. Une déclaration précisant les droits des individus était nécessaire afin de renforcer les dispositions de la Charte sur les droits de l'homme.Après avoir voté la Déclaration universelle des droits de l'homme, qui n'a, en tant que telle, qu'une valeur déclarative, et ne crée donc pas d'obligations juridiques, l'Assemblée générale a souhaité une Charte des droits de l'homme qui aurait force obligatoire. La Commission des droits de l'homme de l'ONU a été chargée de la rédiger. Après de longues négociations, le projet a abouti, dans le contexte de la guerre froide avec deux textes complémentaires : le Pacte international relatif aux droits économiques, sociaux et culturels et le Pacte international relatif aux droits civils et politiques. Le Conseil constitutionnel français n'accorde pas de statut juridique positif à la Déclaration de 1948, bien que celle de 1789 soit intégrée au bloc de constitutionnalité depuis 1971. En revanche, d'extension géographique moindre, la Convention européenne des droits de l'homme comporte des dispositions contraignantes pour les États signataires. Par ailleurs, l'article 29.1 de la DUDH évoque les devoirs de la personne : sur ce point, voir l'article Droits de l'homme.Le texte de la Déclaration universelle des droits de l'homme s’est vu décerner par le "Livre Guinness des records" en 2009, le record mondial de traduction, avec 370 langues et dialectes différents. En 2019, le Haut-Commissariat des Nations unies aux droits de l'homme dénombre 518 traductions, disponibles sur son site internet. Bien que le HCDH s'efforce de sélectionner les traductions officielles ou les meilleures traductions disponibles, et de produire de nouvelles traductions dans des langues de grande diffusion, le HCDH émet néanmoins comme réserve, la qualité et l'exactitude des traductions autres que celles effectuées dans les six langues officielles de l’ONU : anglais, arabe, chinois, espagnol, français, russe.Trois critiques principales sont faites à cette Déclaration. D'une part, celle qui concerne l'effectivité des droits de l'homme, et qui s'intéresse aux garanties juridiques positives, ou à l'absence de celles-ci. Cette critique a par exemple été formulée par Jeane Kirkpatrick, représentante permanente des États-Unis auprès des Nations unies de 1981 à 1985, qui mettait sur le même plan la Déclaration et la lettre au père Noël. D'autre part, une autre critique porte sur l'universalité supposée de ces droits de l'homme. Celle-ci rejoint parfois celle-là, ainsi lorsque les pays du Sud dénoncent une application et un intérêt à géométrie variable pour les droits de l'homme, en fonction des pays, des puissances et des conflits. Dans ce dernier cas, ce n'est pas le principe de l'universalité des droits de l'homme qui est contesté en tant que tel, comme peuvent le faire les tenants d'un relativisme culturel radical, mais plutôt l'application différenciée supposée de ceux-ci. Enfin, le texte passe sous silence la peine de mort. L'article 5 mentionne seulement que "Nul ne sera soumis à la torture, ni à des peines ou traitements cruels, inhumains ou dégradants." Par ailleurs, les droits liés à la liberté de la presse et la protection des sources d'information des journalistes y sont moins développés que dans d'autres textes, comme la Convention européenne des droits de l'homme et son célèbre article 10.
La Déclaration universelle des droits de l'homme (DUDH) est adoptée par l’Assemblée générale des Nations unies le à Paris au palais de Chaillot par la résolution 217 (III) A. Elle précise les droits fondamentaux de l'homme. Sans véritable portée juridique en tant que tel, ce texte est une proclamation de droits, par conséquent il n'a qu'une valeur déclarative.
xwikis
À partir du début du, les Mésopotamiens ont compté en base 60 en utilisant une numération de position dérivée du système de numération de type additif et de base mixte des Sumériens. Ce système est généralement associé à la civilisation babylonienne, qui occupe le sud mésopotamien après -1800 et jusqu'au début de notre ère. Cette base a traversé les siècles : on la retrouve aujourd'hui dans la notation des angles en degrés (360° = 6 × 60°) ou dans le découpage du temps (1 heure = 60 minutes = 60 secondes).La définition de la seconde, l'unité de temps dans le Système international, a été établie selon les connaissances et les possibilités techniques de chaque époque depuis la première Conférence générale des poids et mesures en 1889. La seconde, symbole s, est l'unité du temps du SI. Elle est définie en prenant la valeur numérique fixée de la fréquence du césium, Δν, la fréquence de la transition hyperfine de l'état fondamental de l'atome de césium 133 non perturbé, égale à lorsqu'elle est exprimée en Hz, unité égale à s. Il en résulte de cette définition que la seconde est égale à la durée de de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium 133 non perturbé. La seconde, étalon de mesure du temps, est ainsi un multiple de la période de l’onde émise par un atome de césium 133 lorsqu’un de ses électrons change de niveau d'énergie. On est ainsi passé de définitions, en quelque sorte "descendantes", dans lesquelles la seconde résultait de la division d’un intervalle de durée connue en plus petits intervalles, à une définition "ascendante" où la seconde est multiple d'un intervalle plus petit. Lors de sa session de 1997, le Comité international a confirmé que la définition de la seconde se réfère à un atome de césium à une température de, c'est-à-dire au zéro absolu. Cette dernière précision souligne le fait qu’à, la transition en question subit, par rapport à sa valeur théorique, un déplacement en fréquence dû aux effets de rayonnement du corps noir. Cette correction a été apportée aux étalons primaires de fréquence et donc au Temps atomique international (TAI) à partir de 1997, quand elle a cessé d’être négligeable par rapport aux autres sources d’incertitude. On dispose aujourd’hui d’une exactitude allant jusqu’à la (). L’exactitude et la stabilité de l’échelle dite du TAI obtenue principalement à partir d’horloges atomiques à jet de césium sont environ supérieures à celles du temps des éphémérides. C’est d’ailleurs l’unité du SI la plus précisément connue.Les préfixes du Système international d'unités permettent de créer des multiples et sous-multiples décimaux de la seconde. Si les sous-multiples décimaux (milliseconde, microseconde, nanoseconde, etc.) sont d’un emploi assez fréquent, les multiples (kiloseconde () pour, mégaseconde, etc.) sont très peu usités, les multiples de 60 (minute, heure) puis 24 (jour) leur étant préférés. Les multiples de la seconde en usage avec le Système international sont :Il existe d’autres unités usuelles non décrites dans le SI, mais dérivées de celui-ci :L'emploi d'une ou de deux primes (caractères « ′ » et « ′′ ») comme symboles respectifs de la minute et de la seconde temporelles est incorrect, ces signes désignant la minute et la seconde d'arc, subdivisions du degré d'arc. De même il n’est pas correct d’utiliser des abréviations pour les symboles et noms d’unités, comme « sec » (pour « s » ou « seconde »).Les préfixes du Système international d'unités permettent de créer des multiples et sous-multiples décimaux de la seconde. Comme indiqué plus haut, les sous-multiples sont employés fréquemment contrairement aux multiples. Voici la table des multiples et sous-multiples de la seconde :On peut noter que l'âge de l'univers, exprimé en secondes, est voisin de, ce qui donne peu de sens aux durées bien plus grandes exprimées en zettasecondes ou yottasecondes. De même un milliard de secondes correspondent environ à et, plus parlant à l'échelle humaine. À l'opposé, dans le domaine des durées extrêmement courtes, l’ a mesuré en 2004 la durée du trajet d’électrons excités par les impulsions de d’un laser à ultraviolets ; position mesurée toutes les, correspondant à - à titre de comparaison, une attoseconde est à une seconde ce qu'une seconde est à environ 31,54 milliards d'années. Pour avoir une meilleure idée de la prouesse, dans le modèle d’atome d’hydrogène de Niels Bohr, l’orbite d’un électron autour du noyau dure (mais les modèles atomiques actuels considèrent que l’électron ne tourne pas). L'Institut Max Born d’optique non linéaire et de spectroscopie (MBI) de Berlin est parvenu à établir en 2010 le record de la plus faible durée d'impulsion contrôlable, atteignant la durée de. Les unités de temps plus petites, zeptoseconde et yoctoseconde, ont peut-être encore un sens à des échelles subatomiques, mais ne sont pas mesurables avec les instruments actuels.D'autres unités usuelles ne correspondent pas à un nombre précis de secondes, et ne sont donc pas des unités de temps dans le SI, ni même dérivées directement de celui-ci puisque ce ne sont que des approximations dans leur propre système non linéaire, d’une durée réelle en secondes SI : Toutefois, dans de nombreux pays, l’heure légale dans une journée calendaire est maintenant déterminée par une durée exprimée en heures, minutes et secondes du SI : le réajustement des jours calendaires avec les jours solaires se fait aujourd'hui de temps en temps au moyen des secondes intercalaires, insérées ou supprimées à certaines dates en fin de journée (de sorte que les jours calendaires légaux font le plus souvent 24 heures dans le SI, mais certains jours sont raccourcis ou augmentés d’une ou deux secondes du SI). Cela a permis d’éliminer dans de nombreux domaines l’emploi des traditionnelles secondes, minutes et heures solaires, et même celui des secondes, minutes et heures calendaires, au prix d’une complexification de la durée légale d’une journée calendaire.Les développements récents d'horloge atomique, basés sur des transitions électroniques à des fréquences optiques, ont permis de construire des horloges plus stables que les meilleures horloges à jet de césium. Lors de la Conférence générale des poids et mesures, ces atomes et leurs fréquences ont été ajoutés aux représentations secondaires de la seconde. D'après les publications sur les performances de ces étalons de fréquence (dont "Nature" de ), ces horloges pourraient dans le futur conduire à une nouvelle définition de la seconde.
La seconde est une unité de mesure du temps de symbole s (sans point abréviatif). Qualitativement, elle est d'une durée égale à la soixantième partie de la minute, la minute étant elle-même la soixantième partie de l'heure. C'est d'ailleurs l'étymologie du mot qui provient de la francisation écourtée de l’expression en latin médiéval, qui signifie littéralement "minute de second rang", c’est-à-dire "seconde division de l’heure".
xwikis
« "Nous fixons l'unité de mesure à la dix-millionième partie du quart du méridien et nous la nommons mètre" ». Le, dans leur rapport à l'Académie des Sciences sur la nomenclature des mesures linéaires et superficielles, Borda, Lagrange, Condorcet et Laplace, définissent pour la première fois ce qui deviendra près d'un siècle plus tard l'unité de mesure internationale de référence des longueurs. Le mot « mètre » était déjà utilisé dans la langue française depuis plus d'un siècle dans des mots composés comme thermomètre (1624, Leurechon) ou baromètre (1666).Le, l'Assemblée Nationale, sur la demande de Talleyrand et au vu du rapport de l'Académie des sciences, avait voté l'exécution de la mesure d'un arc de méridien de Dunkerque à Barcelone pour donner une base objective à la nouvelle unité de mesure. Les opérations de mesure du méridien entamées en 1792 par Delambre et Méchain n'étant pas encore achevées, en 1793, un premier mètre provisoire doit être adopté. Fondé sur les calculs du méridien par Nicolas-Louis de Lacaille en 1758 et d'une longueur de 3 pieds 11 lignes, soit 443,44 lignes de la Toise deLa République helvétique adopte le système métrique en 1803, peu avant son effondrement. Le, Ferdinand Rudolph Hassler soumet sa candidature à la réalisation du relevé côtier des États-Unis, où il avait amené une copie du mètre des Archives en 1805. Les Pays-Bas adoptent le mètre à partir de 1816, premier pays à établir durablement le système métrique, suivi par la Grèce en 1836. En 1832, Carl Friedrich Gauss qui effectue des travaux sur le champ magnétique terrestre propose d'ajouter la seconde aux unités fondamentales que sont le mètre et le kilogramme sous la forme du système CGS (centimètre, gramme, seconde). La loi du interdit en France à partir de 1840 tous poids et mesures autres que ceux établis par les lois du 18 germinal an III ()En 1960, la 11e Conférence générale des poids et mesures (CGPM) abroge la définition du mètre en vigueur depuis 1889, fondée sur le prototype international en platine iridié. Elle définit le mètre, unité de longueur du Système international (SI), comme égal à 1 650 763,73 longueurs d'onde dans le vide de la radiation correspondant à la transition entre les niveaux 2p10 et 5d5 de l'atome de krypton 86. En 1983, la définition du mètre fondée sur l'atome de krypton 86 en vigueur depuis 1960 est abrogée. LeLe, l'Assemblée nationale constituante se prononce pour la création d'un système de mesure stable, uniforme et simple. Le, Condorcet met sur pied une commission, comprenant, outre lui-même, Jean-Charles de Borda, Coulomb, Joseph Louis de Lagrange, Laplace, Lavoisier et Tillet. La commission étudie trois possibilités de mesure : Elle rend son rapport en. La mesure au pendule est abandonnée d'une part à cause des variations de la gravitation terrestre, d'autre part à cause de l'interférence du facteur temps dans la détermination de l’unité de longueur avec le pendule. Le, sur la proposition de Borda - l'inventeur du pendule et du « cercle répétiteur » qui portent son nom - une commission chargée de fixer la base de l'unité des mesures est constituée. La commission est composée de Borda, Condorcet, Laplace, Lagrange et Monge. Des appareils de mesure géodésique précis et fiables sont nécessaires comme la règle pour les longueurs et le cercle répétiteur pour les angles, avec une précision d'une seconde d'arc, dont Borda est l'inventeur avec Etienne Lenoir. La mesure du cercle équatorial n'est pas retenue. C'est la grandeur du quart du méridien terrestre qui servira de base au nouveau système de mesure. Le rapport final sur le choix d’une unité de mesure présenté le par Condorcet à l’Académie propose que l’unité de longueur, baptisée « mètre », soit égale à la dix millionième partie du quart du méridien terrestre. Il propose que l’on ne mesure pas le quart de méridien tout entier, mais seulement, sur le 45° parallèle et au niveau de la mer, l'arc de neuf degrés et demi qui sépare Dunkerque de Barcelone.Alors que Galilée affirmait l'isochronisme des pendules, Huygens trouve que la période du pendule dépend de l’amplitude de son mouvement pour les grandes oscillations. S'inspirant des recherches de Christopher Wren sur le cycloïde, il munit ses pendules d'arc cycloïdaux qui garantissent l'isochronisme des vibrations en rendant la période indépendante de l’amplitude. Huygens détermine la longueur du pendule qui bat la seconde à 3 pieds, 3 pouces et 3/10 d’un pouce d’Angleterre. En 1659, Huygens introduit un paramètre supplémentaire dans le calcul de la période d'un pendule, la pesanteur, dont leL'étude de la Terre précède la physique et contribuera à l'élaboration de ses méthodes. Celle-ci n'est alors qu'une philosophie naturelle dont l'objet est l'observation de phénomènes comme le champ magnétique terrestre, la foudre et la pesanteur. De plus, la détermination de la figure de la Terre constitue à son origine un problème de la plus haute importance en astronomie, dans la mesure où le diamètre de la Terre est l'unité à laquelle toutes les distances célestes doivent être référées.En 1667 sous Louis XIV, l’Académie des Sciences conçoit l’idée d’un méridien de départ des longitudes qui passerait au centre des bâtiments du futur observatoire. L'Observatoire royal est situé en dehors de Paris pour faciliter les observations astronomiques. Les académiciens fixent son orientation nord–sud et établissent son axe de symétrie par observation du passage du Soleil pour devenir le méridien de référence pour la France. Pour mesurer une partie du méridien, la méthode utilisée depuis la Renaissance, est celle de la triangulation. Au lieu de mesurer des milliers de kilomètres, on mesure les anglesDans son célèbre ouvrage "Théorie de la Figure de la Terre, Tirée des Principes de l'Hydrostatique" publié en 1743, Alexis Claude Clairaut (1713–1765) fait une synthèse des rapports existant entre la pesanteur et la forme de la Terre. Clairaut y expose son théorème qui établit une relation entre la pesanteur mesurée à différentes latitudes et l'aplatissement de la Terre considérée comme un sphéroïde composé de couches concentriques de densités variables. Vers la fin du, les géodésiens cherchent à concilier les valeurs de l'aplatissement tirées des mesures d'arcs méridiens avec celui que donne le sphéroïde de Clairaut tiré de la mesure de la pesanteur. En 1789, Pierre-Simon de Laplace obtient par un calcul prenant en compte les mesures d'arcs méridiens connues à l'époque un aplatissement de 1/279. La gravimétrie lui donne un aplatissement de 1/359. Adrien-Marie Legendre quant à lui trouve à la mêmeLe début du est marqué par l'internationalisation de la géodésie. L'unité de longueur dans laquelle sont mesurées toutes les distances du relevé côtier des États-Unis est le mètre français, dont une copie authentique est conservée dans les archives du Coast Survey Office. Il est la propriété de la Société philosophique américaine, à qui il a été offert par Ferdinand Rudolph Hassler, qui l'avait reçu de Johann Georg Tralles, délégué de la République helvétique au comité international chargé d'établir l'étalon du mètre par comparaison avec la toise, l'unité de longueur utilisée pour la mesure des arcs méridiens en France et au Pérou. Il possède toute l'authenticité de tout mètre d'origine existant, portant non seulement le cachet du Comité mais aussi la marque originale par laquelle il se démarquait des autres étalons lors de l'opération de normalisation. Il est désigné comme le Mètre des Archives. Entre 1853 et 1855, le Gouvernement espagnol fait réaliser à Paris par Jean Brunner, un fabricant d'instruments de précision d'origine suisse, une règle géodésique calibrée sur le mètre pour la carte d'Espagne. La traçabilité métrologique entre la toise et le mètre est assurée par la comparaison de la règle géodésique espagnole avec la règle numéro 1 de Borda qui sert de module de comparaison avec les autres étalons géodésiques (voir plus haut la section : les mesures de Delambre et Méchain). Des copies de la règle espagnole sont effectuées pour la France et l'Allemagne. Ces étalons géodésiques seront employés pour les opérations les plus importantes de la géodésie européenne. En effet, Louis Puissant avait déclaré le devant l'Académie des sciences que Delambre et Méchain avaient commis une erreur dans la mesure de la méridienne de France. C'est pourquoi de 1861 à 1866, Antoine Yvon Villarceau vérifie les opérations géodésiques en huit points de la méridienne. Quelques-unes des erreurs dont étaient entachées les opérationsEn 1866, Carlos Ibáñez e Ibáñez de Ibero offre à la Commission permanente de l'Association géodésique réunie à Neuchâtel deux de ses ouvrages traduits en français par Aimé Laussedat. Il s'agit des rapports des comparaisons de deux règles géodésiques construites pour l'Espagne et l'Egypte, calibrées sur le mètre, entre elles et avec la règle N° 1 de la double-toise de Borda qui sert de module de comparaison avec les autres étalons géodésiques et est alors la référence pour la mesure de toutes les bases géodésiques en France. À la suite de l'adhésion de l'Espagne et du Portugal, l'Association géodésique deviendra l'Association géodésique internationale pour la mesure des degrés en Europe. Le général Johann Jacob Baeyer, Adolphe Hirsch et Carlos Ibáñez e Ibáñez de Ibero étant tombés d'accord, ils décident, pour rendre comparables toutes les unités, de proposer à l'Association de choisir le mètre pour unité géodésique, de créer un Mètre prototype international différant aussi peu que possible du Mètre des Archives, de doter tous les pays d'étalons identiques et de déterminer de la manière la plus exacte les équations de tous les étalons employés en géodésie, par rapport à ce prototype ; enfin, pour réaliser ces résolutions de principe, de prier les gouvernements de réunir à Paris une Commission internationale du Mètre. L'année suivante la seconde Conférence générale de l'Association géodésique internationale pour la mesure des degrés en Europe réunie à Berlin recommande de construire un nouveau mètre prototype européen et de créer une commission internationale. Napoléon III crée par décret en 1869 une Commission internationale du mètre qui deviendra la Conférence générale des poids et mesure (CGPM) et lance desIl existe une relation entre l'unité de mesure (mètre), l'unité de masse (kilogramme), les unités de surface (mètre carré) et les unités de volume (mètre cube et litre, souvent utilisés pour désigner des volumes ou des quantités de liquides) : Dans certains métiers (archives, terrassement, de construction), on parle de « mètre linéaire (noté : « ml »). Il s'agit d'un pléonasme, puisque le mètre désigne précisément une longueur de ligne et que la norme précise qu'on ne doit pas affecter les noms d'unités de qualificatifs qui devraient se rapporter à la grandeur correspondante. Par ailleurs, le symbole ml ou mLLe mètreDe fait, au-delà du milliard de kilomètres on utilise rarement l'unité standard : on lui préfère l'unité astronomique (ua), d'où est déduite l'unité dérivée, le parsec : ceci
Le mètre, de symbole m, est l'unité de longueur du Système international (SI). C'est l'une de ses sept unités de base, à partir desquelles sont construites les unités dérivées (les unités SI de toutes les autres grandeurs physiques).
xwikis
L'énergie totale d'un système thermodynamique constitué de particules, molécules ou atomes, peut être décomposée en deux catégories : Chacune de ces catégories peut être séparée en deux niveaux : L’énergie globale d'un système peut donc s’écrire :Par définition, la somme des "énergies microscopiques" constitue l’énergie interne formula_9 du système, c’est-à-dire son énergie propre : Étant donnée la complexité des interactions au niveau microscopique, l’énergie interne formula_9 n’est pas calculable et c’est ce qui explique que la plupart des fonctions d’état du système, qui en dépendent (exceptée l’entropie formula_12), ne sont pas connues de façon absolue. On peut uniquement calculer leur variation. L’énergie interne est une fonction d'état du système. Sa variation ne dépend que de l’état final et de l’état initial d’équilibre et non pas de la nature de la transformation. Sa différentielle formula_13 est une différentielle totale exacte.Dans le cas d’une réaction chimique, le système réactionnel sera au repos à l’échelle macroscopique (le réacteur n’est pas en mouvement dans les champs de gravitation, électriques et magnétiques). Son énergie macroscopique reste donc constante. La variation d’énergie du système au cours de la réaction chimique est donc égale à la variation de son énergie interne : Le premier principe de la thermodynamique indique qu’il y a conservation de l’énergie et dans ce cas si l’énergie interne du système varie c’est qu’il y a échange d’énergie avec le milieu extérieur soit sous forme de travail formula_16 soit sous forme de chaleur formula_17. On suppose bien évidemment que le système est fermé et donc qu'il n'y a pas d'échange de matière. On peut écrire : Cette expression est la plus utilisée pour résumer l'énoncé du premier principe de la thermodynamique. Si le système est isolé c’est-à-dire s'il n'y a aucun échange avec le milieu extérieur, Si la transformation est cyclique, le système revient à son état initial et comme l'énergie interne est une fonction d'état, Si le volume formula_22 est constant (transformation isochore) et si le travail mis en jeu n'est dû qu'aux forces de pression, alors le travail est nul. D'où : Dans ces conditions la chaleur mise en jeu devient égale à la variation de la fonction d'état formula_24 et ne dépend plus du chemin suivi. Cette propriété est à la base de la calorimétrie à volume constant pratiquée dans une bombe calorimétrique.Or, Dans le cas où seules des forces de pression sont en jeu : donc L'énergie interne est une fonction d'état et sa différentielle totale est exacte. Donc d'où Or l'entropie est une fonction d'état et sa différentielle totale est exacte. Il s'ensuit que
L’énergie interne d’un système thermodynamique est l'énergie qu'il renferme. C'est une fonction d'état extensive, associée à ce système. Elle est égale à la somme de l’énergie cinétique de chaque entité élémentaire de masse non nulle et de toutes les énergies potentielles d’interaction des entités élémentaires de ce système. En fait, elle correspond à l'énergie intrinsèque du système, définie à l'échelle microscopique, à l'exclusion de l'énergie cinétique ou potentielle d'interaction du système avec son environnement, à l"'échelle macroscopique".
xwikis
Le gramme est originellement défini en 1795 comme la masse d'un centimètre cube "« d'eau pure »" à, faisant du kilogramme l'égal de la masse d'un litre d'eau pure. Le prototype du kilogramme, fabriqué en 1799 et sur lequel s'appuie le kilogramme jusqu'en, possède une masse égale à celle de d'eau pure. Depuis 1879 et jusqu'au, il est défini comme étantLe mot « kilogramme » est formé du préfixe « kilo », dérivant du grec ancien ("chílioi") signifiant « mille », et de « gramme », du grecLe kilogramme est une unité de masse. Du point de vue physique, la masse est une propriété inertielle, décrivant la tendance d'un objet à conserver la même vitesse en l'absence d'une force extérieure. Selon les lois du mouvement de Newton, un objet de masse accélère d' quand on lui applique une force d'. Si le poids d'un système dépend de la force locale de la gravité, sa masse est invariante (tant qu'il ne se déplace pas à des vitessesLe kilogramme sous-tend une grande partie du Système international d'unités tel qu'il est actuellement défini et structuré. Par exemple : Cette chaîne de dépendance se succède sur plusieurs unités de mesure SI. Par exemple : La magnitude des unités principales d'électricité (coulomb, volt, tesla et weber) est donc déterminée par le kilogramme, tout comme celle des unités de lumière, la candela étant définie grâce au watt et définissant à son tour le lumen et le lux. Si la masse du prototypeLe système métrique est créé en France à l'initiative de Charles-Maurice de Talleyrand-Périgord. Le, le gouvernement français ordonne à l'Académie des sciences de déterminer précisément la magnitude des unités de base du nouveau système. L'Académie partage la tâche en cinq commissions ; celle chargée de la détermination de la masse comprend initialement Antoine Lavoisier et René Just Haüy ; Lavoisier est guillotiné le et Haüy est temporairement emprisonné, ils sont remplacés à la commission par Louis Lefèvre-Gineau et Giovanni Fabbroni. Le concept d'utiliser une unité de volume d'eau pour définir une unité de masse est proposée par le philosophe anglais John Wilkins en 1668, afin de lier la masse et la longueur. Le système métrique ayant par ailleurs défini le mètre, « qui a été adopté pour l'unité fondamentale de tout le système des mesures », l'unité de poids qui en découle pouvait alors être le mètre cube d'eau d'une tonne (dont l'ordre de grandeur est celui des déplacements des navires), le décimètre cube d'un kilogramme (du même ordre de grandeur que la livre, d'usage courant sur les marchés pour peser les marchandises), le centimètre cube d'un gramme (du même ordre que le denier dans le système des poids de marc, poids des pièces monétaires courantes), ou le millimètre cube d'un milligramme (de l'ordre de la prime, utilisée pour les mesures de précision). Le gramme est introduit par la loi du 18 germinal an () ; il est défini comme « le poids absolu d'un volume d'eau pure égal au cube de la centième partie du mètre, et à la température de la glace fondante ». Le choix de l'unité de base se porte donc sur le centimètre cube d'eau, le même décret prévoyant également dans ce système métrique universel une unité mesure monétaire, « l’unité desLa Convention du Mètre, signée le, formalise le système métrique (prédécesseur du Système international d'unités actuel) ; depuis 1889, il définit la magnitude du kilogramme comme égale à la masse du prototype international du kilogramme (PIK en abrégé, ou IPK pour l'anglais ""), surnommé le « grand K ». Le PIK est constitué d'un alliage de 90 % de platine et 10 % d'iridium (proportions massiques), nommé « Pt-10Ir ». Il prend la forme d'un cylindre de de hauteur et de diamètre afin de minimiser sa surface totale. L'ajout d'iridium augmente fortement la dureté du platineLe Bureau international des poids et mesures fournit à ses États membres des copies du PIK de forme et composition quasi identiques, destinées à servir de standards de masse nationaux. Par exemple, les États-Unis possèdent quatre prototypes nationaux : Aucune des copies ne possède une masse exactement égale à celle du PIK : leur masse est calibrée et documentée avec des valeurs de décalage. Par exemple, en 1889, la masse du prototype américain K20 est déterminéeLe kilogramme a été la dernière unité de base du Système international d'unités à être définie au moyen d'un étalon matériel fabriqué par l'homme. Par définition, l'erreur dans la valeur mesurée de la masse du « PIK » était, jusqu'en 2018, exactement zéro. Toutefois, tout changement dans sa masse pouvait être déduit en la comparant avec ses copies officielles stockées autour du monde, périodiquement retournées au Bureau international des poids et mesures pour vérification. . Il est souvent incorrectement dit que la masse "théorique" du prototype aurait diminué de l'équivalent d'un grain de sable de de diamètre. En fait, lorsqu'on mesure les copies par rapport à l'étalon on note que les masses des copies ont augmenté relativement au prototype (ce qui peut laisser croire que la masse du prototype a diminué par sa manipulation (éraflure microscopique par exemple). EnEn 2011, le kilogramme était la "dernière unité SI toujours définie par un artéfact". En 1960, le mètre, précédemment défini par une simple barre de platine iridié avec deux marques gravées, est redéfini en termes de constantes physiques fondamentales et invariantes (la longueur d'onde de la lumière émise par une transition des atomes de krypton 86, puis plus tard la vitesse de la lumière) afin que le standard puisse être reproduit dans différents laboratoires en suivant des spécifications précises. Afin d'assurerLa balance de Kibble (ou balance du watt) est une balance à plateau simple qui mesure la puissance électrique nécessaire pour s'opposer au poids d'une masse test d'un kilogramme dans le champ de gravitation terrestre. Il s'agit d'une variante de la qui emploie une étape de calibration supplémentaire annulant l'effet de la géométrie. Le potentiel électrique de la balance de Kibble est mesuré par tension Josephson standard, qui permet à la tension électrique d'être liée à une constante physique avec une grande précision et une haute stabilité. La partie résistive du circuitAvant la décision de 2018, plusieurs autres approches avaient été envisagées.Un autre approche définirait le kilogramme comme : Dans les faits, le kilogramme serait défini comme dérivé de l'ampère plutôt que la situation actuelle, où l'ampère est un dérivé du kilogramme. Cette redéfinition fixe la charge élémentaire ("e") à exactement. Une réalisation pratique basée sur cette définition délinée la magnitude du kilogramme directement dans ce qui définit la nature même de la masse : une accélération due à une force appliquée. Cependant, il est très difficile de concevoir une réalisation pratique basée sur l'accélération de masses. Des expériences ont été réalisées sur des années au Japon avec une masse de supraconductive supporté par lévitation diamagnétique et n'ont jamais atteint une incertitude meilleurs que dix parties par million. L'hystérésis était l'un des facteurs limitants. D'autres groupes ont effectué des recherches similaires à l'aide de différentes techniques pour faire léviter la masse.Comme l'unité de base « kilogramme » comporte déjà un préfixe, les préfixes SI sont ajoutés par exception au mot « gramme » ou à son symbole g, bienOn utilise également des noms d'unités anciennes, mais arrondies à des valeurs « exactes » : Les unités anglo-saxonnes sont assez largement utilisées de par le monde. On utilise couramment les unités
Le kilogramme, dont le symbole est kg (en minuscules), est l'unité de base de masse dans le Système international d'unités (SI).
xwikis
La capacité thermique massique est déterminée par la quantité d'énergie à apporter par échange thermique pour élever d'un kelvin (ou degré Celsius) la température de l'unité de masse d'une substance. C'est donc une grandeur intensive égale à la capacité thermique rapportée à la masse du corps étudié. L'unité dérivée du Système international est alors le joule par kilogramme-kelvin (). Les unités de base du système international pour exprimer la valeur d'une capacité thermique massique sont des. En ce qui concerne les équations aux dimensions, le joule ayant pour dimension, une capacité thermique massique a pour dimension :.Suivant le type de transformation thermodynamique, on considère soit l'énergie interne massique, soit l'enthalpie massique. Si on note "U" l'énergie interne, "H" l'enthalpie et "m" la masse d'un corps on a donc les capacités thermiques massiques : La différence entre la capacité thermique massique à pression constante formula_3 et la capacité thermique massique à volume constant formula_4 est liée au travail qui doit être fourni pour dilater le corps en présence d'une pression externe. Si elle est souvent négligeable pour les phases condensées réputées peu compressibles et peu dilatables (liquides ou solides) la différence entre formula_4 et formula_3 est importante pour les gaz. La capacité thermique volumique, exprimée en joules par mètre cube-kelvin (), est égale à la capacité thermique massique multipliée par la masse volumique.D'après la théorie cinétique des gaz, l'énergie interne d'une mole de gaz parfait monoatomique est égale à (3/2)"RT", et plus élevée pour les gaz dont les molécules sont polyatomiques ; par exemple, (5/2)"RT" pour un gaz diatomique. Le calcul théorique n'est plus possible pour les molécules complexes. La capacité massique à volume constant est ainsi de : La capacité massique à pression constante d'un gaz parfait peut être déterminée à partir de la capacité massique à volume constant, puisque l'équation des gaz parfaits exprime que : "p" étant la pression, "v" le "volume massique", "R" la "constante molaire des gaz" et "M" la masse molaire du gaz considéré. La différence théorique entre ces deux valeurs donne alors la relation de Mayer : où "p", "V", "v", "N" et "T" sont respectivement la pression, le volume, le nombre de particules et la température du système considéré ; soit : "u" (l'énergie interne massique) ne dépendant que de la température. Le rapport des deux capacités d'un gaz est important en thermodynamique ; il est noté "gamma" : Sa valeur dépend de la nature du gaz considéré ; pour un gaz parfait, la valeur théorique de γ est : D'une manière générale pour les gaz parfaits, on a les capacités thermiques molaires (en ) suivantes : formula_20 et formula_21.Dans le cas des solides, à température suffisamment haute, la loi de Dulong et Petit est applicable et permet notamment de retrouver que, à basse température, formula_22 du fait de la contribution des phonons. Si le solide est un métal, il faut ajouter la contribution des électrons qui est proportionnelle à la température. Les coefficients de dilatation des corps solides et liquides sont généralement suffisamment faibles pour qu'on néglige la différence entre C et C pour la plupart des applications. Suivant la théorie de Debye, la capacité thermique molaire d'un corps simple solide peut être déterminée au moyen de la formule : avec formula_24, "R" est la "constante molaire des gaz", Cette formule se simplifie à basse température, ainsi qu'à haute température ; dans ce dernier cas, on retrouve la loi de Dulong et Petit : La théorie n'est plus valable pour les corps composés.Pour des corps purs (solides, liquides ou gazeux) et à pression constante, deux formules empiriques à trois paramètres ont pu être dégagées, pour un intervalle de température donné : Les valeurs des coefficients sont indiquées dans des tables et sont caractéristiques d'un corps donné. Pour le bois sec, par exemple, on a : avec : À, on obtient pour le bois sec. Pour le bois humide : où "Hs" est la masse d'eau rapportée à la masse du bois sec en %.La capacité thermique massique d'un solide peut être mesurée en utilisant un appareil de type ATD (analyse thermodifférentielle) ou DSC (""). Elle peut se définir de la façon suivante : quand un système passe de la température "T" à une température "T"+d"T", la variation d’énergie interne du système d"U" est liée à la chaleur échangée "δQ" selon : avec "p" la pression extérieure à laquelle est soumis le système et d"V" la variation de volume. Si "V" = cte : En revanche, si la transformation est isobare (pression constante), on obtient en utilisant la fonction enthalpie du système, la relation : Si "P" = cte avec "C" la capacité à pression constante. La mesure consiste donc à mesurer la différence de température créée par un échange thermique donné, où le flux d'énergie se traduit par une différence de température. Le schéma suivant illustre la technique instrumentale utilisée dans le cas de la première méthode (mesure de la différence de température). L’appareil est constitué de deux « plots » indépendants et d’un four. Des thermocouples permettent de mesurer la température de la face supérieure des plots en contact avec l’échantillon, ainsi que la température du four. Celle-ci correspond à la température de mesure. Toutes les mesures sont effectuées en utilisant un porte-échantillon d’aluminium vide sur l’un des plots. Une première mesure d’un autre porte-échantillon d’aluminium vide permet d’obtenir une ligne de base (dépendant de la mesure de température par les thermocouples). Puis une mesure d’un échantillon de référence de capacité thermique massique connue permet d’étalonner l’appareil. Enfin, l’échantillon sous forme de poudre est mesuré et sa capacité thermique massique est obtenue par comparaison avec celle de l’échantillon de référence. Pour améliorer la précision de la mesure, il convient de prendre en compte, le cas échéant, la différence de masse entre les deux porte-échantillons (la correction s'effectue en utilisant la capacité thermique massique de l'aluminium). La source d’erreur principale provient de la qualité du contact thermique entre le plot et le porte-échantillon.
La capacité thermique massique (symbole usuel "c"), anciennement appelée chaleur massique ou chaleur spécifique, est la capacité thermique d'un matériau rapportée à sa masse. C'est une grandeur qui reflète la capacité d'un matériau à accumuler de l'énergie sous forme thermique, pour une masse donnée, quand sa température augmente. Une grande capacité thermique signifie qu'une grande quantité d'énergie peut être stockée, moyennant une augmentation relativement faible de la température.
xwikis
Lorsque l'on chauffe un corps pur solide, sa température augmente. Puis, arrivé au point de fusion, la chaleur apportée sert à la transformation solide → liquide, la température reste stable. Une fois la fusion terminée, la chaleur apportée fait monter la température du liquide. La chaleur nécessaire pour faire fondre le corps est appelé enthalpie de fusion ou chaleur latente de fusion, L. Elle est exprimée par unité de quantité de matière (J/mol) ou par unité de masse (J/kg).Dans certains cas, deux corps purs peuvent se mélanger parfaitement à l'état solide. C'est le cas par exemple des alliages or-argent (Au-Ag) ou bismuth-antimoine (Bi-Sb). Les atomes ou molécules des deux corps purs sont mélangées de manière aléatoire, on parle de « solution solide unique ». Dans ces cas-là, la température évolue de manière continue durant la fusion. Cependant, la courbe de chauffe s'incurve, puisque seule une partie de l'énergie apportée fait augmenter la température, l'autre partie sert à la fusion. Si l'on reporte la température de début et de fin de solidification en fonction de la composition chimique (diagramme dit « binaire »), on obtient un fuseau unique. En fait, le système ne s'est pas solidifié de manière uniforme, la composition n'est pas la même partout dans le solide (phénomène de ségrégation). La température de fusion n'est donc pas uniforme. La solidification classique commence par les bords et se termine au centre; la fusion suit donc l'ordre inverse, puisque le centre est la partie ayant le plus bas point de fusion.
En physique et en métallurgie, la fusion est le passage d'un corps de l'état solide vers l'état liquide. Pour un corps pur, c’est-à-dire pour une substance constituée d'atomes ou molécules tous identiques, la fusion s'effectue à température constante dite point de fusion. La température de fusion ou de solidification d'un corps pur, appelée « point de fusion », est une constante qui dépend très peu de la pression (contrairement à la température d'ébullition, voir diagramme de phase).
xwikis
Deux origines concurrentes du mot « Europe » ont été proposées. La première fait provenir ce nom de l'usage par les marins phéniciens des deux mots "Ereb", le couchant, et "Assou", le levant pour désigner les deux rives opposées de la mer Égée : d'une part la Grèce actuelle et d'autre part l'Anatolie ( signifie pareillement, en grec, le "levant"). La première mention connue de ces mots sémitiques se trouve sur une stèle assyrienne qui distingue "Ereb", la nuit, le [pays du soleil] couchant, et "Assou", le [pays du soleil] levant. Selon Michael Barry, les deux mots sont probablement à l'origine des deux noms grecs "Eurôpè" et "Asia" dans leur acception géographique antique. En grec, dans un hymne à Apollon datant d’environ 700 avant notre ère, "Eurôpè" représente encore, comme "Ereb", le simple littoral occidental de l’Égée. C'est également le nom de la princesse de Tyr enlevée par Zeus. Néanmoins, cette étymologie sémitique est à peine encore défendue et cette proposition est généralement considérée comme improbable ou indéfendable. La seconde est grecque. Dans la mythologie grecque, plusieurs « Europe » sont connues, Europe, fille du géantSelon Jean Haudry, "Europē" est initialement une désignation de la Grèce continentale par opposition au Péloponnèse, aux îles et à la Thrace. Ce serait seulement à partir des guerres médiques, que le terme s'oppose à l'Asie (qui ne désigne que l'Asie Mineure) et à la Libye (l'Afrique) pour s'appliquer au continent européen, dont les limites demeurent inconnues. L'usage fait de l'Europe un continent mais il s'agit, si l'on considère la plaque eurasiatique, de la partie occidentale (une péninsule) d'un super-continent. Cela entraîne que les limites terrestres de l'Europe ont donc toujours été imprécises à l'est car il n'existe pas de relief ou deLe climat européen est conditionné notamment par son étalement en latitude du au parallèle nord, soit plus de entre les espaces scandinave et méditerranéen. De ce fait, le contraste de température est considérable entre l'extrême nord, moyenne annuelle environ comme dans l'archipel de Nouvelle-Zemble, et l'extrême sud, moyenne annuelle environ pour la Crète. L'Europe dispose d'une vaste zone côtière, et l'influence océanique atlantique et méditerranéenne contribuent à modérer les températures sur une bonne partie de l'Europe. Elle est située à l'est et au sud de l'Atlantique nord-est dont la température est notablement attiédie par la dérive nord-atlantique. Du fait de sa latitude, la majeure partie du continent est soumise au flux d'ouest dont la température a étéLa bordure de l'océan Arctique connaît un climat polaire sans véritable été (température de juillet inférieure à, ET dans la classificationLes littoraux du Nord-Ouest, la bordure côtière de la Norvège, les îles au nord de l'archipel britannique, l'Islande connaissent un climat océanique frais avec une température moyenne dépassant pendant moins de quatre mois (). Les précipitations sont abondantes, généralement plus de par an etÀ l'est de cette zone, le climat, encore modéré par l'influence de l'océan, connaît une altération de ses caractéristiques quand on s'éloigne du littoral. La limite avec le domaine précédent est assez floue, cependant on peut considérer qu'à partir de quelques dizaines de kilomètres du littoral, dans la vaste zone de plaines ou de moyennes montagnes qui va du Bassin parisien au sud de la Scandinavie, à l'ouest de la Pologne et limitée par les contreforts des Alpes suisses et autrichiennes au sud, le climat est assez homogène sur une grande étendue. Il se continentalise peu à peu tout en conservant des caractéristiques modérées par rapport à la latitude (comme précédemment Cfb selon Köppen), les pluies deviennent un peu moins régulières, leur volume diminue progressivement, entre en plaine, sur les reliefs. Les pluies sont réparties très uniformément tout au long de l'année avec un maximum pluviométrique qui tend à devenir plutôt estival. Les tempêtes automnales et hivernales voient leur importance diminuer au fur et à mesure que l'onÀ l'est des deux domaines précédents, à partir de la Pologne orientale, la façade orientale de la chaîne scandinave et les confins de l'océan Arctique au nord jusqu'à l'Oural vers l'est, jusqu'à la mer Noire, le Caucase et la Caspienne au sud apparaît le climat continental. L'hiver est froid avec blocage fréquent du flux océanique par l'anticyclone continental générateur d'épisodes très froids et secs. La moyenne de janvier va de de l'ouest à vers le nord-est. L'été, l'anticyclone continental disparaît et le flux atlantique pénètre plus librementLes montagnes (Alpes, Pyrénées, Carpates, chaînes balkaniques, Caucase, Alpes scandinaves) connaissent le climat montagnard qui correspondent à peu près à celui des plaines environnantes mais modifiés par l'altitude. Celle-ci provoque un abaissementDans la plaine du Pô et dans les Balkans bordant la mer Noire, les chaînes de montagnes font barrage au flux océanique, la chaleur estivale s'accentue avec une température moyenne de juillet supérieure à, les précipitations deviennent plus importantes en été. Selon la classification de Köppen, ce climat est appelé tempéré à étésLes régions bordant la Méditerranée (majeure partie de l'Espagne, Sud-Est de la France, Italie excepté les Alpes et la plaine du Pô, la Croatie, la Slovénie, l'Albanie, la Grèce et les îles méditerranéennes) connaissent un climat méditerranéen, Csa et Csb d'après Köppen. À l'écart du flux océanique humide du fait des montagnes et de la latitude, ce climat est caractérisé par une sécheresse estivale et un ensoleillement nettement plus important que dans les domaines précédents. Les pluies ne sont pas souvent apportées par le flux atlantique mais la plupart du temps par des perturbations qui se développent sur place, alimentées par l'air méditerranéen, ces perturbations sont moins nombreuses que les perturbations océaniques mais les pluies qu'elles apportent sont copieuses et parfois excessives. Le total pluviométriqueL'Europe est assez bien arrosée par des fleuves et rivières, et pratiquement aucune zone n'est en stress hydrique. Trois fleuves d'Europe, le Rhin, le Rhône, et le Pô, prennent leur source dans les Alpes, quelquefois appelées pour cette raison le « château d'eau de l'Europe » (au moins de sa partieL'Europe regroupe plusieurs zones biogéographiques et une grande variété d'écosystèmes terrestres et marins, qui ont souvent été intensivement exploités, fragmentés et pollués. L'Europe a été motrice pour de nombreux états-membres en matière de Droit de l'environnement avec notamment les directives Habitats et Oiseaux, bien que certains états membres (dont la France) les aient tardivement et incomplètement appliquées. Une directive-cadre sur l'eau est en cours d'application, des directives sur le sol et la mer sont en projet, et le est entrée en vigueur la nouvelle norme européenne pour limiter la pollution atmosphérique : les agglomérations de plus de de l'UnionLe peuplement de l'Europe est conditionné par les cycles glaciaires et interglaciaires qui se succèdent, notamment au Pléistocène moyen (), et qui affectent la démographie des populations, créant notamment des périodes d'isolement géographique qui sont une des raisons de la différenciation des formes anciennes du genre "Homo" sur le continent. "Homo" naît et évolue enLe genre "Homo" apparaît en Afrique, probablement vers dans la basse vallée de l’Omo, en Éthiopie, et il est attesté de manière certaine vers. Les premiers "Homo erectus" quittent l'Afrique et atteignent l'Eurasie il y a sans doute d'années, mais les dates et les chemins empruntés ainsi que certaines différenciations en espèces ("H. erectus", "H. ergaster", "H. antecessor", "H. heidelbergensis") sont encore discutées. "Homo georgicus", parfois considéré comme un "Homo ergaster" européen, dont les restes ont été découverts en 2002 à Dmanissi, en Géorgie (Caucase), est le premier représentant du genre "Homo" attesté en Europe (et aussi l'un des plus anciens hors d'Afrique) ; il est daté d'environ. D'autres lui succèdent ; on a trouvé, à Kozarnika (Bulgarie), une industrie lithique, datant de et, en actuelle Espagne, des restes humains à Sima del Elefante (appartenant au site d'Atapuerca), datant de et à Orce, les restes de l'Homme d'Orce et de l'Enfant d'Orce, datant de. Le site d'Atapuerca a livré aussi des restes d'industrie lithique d'environ, et des restes humains ayant abouti à la description d"Homo antecessor", daté d'env., possible ancêtre de "", attestant d'un peuplement continu de l'Europe occidentale depuis ainsi que de l'existence possible d'une migration à partir de l'Europe centrale, depuisLa néolithisation de l'Europe commence vers par diffusion de populations et de techniques apparues vers dans le croissant fertile, elle s'accompagne d'une forte croissance démographique. Elle est probablement autant due à un changement culturel qu'aux conditions climatiques. Les indicateurs de la néolithisation sont la domestication des plantes et des animaux (celle du chien étant cependant largement antérieure), la tendance à la sédentarisation (la sédentarisation précède cependant l'agriculture) avec le regroupement en villages et l'émergence de la poterie pour des contenants destinés auLe commencement des Germains se situe vers le en Suède méridionale, au Danemark et en Allemagne du Nord entre la Weser et l’Oder. Ils s'établissent dans la grande plaine européenne, du Rhin à la Vistule et de la Baltique auLes Celtes s'installent entre l’âge du bronze moyen (env. ) et le début de l’âge du fer (env. ) dans une grande partie de l’Europe, du bassin des Carpates à l’est de la France. Leur origine est le centre de l'Europe, où étaient apparues les cultures caractérisées par leurs coutumes funéraires de l'enterrement sous tumulus ( - ) puis par la technique consistant à incinérer les cadavres et à conserver leurs cendres dans des urnes (civilisation des champs d'urnes, - ). Le noyau celte se situe à Hallstatt, en actuelle Autriche. Aux débuts de l'âge duL'Europe antique est, pour notable partie, une Europe celtique, celle des peuples héritiers de la culture des tumulus, et en partie germanique, aux côtés de la Grèce antique et de sa brillante civilisation de l'Époque classique (), considérée comme le berceau culturel de la civilisation occidentale. Pour ce qui concerne le terme et le concept, le mot « Europe » désigne d'abord, dans son acception géographique, la Grèce continentale. Le terme est mentionné pour la première fois vers, par Hésiode, dans sa "Théogonie". Anaximandre et Hécatée de Milet produisent, entre 600 et, des cartes représentant un territoire appelé Europe. Le mot prend aussi un sens politique lorsque les Grecs sont confrontés aux invasions venant d'Asie, principalement lors des guerres avec l'empire perse. Selon Jacqueline de Romilly,. L'Europe en tant qu'entité géographique se retrouve chez Ératosthène au, lequel présente une tripartition du monde connu par une carte où elle figure. Mais la distinction fondamentale durant l'antiquité est celle entre les Barbares, qui habitent ce qu'en latin on nomme "barbaricum" (« pays des Barbares »), et ceux qui appartiennent à l'aire culturelle grecque, puis gréco-romaine. Le royaume de Macédoine désigne l'Europe comme une entité politique : lorsque part en Orient, en, il laisse en Macédoine un régent, Antipatros, qui porte le titre de « stratège d'Europe ». Après l'époque hellénistique, l'Europe voit Rome commencer son expansion au et atteindre son apogée au. L'Europe est reconfigurée, son histoire devient celle de l'Empire romain pour la zone concernée. La Grèce et le royaume de Macédoine sont supplantés au Les Celtes, qui se sont largement répandus en Europe, allant jusqu'à menacer Rome en, pris en tenaille par les attaques des tribus germaniques venues du nord, sont repoussés ou assimilés. À l'aube de l'ère chrétienne, les Romains, lorsque leur zone d'expansion dépasse la « ceinture celtique », se retrouvent entourés par les Germains qui deviennent. Les frontières
L’Europe est considérée conventionnellement comme un continent, délimité à l’ouest par l’océan Atlantique et la mer de Norvège, et au nord par l’océan Arctique. Sa limite méridionale est marquée par le détroit de Gibraltar qui la sépare de l'Afrique, tandis que les détroits respectivement du Bosphore et des Dardanelles marquent sa frontière avec l'Asie du Sud-Ouest. Sa limite à l'est, fixée par Pierre le Grand aux monts Oural, au fleuve Oural et au Caucase est la limité traditionnellement retenue, mais reste, faute de séparation claire et précise, l'objet de controverses selon lesquelles un certain nombre de pays sont ou ne sont pas à inclure dans le continent européen. Géographiquement, ce peut être considéré aussi comme une partie des supercontinents de l'Eurasie et de l'Afro-Eurasie.
xwikis
Si un objet solide est ferme, c'est grâce aux liaisons entre les atomes, ions ou molécules composants du solide.Certains solides résultent de plusieurs sortes de liaisons. Quelques exemples, la pyrite a des liaisons partiellement covalentes et partiellement métalliques entre le fer et le soufre. Dans beaucoup de roches et de verres, il y a des liaisons partiellement covalentes et partiellement ioniques, comme dans les silicates, phosphates ou sulfates, avec des liaisons ioniques entre des anions et les cations sodium, potassium, magnésium et calcium. La structure du papier résulte de l'existence de liaisons covalentes dans les fibres de cellulose et de liaisons hydrogène entre les fibres. Ces fibres peuvent se séparer dans l'eau car ces liaisons hydrogène se forment préférentiellement avec l'eau plutôt qu'avec les fibres voisines. Beaucoup de polymères comme le polyéthylène ou le polytétrafluoroéthylène ont des liaisons covalentes entre les atomes de carbone dans leurs chaînes, mais des liaisons de van der Waals entre les chaînes. Le polyéthylène est une matière thermoplastique car lors du moulage à chaud, les chaînes glissent facilement entre elles dans le moule. Cependant, il ne faut pas considérer le solide comme un état figé de la matière car les atomes vibrent autour de leur position d'équilibre. Avec la température, ces vibrations augmentent jusqu'à rompre les liaisons lors de la fusion, la sublimation ou la pyrolyse du solide. Les solides ont une faible dilatation et une faible compressibilité. La plupart des solides sont des cristaux. Les atomes d'un cristal sont disposés dans l'espace de manière régulière et ordonnée. Les distances interatomiques restent constantes, on parle d'ordre à grande distance. À l'inverse, certains solides comme le verre sont amorphes et n'ont pas d'ordre à grande distance.
L’état solide est un état de la matière caractérisé par l'absence de liberté entre les molécules ou les ions (métaux par exemple).
xwikis
Le mot « traductologie » est composé de'(« la traduction » en latin de la Renaissance) et du grec ancien'(l'« étude » ou la « science »). « Science de la traduction » est l'équivalent communément admis de l'anglais « " ». La traductologie a reçu plusieurs appellations éphémères : « sciences de la traduction », « translatologie », etc..L'histoire de la traduction a fait l'objet de nombreuses études. Au gré des multiples études spécifiques et générales sur l'histoire de la traduction, celle-ci est devenu un genre à part entière au sein de la traductologie, avec ses propres courants et méthodes. Les études s'intéressent ainsi tantôt à l'histoire de la traduction du point de vue de la pratique, tantôt à l'évolution de la réflexion théorique, ou encore étudient la vie et l’œuvre des traducteurs ou les traités et préfaces qui précèdent les traductions afin de décrire une certaine évolution historique. Enfin, certains chercheurs choisissent de relier l'histoire de la traduction à son contexte sociopolitique, quand d'autres la décrivent, par opposition, comme une activité universelle pratiquée dans toutes les langues et dans toutes les cultures.Une réflexion approfondie sur la spécificité de la traduction littéraire (en particulier poétique) se trouve déjà chez Dante Alighieri, surtout dans son "Convivio", I, VII.La, ou « École de Paris » compte aujourd'hui de nombreux promoteurs, en particulier dans le monde francophone. Elle a été développée au sein de l'ESIT à Paris, essentiellement grâce à Danica Seleskovitch et Marianne Lederer. Seleskovitch s'est inspirée de son expérience en tant qu'interprète de conférence pour mettre au point un modèle de traduction en trois temps : interprétation, déverbalisation, réexpression. On s'attache ici particulièrement à la question du « sens », considéré comme de nature « non verbale » : il concerne aussi bien l'explicite (ce que le locuteur a dit) que l'implicite (ce qu'il a tu). Un « bagage cognitif » très important (connaissance du monde, du contexte, du « vouloir-dire » de l'auteur) doit donc être possédé par le traducteur pour saisir ce sens. La question de la « perception » est ici prépondérante : perception de l'outil linguistique (interne) puis de la réalité (externe). Le processus de traduction passe donc ici par une étape intermédiaire, celle de la déverbalisation. C'est un processus dynamique de compréhension puis de réexpression des idées. Jean Delisle a par la suite fait évoluer l'idée de la en ayant recours à l'analyse du discours et à la linguistique textuelle.La théorie sémiotique de la traduction a été notamment développée par le professeur italien Ubaldo Stecconi. En se fondant sur la théorie des signes de Charles Sanders Peirce, Stecconi affirme que la traduction est une forme particulière de la sémiotique.La théorie du skopos fut développée par les linguistes allemands Hans Joseph Vermeer et Katharina Reiß. Selon cette théorie, le facteur le plus important à prendre compte dans la traduction d'un texte est la fonction qu'aura le texte cible (ou: destinataire), appelée le skopos. Il faut adapter la traduction au lectorat ciblé ainsi qu'à l'objectif et à l'utilité qu'aura ce texte. Les trois points suivant sont des principes importants de cette théorie:La théorie de la traduction comme polystème a été développée par le professeur israélien Itamar Even-Zohar.La traductologie s'intéresse aux problématiques suivantes :Sur l'adhérence à la forme même du texte d'origine (au prix de libertés prises avec les signifiés du texte destinataire) - signifiant, rythme, valeur Le texte destinataire, ici (comme chez W. Benjamin), n'a pas à s'adapter à une supposée réception d'un lectorat.Le droit est écrit de manière très différente selon les époques et les pays. À travers l'histoire, les juristes ont toujours été confrontés aux difficultés liées à la diversité linguistique du monde. Les traducteurs juridiques ont dû, par exemple, transposer le droit romain, écrit en latin, dans de nombreuses autres langues afin de permettre sa diffusion et sa compréhension. Parfois, ils ont également dû traduire un droit coutumier formulé oralement dans une langue locale vers un droit écrit dans une autre langue.Ouvrages écrits par des traductologues Ouvrages collectifs et numéros de revue Articles sur des problématiques généralesOuvrages écrits par des traductologues Ouvrages collectifs et numéros de revue ArticlesParmi les ouvrages importants on compte les travaux du français Antoine Berman (1942-1991). Lui-même traducteur de l'allemand et de l'espagnol, il a travaillé à doter la traductologie d'une véritable réflexion critique. Antoine Berman entend se situer dans la tradition de Friedrich Schleiermacher, dont il a traduit une conférence ("Des différentes méthodes du traduire", Seuil, Points, 1999) et de Walter Benjamin, auteur d'un remarquable article sur la traduction : "La tâche du traducteur" (in Œuvres I, Gallimard, Folio Essais, trad. par Maurice de Gandillac), et alors Berman a écrit "L'âge de la traduction. "La tâche du traducteur" de Walter Benjamin, un commentaire". Outre les différents articles, quelques ouvrages majeurs :
La traductologie, en tant que science, étudie le processus cognitif et les processus linguistiques inhérents à toute reproduction (traduction) orale, écrite ou gestuelle, vers un langage, de l'expression d'une idée provenant d'un autre langage (signes vocaux (parole), graphiques (écriture) ou gestuels). Quand ce travail ne porte pas sur des textes, on parle aussi de « transposition intersémiotique » ou « transmutation » (Jakobson).
xwikis
Dans l'espace et dans le temps, l'intensité de la communication interculturelle et des échanges interlinguistiques dépend en grande partie de la quantité et de la qualité des informations traduites d'une langue vers une autre, mais l’Histoire a montré que la circulation et la « "notoriété" » des idées ne se confondent pas quantitativement avec les langues les plus parlées. En particulier, le nombre de locuteurs d’une langue parlée n’est pas un bon prédicteur de l’aptitude d’un message créé dans cette langue (ou circulant dans cette langue) à être ensuite traduit et à circuler dans le monde entier ; selon le linguiste David Crystal,. Le réseau des locuteurs bilingues et des traducteurs a donc une grande importance de ce point de vue. Depuis le et avec la mondialisation et la réglementation du « droit de propriété intellectuelle » et des traductions, un certain nombre de langues et de cultures sont plus ou moins bien "« traduites »", voire s’éteignent plus rapidement qu’auparavant ou sont déjà mortes ou oubliées (étant entendu qu'une langue morte comme le latin peut continuer à être traduite). Certains auteurs décrivent l'émergence d'un nouveau réseau et d'un système mondial de langues, où l’anglais joue un rôle devenu prépondérant et central. L’hégémonie culturo-linguistique de l'anglais pourrait toutefois être peu à peu contenue par l'amélioration et la généralisation des logiciels de traduction automatique sur l'Internet et par l'approche inédite wikimédienne qui encourage et facilite « les traductions et échanges interlinguistiques dans Wikipédia et ses projets-frères (traductions dans 287 langues possibles fin 2013, parmi lesquelles des langues dites « mortes » et l'espéranto, avec plusieurs grands projets linguistiques bilatéraux). L'analyse de la situation relative des langues du monde est longtemps restée impossible faute de données pertinentes, note Mark Davis (président et cofondateur du Consortium Unicode qui produit des standards d'encodage de caractères pour l'ensemble des ordinateurs et des interfaces mobiles de la planète utilisant l'écriture), alors que l’on pressent pourtant l’importance de la structure de ce réseau ; il est longtemps resté impossible d’étudier quantitativement la structure du réseau mondial des échanges entre langues mais cela devient plus facile grâce à la constitution de grandes bases de données ouvertes de « "lieux" » d’échanges mondiaux tels que Wikipédia ou Twitter et alors que l’on connaît de mieux en mieux la proportion des langues parlées sur l’Internet. En 2014, une équipe américano-française a utilisé la science des réseaux pour créer des cartographies permettant de visualiser la façon dont des informations et des idées circulent dans le monde [selon la langue du message d’origine, selon le PIB moyen des pays où cette langue est parlée, selon la langue des premières traductions et celles qui vont véhiculer l’information ou selon le médium (livre, Wikipédia, Twitter)...]. Pour dresser cette « "carte" », ces chercheurs ont étudié d’une part les données disponibles sur la traduction littéraire (en prenant pour base 2,2 millions de traductions de livres publiées dans plus de 1000 langues) et d’autre part les deux grands réseaux mondiaux d’échanges par le langage que sont : Voici ce que révèle l’analyse de ces données : La transmission culturelle passe aussi par le langage parlé, localement et à distance (via le téléphone ou Skype), ce qui pourrait accélérer la diffusion de certaines idées et informations.On ne dispose pas de statistiques exhaustives du nombre de textes traduits dans le monde, en raison notamment d'un grand nombre de traductions faites dans la littérature grise ou diffusées via l'internet sans passer par les réseaux classiques. Dans le monde, le document le plus traduit serait, d'après le livre des records de 2009, la Déclaration universelle des droits de l'homme. En 2019, la DUDH dénombre 515 traductions, bien que la Bible soit réputée traduite dans plus de 2000 langues et la prière du Notre Père dans 1698 langues. En France, dans les années 2000-2010, pour environ titres annuels, 10 à 13 % sont des traductions. Les francophones ont donc accès à environ 7 000 à 9 100 titres étrangers traduits en français et publiés chaque année.Ces deux notions diffèrent : le traducteur traduit des idées exprimées à l'écrit d'une langue vers une autre tandis que l'interprète traduit des idées exprimées oralement ou par l'utilisation de parties du corps (langue des signes) d'une langue vers une autre. L'interprétation peut être considérée comme un sous-domaine de la traduction au regard des processus mis en œuvre (études en traduction), mais en pratique ces activités requièrent des aptitudes très différentes, sont soumises à des contraintes différentes et ont un rapport au temps également différent.Traduire présuppose de maîtriser deux langues au moins, mais aussi d'avoir un accès au texte à traduire (ou à sa copie) durant le temps nécessaire à sa traduction, et si possible à un texte original (éventuellement annoté) plutôt qu'à une traduction préexistante de ce texte dans une autre langue. Or, pendant longtemps, les ouvrages ont été copiés et recopiés à la main. Ils sont parfois rares ou uniques. Les bibliothèques et lieux d'archives (municipaux, royaux, religieux, industriels, etc.) abritent des ouvrages rares et des collections patrimoniales, des collections d'enseignement et/ou de recherche et des ouvrages de lecture publique. Ces lieux sont importants pour les traducteurs. Certains des ouvrages qui y sont conservés ne peuvent être empruntés à domicile ni même directement consultés, d'autres ne peuvent être ni photographiés ni microfilmés. Les étudiants, enseignants, chercheurs et autres professionnels viennent y traduire sur place des éléments d'ouvrages ou des ouvrages anciens entiers. Pour le philosophe Robert Damien, au-delà d'un lieu de juxtaposition des auteurs et des langues, des textes et des savoirs, la traduction est – comme la bibliothèque – un.Concernant les textes antiques, on distingue aujourd'hui principalement deux courants de traductions.Le principe de la traduction littérale ou formelle reste centré sur les mots et la syntaxe originels, les privilégiant avant tout, au risque de les rendre peu intelligibles dans un contexte historique différent.En matière de théories contemporaines de traduction, on constate généralement l'existence de six courants dominants :Courant interprétatif : théorie du sens de l'École supérieure d'interprètes et de traducteurs (E.S.I.T.), fondée principalement sur la pratique de l’interprétation de conférence. Dans leur ouvrage "Interpréter pour traduire", Danica Seleskovitch et Marianne Lederer soutiennent qu'il faut traduire le sens et non pas la langue car celle-ci n'est qu'un simple véhicule du message. La langue peut être un obstacle à la compréhension. C'est pour cette raison que lors de toute opération traduisante, il faut toujours éviter de transcoder et procéder à la déverbalisation. Parmi les travaux qui ont joué un rôle important au sein des efforts de théorisation qui ont jalonné l'histoire, on retiendra le projet d'un ouvrage général sur la langue française d'Estienne Dolet qui aboutira à la publication, en 1540, de "La manière de bien traduire d'une langue à une autre""."Ce courant considère que la traduction n'est pas une opération linguistique mais plutôt une opération littéraire (Edmond Cary). En d'autres termes : pour traduire de la poésie, il faut être poète (Ezra Pound, Walter Benjamin, Henri Meschonnic, Antoine Berman). Le concept d’énergie dans la langue : les mots sont, en quelque sorte, une cristallisation du vécu historique d'une culture, ce qui leur donne une force, et c'est justement cette énergie qu'il faut traduire. Chez Leopardi, plusieurs pages du "Zibaldone" vont déjà dans le même sens (c'est l"'enérgeia", voir lecture de Vegliante, qu'il faut restituer dans le texte destinataire).C'est le moule social qui détermine ce qui est traduisible ou pas, ce qui est acceptable ou pas (sélection, filtration, censure...). Le traducteur est le produit d'une société et l'on traduit selon son propre bagage socio-culturel (école de Tel-Aviv : Even Zohar, Gideon Toury).Structuralisme, linguistique, pragmatique, linguistique du texte. C'est un courant qui considère le mot, le syntagme et la phrase comme unités de traduction (Georges Mounin, Vinay et Darbelnet, J.I Austin, J.-Ch. Vegliante).Le chef de file de ce courant est George Steiner. Le véritable traducteur doit être capable de se mettre dans la peau d'un écrivain afin de capter et de saisir l'intention (le « vouloir dire ») de l'auteur du texte de départ. L’opération traduisante est considérée comme un mouvement en quatre temps : "trust" (confiance / conviction), aggression, incorporation et restitution.La sémiotique est l’étude des signes et des systèmes de signification. Pour le sémiologue Charles Sanders Peirce, le processus de signification (ou sémiosis) est le résultat de la coopération de trois éléments : un signe, un objet et son interprétant. Aussi, d'un point de vue sémiotique, toute traduction est envisagée comme une forme d’interprétation qui porte sur des textes ayant un contenu encyclopédique différent et un contexte socioculturel particulier.Le processus de traduction peut être découpé en trois phases successives :Sur le marché du travail, on distingue deux types de traduction : la traduction de textes techniques et la traduction littéraire. La majorité des traducteurs professionnels traduit des textes techniques. Les traducteurs littéraires sont attachés à une maison d'édition ou indépendants.La traduction technique concerne les documents tels que les manuels, guides d'utilisation, documentations logicielles, feuillets d'instructions, notes internes, procès-verbaux, rapports financiers, contrats, textes officiels, articles scientifiques et autres documents destinés à un public limité (celui qui est directement concerné par le document) et dont la durée de vie utile est souvent limitée. Par exemple, le guide d'utilisation d'un modèle particulier de réfrigérateur n'a d'utilité que pour le propriétaire du réfrigérateur, et restera utile tant que ce modèle de réfrigérateur existera. De même, la documentation logicielle se rapporte généralement à un logiciel particulier, dont les applications concernent une catégorie d'utilisateurs. La traduction de textes techniques exige souvent des connaissances spécialisées dans un domaine particulier. On compte parmi les textes techniques : La traduction technique est un type de traduction souvent « anonyme » dans lequel le nom du traducteur peut ne pas être associé au document traduit, tout comme certaines entreprises ne font pas mention des auteurs des guides d'utilisation des produits. Cependant, dans le cas de la traduction de livres à contenu informatif, le traducteur sera mentionné dans la section de responsabilité primaire de l'item bibliographique du livre. En général, la traduction technique est plus accessible et offre une rémunération plus élevée que la traduction littéraire.Selon l'école de pensée "cibliste", il est nécessaire, lorsque cela s'impose, de privilégier l'exactitude des propos au détriment de la stylistique. Pour communiquer son message, la traduction devra parfois remplacer les éléments culturels du texte original par des exemples équivalents, mais mieux connus des lecteurs de la culture d'arrivée. Le plus important demeure le « sens » du message que souhaite transmettre l'auteur. Le traducteur doit d'abord faire passer ce message de manière idiomatique et naturelle pour le lecteur de la langue d'arrivée, tout en demeurant fidèle au langage, au registre et au ton employés par l'auteur du texte rédigé dans la langue de départ. Selon l'école de pensée "sourcière", le traducteur est tenu de demeurer strictement fidèle à la forme du texte original. Le traducteur devra donc reproduire tous les éléments stylistiques du texte original, employer le même ton, conserver tous les éléments culturels et même, à l'extrême, contraindre la langue d'arrivée à prendre la forme dictée par le texte de départ. Le traducteur sourcier veillera en premier lieu à respecter scrupuleusement le véhicule employé par l'auteur, et tâchera ensuite de bien restituer le sens du message. "(Voir Critiques de la traduction infra.)"Il y a lieu de relever que certains traducteurs indépendants indiquent être spécialisés dans à peu près tous les domaines, ce qui contredit, par définition, le terme de spécialisation ; il est évident que ces traducteurs cherchent ainsi à se voir confier un plus grand nombre de travaux de traduction. Il ne faut cependant pas sous-estimer la capacité à développer la connaissance fine d'un sujet au fil des traductions effectuées, les sources d'explications, comme Wikipédia, d'autres encyclopédies, les dictionnaires terminologiques, sans oublier les sites Internet des sociétés concernées ou traitant des sujets concernés, étant nombreuses. Il peut donc être utile de faire appel à un traducteur présentant un grand nombre de spécialisations sur son CV. Cela dit, pour réaliser des traductions pragmatiques utiles, il est nécessaire de maîtriser le jargon du domaine et de savoir employer les bons termes ; une traduction qui ne reflète pas l'usage courant et l'évolution de la langue de spécialité pourrait être imprécise, voire incorrecte, et ne saurait intéresser ses lecteurs, au même titre que l'on n'écrit plus comme en 1750. Certains domaines (comme l'informatique) évoluent à une vitesse vertigineuse, au point que le jargon spécialisé de la langue d'arrivée (par exemple le français) n'arrive pas à s'enrichir assez rapidement pour suivre l'évolution de la langue d'origine (par exemple l'anglais). Dans cette situation, le traducteur peut être confronté à l'absence d'équivalent français (donc à la nécessité soit d'utiliser le terme dans la langue d'origine, soit d'utiliser une périphrase explicative, soit de créer un néologisme), à l'existence plusieurs néologismes à peu près équivalents ou à une alternative entre un terme relativement général et bien connu et un terme plus précis, mais moins employé. La traduction de logiciels (qui comporte deux phases distinctes, l'internationalisation et la régionalisation) est un processus qui diffère de la simple traduction textuelle à divers égards.Ce type de traduction concerne les romans, poèmes et autres types de textes relevant du domaine littéraire. La traduction littéraire demande des aptitudes en stylistique, une bonne imagination et des connaissances culturelles étendues. Il s'agit de reproduire l'effet intégral du texte original chez le lecteur du texte dans la langue d'arrivée, autant que le sens des mots. La traduction doit être aussi plaisante à lire et susciter les mêmes émotions que l'original, suivant l'adage de Cervantès : « ne rien mettre, ne rien omettre ». Les grands traducteurs, quelles que soient leurs langues de travail, ont une formation très exigeante, études littéraires et universitaires, dans la langue à partir de laquelle ils traduisent mais aussi et surtout dans leur langue maternelle, langue vers laquelle ils traduisent. L'écriture du texte de destination devient alors primordiale. En poésie, la traduction présente une double difficulté lorsqu'il faut rendre compte à la fois du sens et de la métrique (de la forme en général), voire de procédés rhétoriques. Si l'on se limite au sens (sémantique), un exercice de traduction de haïkus, après passage dans plusieurs langues et retour final au français, a permis de démontrer une assez grande robustesse du contenu sémantique.Une difficulté bien connue des traducteurs réside dans le fait que le texte à traduire est parfois déjà lui-même une traduction, pas nécessairement fidèle, que le traducteur doit, dans la mesure du possible, essayer de dépasser pour remonter à l'original. De nos jours, le phénomène s'est amplifié et se présente sous des formes diverses. Il y a d'abord l'utilisation consciente d'une langue-pont. S'il faut traduire en grec moderne un texte écrit en estonien, on pourra avoir du mal à identifier un traducteur connaissant à la fois les deux langues et le « sujet traité ». C'est d'une première traduction, souvent effectuée vers l'anglais, que partira le traducteur. L'imprécision de cette langue peut créer des difficultés, comme le fait remarquer Claude Piron avec cette phrase formulée en anglais dont il avait dû vérifier la traduction française : « He could not agree with the amendments to the draft resolution proposed by the delegation of India ». Le premier traducteur ne pouvait savoir si « proposed » se rapportait à « amendments » ou à « resolution » et avait choisi la mauvaise solution. Claude Piron, qui avait sous les yeux l'ensemble du rapport, put rectifier.Marc Bloch a formulé la critique suivante dans "Apologie pour l'histoire" : Il existe une autre critique, moins facile à argumenter, qui s'appuie sur une phrase italienne à la formulation particulièrement vigoureuse : « Traduttore, traditore » [en français, « Traducteur, traître »]. Selon cette critique, toute traduction revient à trahir l'auteur, son texte, l'esprit de celui-ci, son style... à cause des choix qui doivent être faits de toute part. L’écrivain Julien Green, parfaitement bilingue et qui a lui-même traduit certaines de ses œuvres du français vers l'anglais, déclare : « L’écrivain qu’on traduit aurait certainement employé d’autres mots et dit des choses différentes s’il avait écrit dans la langue du traducteur ». Le traducteur Pierre Leyris (qui a traduit entre autres l'œuvre d'Herman Melville) répond à cette critique en affirmant : « "Traduire, c’est avoir l’honnêteté de s’en tenir à une imperfection allusive" ».Voir l'article "Régionalisation de logiciel".La norme de qualité NF EN 15038:2006, abrogée en 2015, était une norme européenne spécifique pour les services de traduction qui avait pour objet « d'établir et de définir les exigences relatives à la prestation de services de traduction de qualité ». Elle spécifiait « les exigences relatives aux fournisseurs de services de traduction (FST) en matière de ressources humaines et techniques, de management de la qualité et de gestion de projets, de cadre contractuel et de procédures de service ». La norme exposait les conditions et étapes d'une traduction. En 2015, la norme NF EN 15038 a été remplacée par la norme internationale ISO 17100:2015 « Services de traduction – Exigences relatives aux services de traduction ». Aux termes du résumé établi par l'Organisation internationale de normalisation (« ISO »), la norme ISO 17100:2015 « fournit les exigences relatives aux processus de base, aux ressources et à d'autres aspects nécessaires à une prestation de traduction de qualité répondant aux spécifications applicables. L'application de l'ISO 17100:2015 fournit également des moyens permettant à un prestataire de services de traduction (PST) de démontrer la conformité des services de traduction spécifiés à l'ISO 17100:2015 et la capacité de ses processus et ressources à fournir un service de traduction répondant aux spécifications du client et aux autres spécifications applicables. Les spécifications applicables peuvent comprendre celles du client, celles du PST lui-même et celles de tous codes industriels, guides de bonnes pratiques ou réglementations pertinents ». Selon la Direction générale de la traduction de la Commission européenne, l'"industrie des langues" englobe les professionnels exerçant les activités de traduction, d’interprétariat, de sous-titrage et de doublage, de régionalisation, de développement d’outils technologiques linguistiques, d’organisation de conférences internationales, d’enseignement des langues et de consultation dans le domaine linguistique.Dans certains cas, il peut être obligatoire de traduire un texte. Par exemple, dans les pays polyglottes ou dans les organismes internationaux, il peut être obligatoire de traduire les textes législatifs et réglementaires ou les formulaires administratifs dans l'ensemble des langues nationales ou officielles. La loi d'un pays peut imposer que certaines informations soient disponibles dans la langue nationale ou dans l'une ou l'ensemble des langues nationales. Par exemple, en France, la loi du relative à l'emploi de la langue française dite « loi Toubon », qui a succédé à la loi du, dispose que l'emploi de la langue française est obligatoire, notamment, dans toute publicité écrite, parlée ou audiovisuelle, ainsi que dans le mode d'emploi ou d'utilisation d'un bien, d'un produit ou d'un service.Des cursus spécifiques diplômants ont été créés au niveau Master tel le Master Traduction spécialisée.Un baccalauréat universitaire de trois ans en traduction existe dans la province. Il permet l'admission à l'Ordre des traducteurs, terminologues et interprètes agréés du Québec (OTTIAQ).En Suisse, des formations en traduction sont proposées aux niveaux du bachelor et du master, par la Faculté de traduction et d'interprétation à Genève et par la à Winterthour. L'Université de Lausanne, quant à elle, abrite le CTL (Centre de traduction littéraire) et propose aux étudiants une spécialisation en traduction littéraire.
La traduction (dans son acception principale de traduction interlinguale) est le fait de faire passer un texte rédigé dans une langue (« langue source », ou « langue de départ ») dans une autre langue (« langue cible », ou « langue d'arrivée »). Elle met en relation au moins deux langues et deux cultures, et parfois deux époques.
xwikis
C'est au milieu du qu'apparaissent les premières véritables maisons d'édition mais on ne parle pas encore d'un « éditeur » au sens que ce mot a maintenant, mais bien plutôt de librairie. En Allemagne et en France, aussi bien qu'en Angleterre, le commerce de librairie évolue. Le libraire se voit accorder un "privilège" exclusif d'édition, avec d'un côté l'auteur qui perçoit généralement un forfait en échange de son manuscrit, un libraire qui en a l'exclusive ("copyright") et de l'autre un imprimeur qui matérialise le livre sous forme de cahiers cousus (la reliure reste un luxe). La diffusion (comptoir exclusif et représentations) et la distribution (colportage) étaient également très segmentées et quelque peu enclavées. À Paris, l'entreprise éditoriale de "L'Encyclopédie" (1745-1772), qui associa quatre éditeurs parisiens et plus de cent-cinquante contributeurs français et étrangers, constitua l'une des pierres fondatrices d'un nouveau monde culturel émergeant : le livre au temps de l'industrialisation. Les premières messageries apparaissent à Londres, Amsterdam et Bruxelles, où par ailleurs la censure se fait discrète. Alors que l'Allemagne est le berceau de l'imprimerie moderne et le foyer des principales foires du livre (Francfort mais surtout Leipzig), c'est seulement en 1816 avec Friedrich Christoph Perthes que la librairie allemande s'affirme en tant que telle. Après un vent de liberté et une explosion des publications de type périodique et pamphlétaire durant la Révolution, Napoléon fixe en France et pour soixante-dix ans les règles fondatrices de la librairie française. On compte bientôt des noms comme la famille du Lillois Charles-Joseph Panckoucke, l'Anglais Richard Bentley (1794-1871, éditeur de Charles Dickens) ou les Écossais John Murray, Adam et Charles Black (un temps éditeurs de l"'Encyclopædia Britannica"), etc. Néanmoins les frontières entre les différents métiers du livre seront toujours quelque peu floues : libraire détaillant comptant plusieurs boutiques, mais aussi une imprimerie et des services de messagerie, c'est ce que développera Louis Hachette dès 1840.Au cours de la première partie du, à mesure que le taux d'alphabétisation progresse, la révolution industrielle s'accompagne d'une augmentation des tirages d'impression et d'une variété des produits offerts à la consommation : premiers livres populaires en format poche, premiers journaux à gros tirage sur rotative offrant des romans en feuilletons, premiers livres pour enfants illustrés. On assiste à la naissance de ce que l'on appellera le "best-seller" avec des auteurs comme Alexandre Dumas, Victor Hugo en France ou Walter Scott en Angleterre. Certaines maisons fondées pendant ces années séminales sont encore de nos jours en activité et constituent même le noyau originel d'importants groupe éditoriaux : Bertelsmann fondé en Allemagne en 1837 et aujourd'hui numéro 1 mondial du secteur média de masse ; Hachette fondé en 1826 à Paris et aujourd'hui filiale du Groupe Lagardère sous le nom d'Hachette Livre numéro un français et l'un des six grands groupes éditoriaux mondiaux ; le groupe britannique Pearson fondé en 1844 et originellement centré sur l'ingénierie opéra dès les années 1950 un virage vers les médias culturels de masse pour se hisser récemment aux sommets ; quant à l'Américain John Wiley & Sons fondé en 1807, il est toujours indépendant et fait figure d'exception. À la fin du, les maisons d'édition rivalisent sur les terrains éducatifs et loisirs : lancement de magazines d'histoires vraies (les « reportages »), d'encyclopédies et d'usuels lexicographiques (Larousse), scientifiques (Springer Verlag) et scolaires (Hachette, Nathan, Armand Colin, Hatier). Vers 1910, les principaux éditeurs américains actuels apparaissent tels que McGraw-Hill tandis qu'en France des maisons comme Flammarion, Gallimard et Grasset investissent le terrain du roman et de l'essai à fort tirage.Après 1945, apparaissent des accords de licence qui font la fortune des éditeurs : Hachette par exemple négocie avec Disney la publication en français des personnages tels que Mickey. En Belgique, naissent les premiers groupes éditoriaux de bande-dessinée à gros tirage avec Casterman. En 1953, Henri Filipacchi lance Le Livre de poche, un format importé des États-Unis et qui connaît un succès immédiat. Dans les années 1970 et 1980 l'édition mondiale commencent à se réorganiser, des groupes multimédia internationaux se forment tels que l'Américain McGraw-Hill, les Italiens De Agostini et Rizzoli, tandis que la maison française Hachette, rachetée par le Groupe Lagardère devient tentaculaire au point d'être baptisée « la pieuvre verte » (d'après la couleur de son logo d'alors). En réponse à ce regroupement de l’offre, on remarque l’émergence de nombreuses maisons d’édition indépendantes au cours des années 1990. On appelle « éditeur indépendant » une organisation éditoriale n'appartenant pas à un groupe d'actionnaires privés (holding) ou n'étant pas une filiale d'un groupe. La maison d'Éditions Michel Lafon est la première maison d'édition indépendante française. Dans les années 1990-2000, des holdings éclatent comme le français CEP Communication alors filiale d'Havas et dont la branche livres deviendra plus tard et pour partie Editis, laquelle sera finalement absorbée par l'Espagnol Grupo Planeta. Le groupe Pearson rachète Macmillan, fondé en 1843 à Londres et dernier groupe familial indépendant de cette ampleur, pour le revendre en 2001 à l'allemand Holtzbrinck. Des maisons patrimoniales françaises comme Larousse, Hatier ou Nathan passent de groupe en groupe. La famille Flammarion vend sa maison à RCS MediaGroup, lequel la revend en 2012. D'énormes maisons d'édition américaines sont absorbées par des groupes multimédia transnationaux qui n'ont parfois que peu à voir avec le métier d'éditeur : l'imprimé compte en moyenne pour moins de 10 % dans le chiffre d'affaires de certaines de ces holdings.La maison d’édition agit généralement à titre d’intermédiaire entre un auteur et ses lecteurs. Elle supervise la production et la diffusion d’ouvrages qu’elle a sélectionnés au préalable.Avant de publier un texte, une maison d’édition doit s’assurer que celui-ci réponde à ses critères de sélection. Ces critères, qu’on peut généralement retrouver sur leur site internet, varient d’une maison d’édition à l’autre (ligne éditoriale, qualité de l’écriture et de l’intrigue, originalité, etc.). Si toutes les maisons d’édition n’ont pas un comité de lecture, elles ont néanmoins un système pour trier les manuscrits reçus et écarter ceux qui ne conviennent pas à leurs exigences éditoriales. La sélection ne représente pas la seule fonction endossée par les maisons d’édition. Celles-ci, une fois le texte choisi et le contrat d’édition signé, accompagnera l’auteur tout au long du processus de création et de diffusion du livre.Le contrat d’édition définit les modalités de la relation entre un auteur et une maison d’édition. En tant qu’acte juridique, le contrat engage et oblige les deux parties. Les clauses, qui varient évidemment d’un contrat à l’autre, concernent entre autres les droits qui sont concédés à l’éditeur par l’auteur et, bien sûr, la rémunération de celui-ci.Il s’agit de la norme dans l’industrie du livre. L’éditeur s’engage à prendre en charge les frais liés à la production, à la distribution et à la diffusion de l’ouvrage moyennant une cession des droits de publication (et parfois de traduction et d’adaptation) de l’auteur. En général, ce dernier reçoit en échange un montant d’argent à la signature du contrat et des redevances pour chaque livre vendu.Certaines maisons d’édition se définissent comme étant « à compte d’auteur », ce qui signifie qu’elles ne défraient pas les coûts de production des ouvrages qu’elles publient; c’est l’auteur qui paie pour tout. Dans ce type d’entreprise, un contrat est toujours signé entre l’auteur et la maison d’édition, mais celui-ci est plutôt considéré comme un contrat de service puisque l’auteur demeure généralement propriétaire des ouvrages créés et des droits de son œuvre.Une fois le texte choisi et le contrat d’édition signé, la maison d’édition accompagnera l’auteur tout au long du processus de création et de diffusion du livre. À l’étape de fabrication de l’objet-livre, la maison d’édition fait habituellement appel à des spécialistes : maquettiste, infographiste, illustrateur, imprimeur, etc. Son rôle est de coordonner les activités des différents intervenants et d’assurer que le produit final respecte la vision du projet. Lorsque le livre est imprimé ou mis en forme pour la vente numérique, la maison d’édition s’en remet à un diffuseur et un distributeur qui ont pour tâche de s’assurer de trouver des points de vente et d’y acheminer des exemplaires.Chaque maison d’édition dispose d’une organisation qui lui est propre et qui dépend de sa taille, de son champ de spécialisation, mais aussi de la quantité d’ouvrages publiés. Comme plusieurs fonctions peuvent être assurées par la même personne, les intitulés des postes varient énormément d’une entreprise à l’autre. L’éditeur ou directeur littéraire constitue toutefois un poste incontournable. Il possède un pouvoir de décision important puisque c’est lui qui est en charge d’évaluer les manuscrits et de sélectionner les élus qui seront publiés par la maison d’édition. Équivalent du rédacteur en chef dans le monde de la presse, c’est à cette personne que revient la critique et la révision des textes. Le directeur littéraire est habituellement appuyé par un ou plusieurs assistants à l’édition et, dans certains cas, par un comité de lecture. Les postes de directeur artistique, de directeur commercial, d’attaché de presse et de graphiste sont également fréquents dans les maisons d’édition. Les tâches de correction, de révision et de diffusion sont souvent confiées à des sous-traitants ou à des entreprises spécialisées.Un groupe éditorial comprend plusieurs maisons d'édition ou filiales. La nationalité d'un groupe dépend de celle de son propriétaire et/ou de son siège social principal. Dans le tableau ci-dessous, le chiffre d'affaires (CA) est exprimé en millions d'euros. Ce chiffre comprend uniquement les branches et secteurs livres et affiliés, tels que l'exprime généralement le bilan détaillé, publié par les commissaires aux comptes et mis à disposition du public. Certaines sociétés communiquant peu ou mal sur leurs données structurelles, nous n'avons ici informé que de façon certaine les années concernées. D'un point de vue géographique et financier, ce tableau montre que l'Europe domine incontestablement le marché du livre et de l'édition en général, avec un volume global cumulé de plus de 28 milliards d'euros (2009). NB : China Education and Media Group (Chine) fait son entrée dans le classement en 2012. La société éditrice du Reader's Digest est en faillite depuis 2013.Le marché du livre allemand est dominé par le groupe spécialisé en média de masse, la multinationale Bertelsmann. Contrairement au marché français par exemple, d'autres maisons d'édition particulièrement dynamiques ont pu se développer et rivaliser sur le terrain de l'imprimé et du numérique. Ainsi, Hotlzbrinck mais aussi Klett et Cornelsen, deux éditeurs scolaires actuellement en pleine croissance.La majorité de l'industrie éditoriale canadienne se concentre en Ontario, en particulier à Toronto, et au Québec. L’édition est majoritairement anglophone puisque la population francophone du pays ne regroupe que 7 millions de locuteurs. Le marché canadien représente une tête de pont pour les secteurs de croissance que sont les États-Unis, l'Europe et surtout l'Asie. Ainsi, des groupes comme Thomson Reuters, reposant en partie sur une agence de presse et d'informations stratégiques, et Quebecor World, pour ce qui est de la filière du bois et de l'impression, s'assurent une position largement dominante.Ce pays représente un acteur émergeant dans l'édition où l'on comptait plus de 570 maisons d'édition, dont la moitié à Pékin dont quatre sociétés dominantes composées de capitaux mixtes et totalisant un chiffre d'affaires de près de 7 milliards d'euros en 2014 : ce secteur connaît une pleine croissance depuis 2008.Le marché de l'édition livres est hyper-concentré, dominé par Arnoldo Mondadori Editore, suivi par les Messaggerie Italiane et Giunti Editore. Deux multinationales sont par ailleurs prépondérantes, De Agostini et Panini.Quatre groupes totalisant près de 3,5 milliards d'euros de chiffre d'affaires dominent le marché japonais. Kōdansha, qui appartient au conglomérat Dai-Nippon Yūbenkai, reste l'établissement le plus prestigieux de l’archipel.L'histoire des maisons d'édition néerlandaises s'inscrit dans une très ancienne tradition, mêlant innovations éditoriales et commerciales, taux élevé d'alphabétisation (100 % vers 1910) et goût pour la lecture, et enfin, une grande tolérance : à partir de 1880, la maison Elsevier est déjà l'une des plus importantes dans le domaine du livre scientifique et universitaire, publiant de nombreuses traductions dans des langues très variées. En s'associant à Reed, elle forme au début des années 2000 le deuxième groupe mondial. Wolters Samson, formée originellement en 1836, également spécialisé dans les domaines scientifiques, techniques et médicaux (STM), a fusionné en 1989 avec Kluwer Publishers pour empêcher Elsevier de constituer un monopole de fait. À eux deux, ces groupes totalisent près de 8,5 milliards de chiffre d'affaires (2009).Ce pays est le siège des deux plus gros conglomérats éditoriaux, à savoir Pearson et Reed Elsevier. Le premier est dirigé par une femme, Marjorie Scardino, ce qui, dans un univers dominé par les figures patrimoniales masculines depuis plusieurs siècles, augure d'un véritable changement dans l'évolution de ce métier. Autre trait remarquable, l'existence du plus important éditeur universitaire au monde, l'Oxford University Press (1586), également la plus ancienne maison d'édition encore en activité avec sa consœur la Cambridge University Press (1534), toutes deux indépendantes de surcroit.Le monde éditorial français n'a de cesse ces dernières années d'évoluer, même si de nos jours, 70 % des éditeurs sont établis à Paris : les phénomènes de concentration et de rachats, notamment par des groupes étrangers, ainsi que les transferts de technologies vers le numérique, sont en partie la cause de cette métamorphose. Le paysage éditorial français est cependant quelque peu "dominé" par la situation quasi oligopolistique d'Hachette Livre, et ce, depuis les années 1950. Cependant, entre 1996 et 2002, le Groupe de la Cité passa devant Hachette. Actuellement, cette maison fait partie des six premiers groupes éditoriaux mondiaux. Les autres grands groupes sont en 2014 : Editis (espagnol), Madrigall et Lefebvre Sarrut. La France dispose actuellement d’un secteur éditorial représenté par un syndicat professionnel, le Syndicat national de l'édition (SNE). Le nombre annuel de nouveautés a été multiplié par trente en l'espace de trente ans. titres sont parus en France en 2008. Ce dynamisme n'est qu'apparent, le nombre de ventes d'ouvrages tend à stagner, voire à baisser (2005, 2006 et 2011), alors même que le nombre annuel de nouveaux titres croît à raison de 3 % en moyenne par an. Les principaux groupes éditoriaux, afin de garder une certaine influence, sont contraints de se diversifier et d'augmenter leurs marques d'édition afin de s'assurer une plus grande visibilité. Editis en rassemble, par exemple, plus de 40. Hachette Livre et Editis, avec une part de marché de 35 % du marché français en 2009, constituent un oligopole à frange. En, Gallimard rachète le Groupe Flammarion, constituant le éditorial français.La plupart des grandes maisons d'édition investissent le marché du livre numérique. À la suite des éditeurs dits « pure players » (les maisons d'édition qui ne publient qu'en numérique), les éditeurs classiques se lancent dans la production de fichiers numériques directement utilisables sur certains supports de lecture (liseuses, tablettes, téléphones intelligents, etc.), et en même temps que les éditions imprimées d'un même livre. Les principaux revendeurs ne sont pas des libraires, mais les acteurs incontournables que sont devenus Amazon, Kobo, Apple ou Google Play Livres. Les nouvelles possibilités technologies forcent les maisons d’édition à se doter de départements qui prennent en charge les tâches spécifiques à la production numérique. La diffusion sous plusieurs formats demande également d’adopter une nouvelle façon de structurer les contenus qui seront publiés. C’est donc une véritable restructuration du milieu éditorial qui a lieu dès le début des années 2000. Si le virage numérique a rapidement été emprunté par une grande partie des maisons d’édition universitaires, d’autres secteurs, dont le domaine scolaire, ont tardé à offrir leurs publications sous format numérique. De manière générale, l’édition littéraire a accusé pendant un temps un certain retard face à l’édition scientifique et technique en ce qui concerne le passage au numérique.
Une maison d’édition est une entreprise ou une association dont l’activité principale originelle est la production et la diffusion de livres ou de documents mis en page. Aujourd'hui, le métier d'éditeur englobe plus généralement l'édition de documents tous supports avec comme cœur de métier l'industrie du livre au sens large (cahiers reliés, catalogues, fascicules, album, classeurs, etc.).
xwikis
Au tout début du, un chimiste flamand, Jean-Baptiste Van Helmont, utilisa le mot « "gas" » par rapprochement avec le mot « chaos » (en néerlandais « ch » et « g » se prononcent de la même façon) venant du grec το χαος-χαους qui désigne l'espace immense et ténébreux qui existait avant l'origine des choses (dans la mythologie). En effet, il voulait introduire une notion de vide. Peu après, les français écrivirent « gas » avec un z : gaz. Ce n'est qu'à la fin du que le mot prit son sens moderne.Les gaz sont miscibles entre eux : on parle de "mixage" pour l'action de mélanger et, de "mélange gazeux" pour l'état mélangé. Exemple : l'air sec, épuré de son dioxyde de carbone, est un mélange composé principalement de 78 % de diazote (), de 21 % de dioxygène () et de 1 % d'argon (Ar). Un gaz peut se dissoudre dans l'eau (loi de Henry), ou d'autres liquides (comme le sang). Par exemple la pression d'oxygène dans le sang artériel PaO2 est de, et la pression du dioxyde de carbone PaCO2 est de. Les gaz dissous dans le sang peuvent créer des embolies gazeuses en cas de décompression rapide lors d'une plongée sous-marine. Un gaz peut même se dissoudre (faiblement) dans un métal (adsorption, désorption). La combustion des gaz oxydables est très importante en chimie, en chimie organique et, donc dans la vie courante.Des transformations d'état, les "transitions de phase", affectent les gaz. Le passage direct de l'état solide à l'état gazeux est appelé "sublimation" (par exemple, le dioxyde de carbone, ou neige carbonique) ; la transformation inverse s'appelle "déposition", "condensation solide" ou encore "sublimation inverse". Quand un liquide passe à l'état gazeux, il y a "vaporisation" (soit par évaporation, soit par ébullition). L'inverse s'appelle la "liquéfaction".En chimie : gaz halogènes, gaz rares, gaz naturel En physique : gaz parfait, gaz réel, ionisation des gaz, théorie cinétique des gaz Pour les applications technologiques : compression des gaz, Histoire de la liquéfaction des gaz, machine à vapeur, moteur à gaz, moteur à combustion interne En relation avec les phénomènes atmosphériques : air, atmosphère, effet de serre, gaz à effet de serre, ozone, couche d'ozone oxyde d'azote
Un gaz est un ensemble d'atomes ou de molécules très faiblement liés et quasi indépendants. Dans l’état gazeux, la matière n'a pas de forme propre ni de volume propre : un gaz tend à occuper tout le volume disponible. Cette phase constitue l'un des quatre états dans lequel peut se trouver un corps pur, les autres étant les phases solide, liquide et plasma (ce dernier, proche de l'état gazeux, s'en distingue par sa conduction électrique). Le passage de l'état liquide à l'état gazeux est appelé vaporisation. On qualifie alors le corps de "vapeur" (par exemple la vapeur d'eau).
xwikis
Les corps, selon les conditions de température et de pression, peuvent être sous forme de liquide, de gaz ou de solide (voir diagramme de phase). La forme liquide correspond à une forme de moindre énergie que le gaz (l'énergie cinétique des molécules d'un liquide est insuffisante pour rompre les forces qui se matérialisent par la tension superficielle) mais d'énergie supérieure à la forme solide (contrairement au solide, l'énergie cinétique des molécules suffit à les faire se déplacer spontanément les unes par rapport aux autres).Une caractéristique des liquides est leur viscosité, qui mesure l'attachement des molécules les unes aux autres, donc la résistance à un corps qui traverserait le liquide. Plus la viscosité est élevée, plus le liquide est difficile à traverser. Il y a donc toute une gamme d'états intermédiaires (pâte), qui rend la distinction difficile entre le liquide et le solide. En fait le meilleur test est celui de la rupture : un solide se brise et se fêle, et le reste ; un liquide se fend et se ressoude après la disparition de la cause de rupture, sans laisser d'autre trace qu'une onde. L'hélium II (« superfluide ») ne possède pas de viscosité.Les liquides possèdent souvent aussi une tension superficielle, qui caractérise entre autres leur tendance à former des ménisques sur leurs bords, ainsi que les différents effets de la capillarité. Elle est en partie due :À l'état macroscopique, l'état liquide est caractérisé par les critères suivants :Dans des conditions normales de température et de pression, certaines substances chimiques sont liquides. En voici quelques exemples : l'eau, l'éthanol, l'acide sulfurique, le mercure, le dibrome, l'octane.La nature de solide du verre est attestée par le fait qu'il propage les ondes S et les ondes P, alors qu'un liquide ne propage que les ondes P.Un liquide emprisonné par une matrice solide s'appelle un gel. Un liquide emprisonnant une grande quantité de bulles de gaz et dans un état de viscosité importante s'appelle une mousse.
La phase liquide est un état de la matière ainsi qu'une forme de fluide : Les liquides peuvent être miscibles ou non, en fonction des forces moléculaires grâce auxquelles un corps pur liquide possède une cohérence. Il est notamment possible dans un liquide d'avoir sept phases distinctes non miscibles.
xwikis
Le concept de force est ancien, mais il a mis longtemps à obtenir une nouvelle définition utilisable. En effet, à la différence de grandeurs physiques telles que la longueur ou la masse, qui sont représentées par des grandeurs scalaires, les forces peuvent être représentées par des vecteurs. Les représentations vectorielles des forces doivent être distinguées des forces proprement dites. Certains philosophes et physiciens, dits opérationnalistes ou instrumentalistes au sujet des forces, nient qu'il existe des forces : selon eux, les vecteurs de forces utilisés en mécanique sont des outils utiles du physicien, mais ils ne décrivent rien dans la réalité. Un de leurs arguments est que les forces sont imperceptibles. Les réalistes au sujet des forces, à l'opposé, soutiennent que les vecteurs de forces réfèrent à des forces qui existent indépendamment de leur représentation. À l'objection selon laquelle les forces seraient imperceptibles, ils répondent souvent que la perception tactile ou le sens musculaire nous permettent d'expérimenter de telles entités physiques. Archimède, lors de l'étude du problème du bras de levier, évoquait le poids des corps, sans expliquer plus explicitement ce qu'il entendait par là. Lors des études sur les poulies, la notion de force est utilisée confusément comme étant la tension dans les fils. Même le problème du plan incliné ou celui de la chute des corps sont résolus par Galilée sans faire appel explicitement à la notion de force. Parallèlement, la composition des forces apparaît implicitement dans les travaux de Simon Stevin ("De Beghinselen der Weeghconst", 1586). Toutefois, la distinction entre la notion de force et de vitesse n'y est pas encore nette. Leibniz définit la force vive comme la masse multipliée par le carré de la vitesse. Wolff définit lui l'action comme la force vive multipliée par le temps, autrement dit la somme de toutes les forces vives qui s'exercent sur un objet à chaque instant. Il faudra attendre les travaux d'Isaac Newton pour avoir une formalisation plus précise de la notion de force. La définition donnée dans les "Philosophiae Naturalis Principia Mathematica" (1687) est celle qui est encore acceptée de nos jours. Elle a permis une présentation simple de la mécanique classique (lois du mouvement de Newton). Aujourd'hui, la notion de force reste très utilisée, en particulier dans l'enseignement et dans l'ingénierie. Pourtant, alors que les moments, l'énergie et les impulsions sont des grandeurs fondamentales de la physique, dans le sens où ils obéissent tous à une loi de conservation, la force peut être vue comme un artifice de modélisation, commode mais non indispensable. En mécanique analytique existent des formulations de la mécanique classique qui n'utilisent pas le concept de force. Ces formulations, apparues après la mécanique newtonienne, font cependant appel à des notions encore plus abstraites que le vecteur force, et on considère en conséquence qu'il vaut mieux les introduire seulement dans l'enseignement supérieur. Les forces sont d'autre part souvent confondues avec le concept de contrainte, et notamment avec les tensions.En mécanique classique, une force a un sens strict. C'est la modélisation d'une interaction, quelle que soit la nature de celle-ci. La force ou interaction résulte de l'action d'un objet sur un autre. C'est le cas en particulier des interactions de contact (pression, frottement, interaction dans une liaison) ou à distance (force gravitationnelle, force électrostatique, force électromagnétique). La force est représentée par un vecteur ayant un point d'application, une direction, un sens et une intensité (en newtons). [voir vecteur Force]Le concept de force est très utile pour « imaginer » le mouvement (dynamique), les efforts (statique) ou déformations (Résistance des matériaux) subis par un objet. Quelle que soit la ou les causes du mouvement ou des efforts (freinage par frottement, accélération par moteur, portance sur une aile par les écoulements de l'air, attraction par la terre, attraction par un aimant etc.), tout se passe comme si on attachait à cet objet des petits élastiques tendus avec la même tension que la force qui s'applique sur l'objet. Qui plus est, il est possible de combiner les forces s'appliquant sur un même point, mais provenant de différentes causes, en une seule force. Pour cela, il suffit de sommer les vecteurs force (cette opération revient à remplacer deux élastiques attachés à un même point, mais tirant peut-être dans des directions différentes, par un seul élastique produisant la même tension). C'est cette capacité à réunir et à combiner dans un même outil des phénomènes aussi variés qui confère toute sa puissance au concept de force. Ainsi, une fois assimilées les lois du mouvement de Newton, on peut comprendre l'effet de n'importe quelle interaction sur un objet, pourvu, toutefois, de rester dans les conditions d'application de la mécanique classique : Dans notre vie quotidienne de terriens humains, les conditions d'application de la mécanique classique sont toujours satisfaites sur les objets que nous pouvons voir sur terre à l'œil nu. Mais les propriétés de ces objets (couleurs, dureté, fonctionnement d'un appareil électronique, etc.) s'expliquent en général par des interactions au niveau moléculaire, et nécessitent parfois, pour être expliquées, d'avoir recours à la mécanique quantique.Quand on étudie le comportement d'un système physique constitué de plusieurs objets et qu'on fait le bilan des forces formula_1 appliquées au système (c'est-à-dire à ses différents objets), il est utile de distinguer les forces intérieures formula_2 (exercées par d'autres objets du système) des forces extérieures formula_3 (exercées par des objets extérieurs au système). On montre en effet que la résultante des forces intérieures est nulle et donc qu'elles ne contribuent en rien à l'accélération globale du système (c'est-à-dire l'accélération de son centre de gravité). Par contre elles interviennent dans le bilan énergétique (parce que deux forces opposées deux-à-deux peuvent très bien fournir un travail non nul).En physique, on modélise une force par un vecteur. Un représentant du vecteur force est caractérisé par quatre éléments :Le théorème du parallélogramme des forces provient de la constatation du fait que des mouvements peuvent être combinés entre eux sans que l'ordre de cette combinaison ait une quelconque influence sur le mouvement final. Dans le parallélogramme ci-contre, on peut distinguer deux types de mouvement : Quand un solide est situé initialement au point A, l'ordre de parcours AB puis BC ou bien AD puis DC n'a aucune influence sur le résultat final : quel que soit l'ordre des mouvements, le solide est déplacé au point C. Fort de cette constatation, l'observation entre les forces (les causes) et les mouvements (les effets) fut fait et Simon Stevin puis Isaac Newton purent énoncer le théorème du parallélogramme des forces : La force "F" est appelée la force « résultante » des deux forces "F" et "F". Cette dernière propriété des forces permet de séparer une force en plusieurs composantes et est utilisée par exemple pour décomposer une force de réaction "R" en ses composantes normale (l'effort d'appui "N") et tangentielle (l'effort de frottement "T"). Le parallélogramme des forces amène naturellement à modéliser celles-ci par un vecteur souvent noté formula_6. Le sens et la direction du vecteur indiquent respectivement le sens et la direction de l'action, la longueur du vecteur indiquant l'intensité de cette même action. Avec cette notation, le parallélogramme des forces se résume simplement à la relation vectorielle suivante :Une force exerce son action en un point appelé point d'application (ou point d'impact). La connaissance de ce point est importante pour déterminer le moment de la force... L'action d'une force peut être transmise aux autres points de l'objet par déformation élastique, par exemple, si l'on pousse une voiture, la force exercée par la paume de la main est transmise au reste du véhicule. La notion de point d'application est évidente dans le cas d'une cause « ponctuelle » : si l'on pousse un objet à la main, le point d'application est le point de contact entre l'objet et la main, et si on le tire avec une corde, c'est le point d'attache de la corde. Cependant, à y regarder de plus près, la paume de la main fait une certaine surface, et la corde a une section non nulle. La force s'exerce donc sur une surface, et non pas en un point. Le point d'application est en fait le barycentre de la surface, en supposant que la force est répartie uniformément sur la surface ; sinon, cela se ramène à un problème de pression. La notion peut s'étendre au cas où la surface de contact est importante, comme dans le cas de la réaction d'un support sur lequel est posé un objet, ou bien la poussée d'Archimède. On l'étend également au cas des forces volumiques, c'est-à-dire des forces à distance qui s'exercent en chaque point de l'objet, comme le poids ou l'attraction électrostatique ; le point d'application est alors aussi un barycentre (le centre d'inertie de l'objet dans le cas du poids).La force a pour équation aux dimensions : L'unité de mesure (SI) d'une force est le newton, symbole N, en hommage au savant Isaac Newton. Le "newton" équivaut à, c'est-à-dire qu'un newton est la force colinéaire au mouvement qui, appliquée pendant une seconde à un objet d'un kilogramme, est capable d'ajouter (ou de retrancher) un mètre par seconde à sa vitesse. On a utilisé également le kilogramme-force (kgf), force exercée par une masse de 1 kg dans le champ de pesanteur terrestre (au niveau de la mer), et qui vaut donc environ, ainsi que la sthène qui vaut. L'aéronautique et l'astronautique ont fait un grand usage d'un multiple du kilogramme-force : la tonne de poussée. Là où l'on utilisait le kgf, on utilise maintenant le décanewton (daN) : Le kilogramme-force est encore parfois utilisé, bien que l'unité ne soit pas recommandée, par exemple sur certains articles de bricolage (résistance d'une cordelette). Les anglo-saxons utilisent parfois la livre-force :En mécanique newtonienne, la relation entre la force et le mouvement est donnée par la loi de Newton ou « principe fondamental de la dynamique » : où formula_9 est la quantité de mouvement de l'objet, c'est-à-dire le produit de la masse par la vitesse (tandis que l'impulsion est le changement de la quantité de mouvement produit dans un court laps de temps donné), et "t" est le temps. Si la masse est constante, alors on a où formula_11 est l'accélération. Ernst Mach a fait remarquer dans son ouvrage (1883) que la deuxième loi de Newton contient la définition de la force donnée par Isaac Newton lui-même. En effet, définir une "force" comme étant ce qui crée l'accélération n'apprend rien de plus que ce qui est dans formula_12 et n'est finalement qu'une reformulation (incomplète) de cette dernière équation. Cette impuissance à définir une force autrement que par des définitions circulaires était problématique pour de nombreux physiciens parmi lesquels Ernst Mach, Clifford Truesdell et Walter Noll. Ces derniers ont donc cherché, en vain, à établir une définition explicite de la notion de force. Les théories modernes de la physique ne font pas appel aux forces en tant que sources ou symptômes d'une interaction. La relativité générale utilise le concept de courbure de l'espace-temps. La mécanique quantique décrit les échanges entre particules élémentaires sous la forme de photons, bosons et gluons. Aucune de ces deux théories n'a recours aux forces. Toutefois, comme la notion de "force" est un support pratique pour l'intuition, il est toujours possible, aussi bien pour la relativité générale que pour la mécanique quantique, de calculer des forces. Mais, comme dans le cas de la loi de Newton, les équations utilisées n'apportent pas d'informations supplémentaires sur ce qu'est la nature intrinsèque d'une force.L'ensemble des interactions de la matière s'explique par uniquement quatre types de forces : Les deux dernières n'interviennent que de façon interne au noyau atomique et leurs seules manifestations tangibles à notre échelle sont les réactions nucléaires. L'interaction forte permet aux particules composées de quarks, comme les protons et les neutrons, de ne pas se désagréger. Elle est également responsable, bien que de façon indirecte, de la stabilité des atomes. L'interaction faible, plus discrète à notre échelle, se manifeste dans un certain type de réaction nucléaire, la désintégration β. En dehors des réactions nucléaires, et une fois donnés les atomes et sans considérer leurs interactions internes aux noyaux atomiques, la plupart des phénomènes physiques à notre échelle ne font intervenir que les deux autres interactions. La force gravitationnelle se manifeste dans la plupart des phénomènes décrits par l'astronomie et la géologie (essentiellement, en ce qui nous concerne, le fait que nous soyons attirés par la Terre ; que cette dernière ne se désagrège pas en poussière ; les mouvements des astres ; les efforts qu'elle crée sur la croûte terrestre, participant à son évolution géologique ; les marées,...). Toutefois, dans le cadre de la relativité générale, la force gravitationnelle n'est pas une force mais le résultat de la courbure de l'espace-temps par la matière. Enfin, la force électro-magnétique est souvent la seule interaction à intervenir dans de très nombreux phénomènes décrits par la chimie (réactions chimiques), la physico-chimie (dureté de certains matériaux, état liquide, solide ou gazeux de la matière), la tribologie (frottements), l'optique (comportement de la lumière), et tous les phénomènes faisant intervenir l'électricité et/ou le magnétisme (moteurs électriques et alternateurs, ondes radio, fours à micro-ondes...).Les phénomènes qui provoquent l'accélération ou la déformation d'un corps sont très divers, on distingue donc plusieurs types de force, mais qui sont tous modélisés par un même objet : le vecteur force. Par exemple, on peut classer les forces selon leur distance d'action :Dans le cas le plus simple de la déformation élastique, l'allongement ou la compression modérée d'un ressort dans son axe engendre une force proportionnelle à l'allongement relatif, soit : où "k" est la constante de raideur du ressort et "x" son allongement (longueur finale moins longueur initiale ; formula_14, le vecteur unitaire formula_15 étant dirigé du point d'attache du ressort vers son extrémité mobile). La déformation des solides est étudiée par la mécanique des milieux continus (MMC).Lorsqu'une force s'exerce sur une surface, il est parfois intéressant de considérer la répartition de la force selon la surface. Par exemple, si l'on enfonce une punaise dans du bois, la punaise s'enfonce car la force est répartie sur une toute petite surface (l'extrémité de la pointe) ; si l'on appuie simplement avec le doigt, le doigt ne va pas s'enfoncer dans le bois car la force est répartie sur une grande surface (l'extrémité du doigt). Pour ce type d'études, on divise l'intensité de la force par la surface sur laquelle elle s'exerce, c'est la pression. Au sein d'un matériau solide, cette pression est appelée contrainte "(stress)". Par définition, la pression "p" vaut : où :Une force est dite "centrale" si sa direction passe à tout instant par un point "O" fixe dans le référentiel d'étude, appelé "centre de force". Bien souvent, de telles forces sont "conservatives", mais il est utile de distinguer les deux notions. Ainsi la force de gravitation exercée par un corps ponctuel sur un autre est centrale ET conservative, tandis que pour le pendule simple, la tension du fil est centrale (elle passe à tout moment par le point de fixation du fil) mais NON conservative. Une caractéristique importante du mouvement sous l'action d'une force purement centrale est que le moment cinétique du système par rapport au centre de force est conservé.Certaines forces peuvent dériver d'un potentiel, dans ce cas, il existe un champ "U" homogène à une énergie tel que la force résultante peut s'écrire sous la forme suivante : De telles forces sont conservatives.Il existe des forces qui s'exercent sur la totalité de l'objet, comme le poids, ces forces sont dites volumiques. On démontre, dans le cas des solides indéformables, que l'action de telles forces est équivalente à l'application d'une seule force au barycentre du corps, encore appelé « centre de masse », « centre de gravité » ou « centre d'inertie ».En mécanique lagrangienne, si l'on note "L"("q","q"') le lagrangien du système avec "q" la position et "q"' la vitesse du système, on a : On notera que "F" est une force généralisée : force (au sens ordinaire du terme) si la coordonnée généralisée "q" est une coordonnée cartésienne (exprimée en mètres), mais moment de force si "q" est une coordonnée angulaire (exprimée en radians).L'énergie fournie par l'action d'une force sur une distance donnée est appelée travail. En physique, force et énergie sont deux manières différentes de modéliser les phénomènes. Selon les cas, on préfère l'une ou l'autre expression. Par exemple, on pourra traiter la chute d'un objet avec les forces en se servant des lois de Newton, particulièrement la seconde (l'accélération est proportionnelle à la force et inversement proportionnelle à la masse), ou avec les énergies (la diminution de l'énergie potentielle de gravité est égale à l'augmentation de l'énergie cinétique). Une force travaille (ou effectue un travail) lorsque son point d'application se déplace. Pour le cas d'une force constante, la valeur du travail d'une force, notée W(F), est égale au produit scalaire du vecteur force par le vecteur déplacement.: l'idée est de déterminer l'effort nécessaire qu'il faut opposer à la force à mesurer pour atteindre l'équilibre. Dans le cas particulier du poids, on peut utiliser une balance qui compare le poids à mesurer au poids d'une masse connue. Pour les autres cas, on utilise généralement un dynamomètre qui est en général constitué d'un ressort dont on connaît la raideur "k" et dont une extrémité est attachée à un point fixe. On applique la force à mesurer sur l'autre extrémité du ressort et l'on mesure la variation de longueur Δ"l" du ressort. On en déduit la force "F" par la relation que nous avons vue plus haut : La mesure de la longueur Δ"l" est généralement faite par un comparateur. La force "F" étant directement proportionnelle à Δ"l", il suffit de graduer le cadran du comparateur en newtons plutôt qu'en mètres. Lorsque la force à mesurer est importante, on peut utiliser une barre massive comme « ressort » ("cf". la loi de Hooke). La déformation élastique de la barre est alors mesurée avec un extensomètre (ou jauge de déformation) ; il s'agit en général d'un fil en zig-zag collé sur la barre, et dont la résistance électrique varie avec l'allongement relatif.
Une force modélise, en physique, une action mécanique exercée par un objet sur un autre et capable d'imposer une accélération induisant la modification du vecteur vitesse (une force exercée sur l'objet fait aller celui-ci plus vite, moins vite ou le dévie d'une trajectoire rectiligne). En 1684, Isaac Newton a précisé ce concept en établissant les bases de la mécanique newtonienne. La base sensorielle de la notion est donnée par la sensation de contraction musculaire.
xwikis
La plupart des substances se liquéfient et se solidifient approximativement à la même température. Par exemple, pour le mercure, le point de fusion et de congélation sont (). Cependant, plusieurs substances ont la caractéristique de pouvoir être en surfusion et peuvent donc geler à une température inférieure à leur point de congélation théorique. L'eau en est un exemple car la pression de surface des molécules d'eau pure est difficile à vaincre et on peut retrouver des gouttelettes d'eau jusqu'à dans les nuages si elles ne contiennent pas un noyau de congélation.Lorsqu'un corps solide pur est chauffé, la température augmente jusqu'à atteindre le point de fusion. Là, la température reste constante tant que le corps n'est pas passé entièrement sous phase liquide. La différence d'énergie pour causer la fusion complète n'est donc pas seulement celle qu'on doit ajouter pour atteindre la température critique mais également la chaleur latente (formula_1) pour passer à l'état liquide. Du point de vue de la thermodynamique, l’enthalpie (formula_2) et l’entropie (formula_3) du matériau augmentent donc (formula_4) à formula_5 la température de fusion de telle façon qu’on peut les exprimer lors du changement d’un corps de masse m ainsi : avec :Contrairement à la température de vaporisation (point d'ébullition), la température de fusion est assez insensible aux changements de pression, car les volumes molaires de la phase solide et de la phase liquide sont assez proches. Généralement, lorsque l'on reste dans la même famille de composés chimiques, le point de fusion augmente avec la masse molaire. L'élément du tableau périodique ayant la plus haute température de fusion est le tungstène à (), ce qui en a fait un excellent choix pour les lampes à incandescence. Toutefois, le carbone (graphite) a une température de fusion de. Le est le matériau réfractaire qui a le point de fusion le plus élevé à (). À l'autre bout du spectre, l’hélium ne se congèle qu'à une température proche du zéro absolu et sous une pression de 20 atmosphères. Le point de fusion est donc un moyen de vérifier la pureté d'une substance : toute impureté fera varier le point de fusion de la substance testée.La transition entre solide et liquide se produit cependant sur une certaine plage de température pour certaines substances. Par exemple, l’agar-agar fond à mais se solidifie entre et par un processus d’hystérésis. D'autre part, les substances amorphes, comme le verre ou certains polymères, n'ont en général pas de point de fusion, car elles ne subissent pas de fusion proprement dite mais une transition vitreuse. Il existe également d’autres exceptions :Il existe différents appareils de mesure de point de fusion reposant tous sur la restitution d'un gradient de température. Ils peuvent être constitués soit d'une plaque métallique chauffante telle le Banc Kofler ou le bloc Maquenne, soit d'un bain d'huile tel le tube de Thiele. Dans le travail pratique de laboratoire on utilise des appareils de mesure de point de fusion automatique. Ils sont faciles à manier, fonctionnent plus vite, fournissent des résultats reproductibles et sont plus précis.Le tableau suivant donne les températures de fusion des éléments à l'état standard à en °C :
Le point de fusion ou la température de fusion d'un corps représente la température à une pression donnée, à laquelle un élément pur ou un composé chimique fond c'est-à-dire passe de l'état solide à l'état liquide. Le point de congélation (ou point de solidification selon les matériaux) est la température de la transition inverse. Elle est habituellement mesurée sous pression atmosphérique normale (1 atmosphère) et il y a coexistence entre états solide et liquide entre ces deux points. Pour une substance pure, les points de fusion et de congélation sont théoriquement égaux et constants à pression fixe. Le point de fusion/congélation le plus connu est probablement celui de l'eau (), celui-ci ayant été pris comme zéro de l'échelle centigrade, souvent confondue avec l'échelle Celsius.
xwikis
Dans une conférence, dans son sens large d', une réunion, une rencontre, un débat contradictoire dans un tribunal, l’interprétation est le service que les rendent aux participants qui ne parlent pas la même langue pour leur permettre de communiquer. L'interprétation dans la langue de destination des discours dans la langue originale est le produit de leur activité. L’interprétariat est le métier, la carrière, la fonction des interprètes. Les professionnels préfèrent utiliser le terme d' plutôt que celui d', en raison d'une similarité acoustique avec. Bien que le public confonde fréquemment les deux activités et que certains professionnels revendiquent la double qualité d'interprète et de traducteur, l'interprétation n'est pas la traduction. À la différence du traducteur, l'interprète rend le discours au fur et à mesure, sans savoir vers quelle conclusion il se dirige, et sans possibilité de relecture. La transcription d'une interprétation n'est pas une bonne traduction, et une bonne traduction ne peut se faire dans le temps de l'interprétation. Ces métiers exigent des qualités différentes. Pierre Kästner, interprète et enseignant, prévient ses étudiants :. La "traduction à vue" consiste à donner une interprétation d'un texte en langue étrangère au fur et à mesure qu'on le lit. Elle se pratique dans le contexte de conférences et comme activité pédagogique. Dans les conférences, les orateurs, soumis à une contrainte de temps, lisent fréquemment un texte, dont l'interprète peut détenir une copie, qui, si elle est remise à l'avance, permet un travail de préparation, intermédiaire entre traduction et interprétation ; mais les orateurs ne sont bien sûr pas tenus de prononcer le texte qu'ils ont remis. Dans le sous-titrage en direct, le traducteur écoute, traduit et transcrit dans une autre langue une partie marquante des propos d'un orateur au moment où ils sont tenus, en complément de l'interprétation simultanée. Les groupements professionnels classent les activités de sous-titrage et d'adaptation pour le doublage comme des formes de traduction ou des formes d'interprétation. Sauf en direct, le traducteur peut prendre le temps nécessaire pour trouver les solutions ; mais, comme en interprétation, le temps de l'énoncé original gouverne la traduction.L'interprétation peut se faire en consécutive ou en simultanée.L'interprétation en langue des signes est utilisée pour la communication entre sourds et entendants. Elle se fait en simultanée ou en consécutive.L'interprète assure une restitution aussi fidèle que possible des interventions dans les différentes langues. Il doit faire preuve de souplesse, de culture, de capacité d'analyse et d'une parfaite maîtrise des langues concernées. Comme le traducteur, l'interprète doit comprendre les deux langues dans lesquelles il travaille et les significations secondaires de leurs énoncés. Il ne peut pas limiter le texte (oral ou écrit) à son sens littéral, mais doit conserver fidèlement les sens cachés du discours original, sans introduire d'associations importunes qui le parasiteraient dans la langue de traduction. Dans tout discours, une partie du message n'est pas énoncé mais demeure implicite. L'interprète doit donner un équivalent en s'appuyant sur une solide culture générale et en insérant çà et là les pièces spécifiques du sujet abordé. Plus importante encore est la capacité à saisir l'intention de l'orateur au-delà des simples mots. Dans un environnement multilingue, cela exige une connaissance intime non seulement des langues, mais des cultures représentées ainsi que de leurs différences. Dans une réunion multilingue, les interprètes œuvrent ainsi pour qu’elle se déroule comme si chacun parlait la même langue. Même dans des conditions normales, cette tâche est relativement ardue. Si l'on y ajoute les difficultés de la matière traitée, les textes lus à la plus grande vitesse possible, les discours d'orateurs étrangers à la syntaxe approximative, les incidents liés au dispositif technique comme les bruits et chocs autour du microphone de l'orateur ou les accidents de contrôle du système, qui perturbent l'intelligibilité de ce qu'il entend, elle devient un exercice extrêmement éprouvant. En règle générale, les interprètes traduisent vers leur langue maternelle. Dans certains cas, ils assurent aussi une interprétation à partir de leur propre langue vers une autre langue.Lors d'une réunion, les participants peuvent s'exprimer dans l'une des langues « passives », c'est-à dire l'une des langues à partir desquelles l'interprétation est assurée. Ils peuvent suivre les débats à travers un système de diffusion sur écouteurs sur un ou plusieurs canaux correspondant aux langues « actives », vers lesquelles l'interprétation est prévue. Lorsque le nombre de langues passives est différent de celui des langues actives on parle de couverture linguistique asymétrique. Dans le cadre de l'interprétation de conférence, les réunions ont lieu dans des salles équipées de cabines d'interprétation simultanée. Les interprètes y travaillent par équipes de deux minimum par langue active, trois dans une réunion comptant au moins six langues passives. Dans certains cas, ils assurent une interprétation bi-active, vers leur propre langue et « retour » vers une autre langue. Du fait de l'intense niveau de concentration requis, les interprètes se relaient toutes les 20–30 minutes. Une bonne équipe se partagera le travail, l'interprète en pause préparant par exemple les documents traités en séance pour son collègue. Lorsque l’interprétation n’est pas possible en direct, on a recours au relais, c’est-à-dire à l’interprétation par l'intermédiaire d'une troisième langue : la langue source (par exemple le japonais) est d'abord interprétée vers une langue cible (par exemple l'anglais) appelée "langue-pivot", puis les interprètes vers une ou plusieurs autres langues cibles (par exemple le français, l'espagnol etc.) travaillent à partir de cette langue-pivot.La possibilité de communiquer pour des personnes ne partageant pas la même langue est une condition indispensable au fonctionnement de toutes les institutions internationales. Certaines d'entre elles adoptent des langues de travail, que tous les délégués doivent maîtriser. S'il y en a plusieurs, l'interprétation est assurée de et vers toutes ces langues. L'interprétation est également nécessaire pour inviter des personnes qui ne pourraient ou ne voudraient pas s'exprimer dans une autre langue que la leur.Si le français et l’anglais sont les deux langues de travail de l’UNESCO, l’arabe, le chinois, l’espagnol et le russe en sont aussi des langues officielles. L'interprétation est assurée de et vers ces languesDepuis 2013, les langues de travail de l’Union européenne sont au nombre de 24 : français, allemand, anglais, bulgare, croate, danois, espagnol, estonien, finnois, grec, hongrois, irlandais, italien, letton, lituanien, maltais, néerlandais, polonais, portugais, roumain, slovaque, slovène, suédois et tchèque. En effet, la possibilité pour chacun d’exprimer exactement ce que l’on souhaite dans sa langue maternelle et de comprendre parfaitement ce que disent les autres est indispensable au fonctionnement de toutes les institutions internationales. Donner à chaque participant autour de la table la possibilité de s'exprimer dans sa langue maternelle est une exigence fondamentale de la légitimité démocratique de l'Union européenne. Dans de nombreux cas, les actes juridiques résultant des discussions auront un effet immédiat et direct sur la vie des citoyens. Il ne doit y avoir aucun obstacle à la compréhension et à l'expression d'idées lors des réunions. Les citoyens d'Europe ne doivent pas être représentés à Bruxelles par leurs meilleurs linguistes : ils doivent pouvoir envoyer leurs meilleurs experts. La Direction Générale de l'Interprétation, (aussi connue comme SCIC – Service Commun Interprétation-Conférences) est le plus grand service d'interprétation du monde. Il assure l'interprétation pour plus de réunions par an. Comme son nom l'indique, c'est un service commun qui assure une interprétation de qualité élevée, à Bruxelles et ailleurs dans le monde, pour la Commission européenne, le Conseil de l'Union européenne (officieusement appelé « Conseil de ministres »), le Comité économique et social, le Comité des régions, la Banque européenne d'investissement et d'autres organes de l'Union européenne. La DG Interprétation permet une communication multilingue entre intervenants, ce qui est au cœur du processus décisionnel de la Communauté. Quant aux textes écrits, le service de traduction de la Commission européenne en assure la traduction officielle. Ainsi, la DG interprétation met à disposition des interprètes pour une cinquantaine de réunions par jour. Les régimes linguistiques de ces réunions varient considérablement. Cela va de l'interprétation consécutive à deux langues, qui requiert la présence d'un interprète, à l'interprétation simultanée vingt vers vingt. Au Parlement européen, la Direction de l'Interprétation assure toutes ses réunions : séances plénières à Strasbourg ou à Bruxelles, commissions parlementaires et groupes politiques à Bruxelles et dans d'autres villes européennes et délégations parlementaires pour les relations avec les pays tiers. Elle recrute également des interprètes pour la Cour des Comptes et les services de la Commission européenne installés à Luxembourg, siège du secrétariat du Parlement Européen. À la Cour de justice, dont le siège est à Luxembourg, la Direction de l'interprétation assure l'interprétation des audiences devant les trois juridictions (Cour de justice, Tribunal de première instance et Tribunal de la Fonction Publique) ainsi que des autres réunions (séminaires pour magistrats, visites d'information ou protocolaires). La DG Interprétation et les services d'interprétation du Parlement européen et de la Cour de justice sont responsables de la communication multilingue dans les réunions, principalement par l'interprétation simultanée, pour un coût total d'environ un demi-euro par an par citoyen européen. La DG Interprétation coûte au contribuable par citoyen par an.Les interprètes et traducteurs chargés d'assurer le respect du droit des témoins et personnes mises en cause à comprendre les débats et à communiquer dans une langue qu'ils comprennent sont officiellement désignés en France sous le nom d'experts-interprètes ou d'interprètes assermentés. Cette spécialité soumise à des contraintes et obligations particulière est organisée par des lois depuis le, bien que ses origines remontent deux cents ans au moins auparavant. Les tribunaux internationaux comme la Cour de justice européenne et la Cour pénale internationale ont un besoin constant d'interprètes et de traducteurs, tant pour l'instruction des dossiers que pour les audiences.Anciennement, on désigne l'interprète comme "truchement". Vu sa place privilégiée, l'interprète placé à un haut niveau de décision politique peut être tenté d'influer sur le cours de l'Histoire. Ce fut le cas d'interprètes devenus célèbres comme la Malinche qui servit d'interprète entre Moctezuma II et Hernán Cortés (voir héroïne ou traîtresse? ). Il faut citer également Melchorejo son prédécesseur. Ce ne fut cependant pas le cas de Paul-Otto Schmidt, ancien interprète d'Adolf Hitler devenu plus tard directeur de l’institut d’interprètes munichois SDI (Sprachen- und Dolmetscherinstitut). L'interprétation de conférence remonte à 1918. La première application de l'interprétation simultanée eut lieu dans l'Internationale communiste et au Bureau international du travail vers la fin des années 1920. Les interprètes professionnels étaient avant la seconde guerre mondiale très peu nombreux. La profession a pris son essor à partir de 1945. Les interprètes travaillant pour le Tribunal militaire international de Nuremberg et pour le Tribunal militaire international pour l'Extrême-Orient ont formé l'élite de la profession et ont constitué les équipes initiales des grandes institutions internationales.Si l'interprétation peut se pratiquer sans aucun support technique, l'interprétation simultanée dépend de systèmes de diffusion sonore individuels, de sorte que les participants puissent écouter des versions différentes. La généralisation des communications informatique à longue distance et des téléphones portables, qui peuvent servir de récepteurs, peuvent transformer les conditions d'exercice des interprêtes.De nombreux interprètes de conférence (indépendants et fonctionnaires) sont membres de l’Association Internationale des Interprètes de Conférence (AIIC) fondée en 1953. L'AIIC est la seule organisation représentative de la profession au plan mondial. Elle rassemble aujourd'hui plus de 3000 interprètes de conférence professionnels établis dans plus de 80 pays. A noter : depuis 2012, les interprètes en langues des signes peuvent devenir membres de l'AIIC. CTTIC Fondé en 1970, le CTTIC (Conseil des traducteurs, terminologues et interprètes de Canada) est l'héritier direct de la Société des traducteurs et interprètes du Canada (STIC), elle-même fondée en 1956. Le CTTIC est une fédération regroupant aujourd'hui sept organismes provinciaux et territoriaux dont l'une d'eux - l'Association des traducteurs et interprètes de l'Ontario (ATlO) est une des sociétés fondatrices, avec l'Ordre des traducteurs, terminologues et interprètes agréés du Québec (OTTIAQ).
L'interprétation est le service dont le but est de permettre la communication verbale entre des personnes de langue différente. L'interprétariat est le métier des interprètes qui exercent cette fonction.
xwikis
Les quatre états les plus connus que peut prendre toute substance, en fonction des conditions de température et de pression, sont : D'autres états plus exotiques de la matière existent, ils ne sont réalisables que pour certains matériaux dans certaines conditions : Mais les comportements de la matière ne sont pas toujours uniformes au sein d'un même état. Ainsi existe-t-il des états intermédiaires où l'on observe un solide se comporter comme un fluide (matière pulvérulente ou granuleuse) ou au contraire un liquide avoir certaines propriétés propres aux solides. Ces comportements peuvent être issus de mélanges plus ou moins intimes entre plusieurs phases, appelés "états polyphasiques" (émulsions, pâtes, mousses, poudres, gels, aérosols...). On peut aussi rencontrer la matière dans un état hors équilibre thermodynamique ; les propriétés du matériau dépendent alors du temps, car le matériau se relaxe, sans jamais atteindre l'équilibre thermodynamique. Tout matériau spatialement hétérogène va rentrer dans cette définition dans la mesure où ces hétérogénéités spatiales vont se traduire par des contraintes internes impliquant ainsi un état non stable thermodynamiquement. Néanmoins, les temps de relaxation de tels systèmes peuvent atteindre des durées tellement longues qu'ils sont inobservables expérimentalement (allant jusqu'à plusieurs dizaines de milliers d'années). Parmi ces matériaux on trouve de nombreux systèmes de la matière molle, ni solide, ni liquide tels que les verres, les gels ou bien les pâtes. Il n'est plus alors possible de parler de diagramme de phases (faisant référence à un état de la matière thermodynamiquement stable), le terme employé alors étant celui de diagramme d'état. Des diagrammes d'état unifiant les comportements des systèmes encombrés ont été établis pour de nombreux systèmes avec des interactions de type répulsif (granulaire, verres avec interaction de type volume exclu...) par "Liu" et "Nagel" en 1998, ainsi que pour les systèmes avec interaction de type attractif par "Trappe", "Prasad", "Cipelletti", "Segre", et "Weitz", en 2001.À l'échelle macroscopique, un solide : À l'état solide, les particules (atomes, molécules ou ions) sont liées les unes aux autres par des liaisons chimiques qui fixent leurs positions relatives.À l'échelle macroscopique, un liquide : À l'état liquide, les particules sont faiblement liées : contrairement à l'état solide, elles peuvent se déplacer spontanément les unes par rapport aux autres (déformabilité) mais, contrairement à l'état gazeux, elles ne sont pas indépendantes (incompressibilité). On peut également dire que leur énergie thermique est suffisante pour leur permettre de se déplacer mais pas de s'échapper... L'état liquide est un état fluide, c'est-à-dire parfaitement déformable.À l'échelle macroscopique, un gaz : À l’état gazeux, les particules sont très faiblement liées, quasiment indépendantes (on les considère indépendantes dans le modèle des gaz parfaits, qui décrit bien le comportement des gaz basse pression). Comme l'état liquide, l'état gazeux est un état fluide. Un corps à l'état gazeux n'est constitué que d'atomes et de molécules.À l'échelle macroscopique, un plasma : À l'état plasma, les particules sont détachées de leurs électrons, il est nommé une soupe de quarks lorsque l'état plasma s'étend sur une longue distance.Le passage d'un état de la matière à un autre est appelé changement d'état. Ce changement se fait sous l'effet d'une modification du volume, de la température et/ou de la pression.
En physique, un état de la matière est une des 4 formes ordinaires que peut prendre toute substance dans la nature : solide, liquide, gaz, plasma. Diverses propriétés de la matière diffèrent selon l'état : degré de cohésion, densité, structure cristalline, indice de réfraction... Ces propriétés se traduisent par des « comportements » différents, décrits par les lois de la physique : malléabilité, ductilité, viscosité, loi des gaz parfaits...
xwikis
Le diamètre estimé d'un atome « libre » (hors liaison covalente ou cristalline) est compris entre 62 pm (6,2×10 m) pour l'hélium et 596 pm (5,96×10 m) pour le césium, tandis que celui d'un noyau atomique est compris entre 2,4 fm (2,4×10 m) pour l'isotope H et 14,8 fm (1,48×10 m) environ pour le nucléide U : le noyau d'un atome d'hydrogène est donc environ plus petit que l'atome d'hydrogène lui-même. Le noyau concentre cependant l'essentiel de la masse de l'atome : le noyau du lithium 7, par exemple, est environ plus massif que les trois électrons qui l'entourent, l'atome de Li lui-même ayant une masse de l'ordre de. Pour fixer les idées, la masse des atomes est comprise entre pour le protium et pour, en s'en tenantBien que son étymologie signifie « indivisible » en grec ancien, un atome est en réalité constitué de particules élémentaires plus petites, et peut donc être divisé ; mais il constitue bien la plus petite unité indivisible d'un élément chimique en tant que tel : en brisant, par exemple, un atome d'hélium, on obtiendra des électrons, des protons et des neutrons, mais on n'aura plus un corps simple ayant les propriétés de l'hélium. Le modèle standard de la physique des particules décrit lesL'essentiel des propriétés physiques et chimiques des atomes est dû à leur nuage électronique. C'est la compréhension de la nature et de la structure de ce nuage électronique qui a ouvert la voie à la compréhension de la structure de l'atome lui-même et, "in fine", a conduit au développement de la physique des particules. Le noyau atomique étant chargé positivement, il forme un puits de potentiel pour les électrons, qui sont chargés négativement. Ce puits de potentiel est constitué de niveaux d'énergie définis par des nombres quantiques dont la combinaison détermine des orbitales atomiques conférant aux fonctions d'onde correspondantes des dimensions et des formes caractéristiques.L'électron manifeste, comme tout objet quantique, une dualité onde-corpuscule, en vertu de laquelle il se comporte tantôt comme une particule géométriquement délimitée occupant une position déterminée, tantôt comme une onde susceptible de présenter, par exemple, des phénomènes d'interférences. Ces deux aspects de l'électron coexistent dans l'atome, bien que le modèle de Schrödinger soit exclusivement ondulatoire : Par conséquent, un électron ne peut pas « tomber sur le noyau » comme un objet tombe par terre, car cela signifierait que l'extension spatiale de sa fonction d'onde serait réduite à un point, ce qui n'est le cas d'aucune fonction propre de l'équation de Schrödinger : cette dernière impose, au contraire, qu'un électron, au voisinage du noyau, se « dilue » dans un volume (une orbitale) à la géométrie déterminée par les nombres quantiques quiChaque électron est décrit, dans un atome, par un quadruplet de nombres quantiques (,,, ) satisfaisant l'équation de Schrödinger et appelés respectivement : Le principe d'exclusion de Pauli stipule que deux fermions appartenant au même système de fermions (ici, au même atome) ne peuvent avoir tous leurs nombres quantiques égaux en même temps. Ce principe est fondamental car il estSa structure électronique confère à l'atome ses propriétés chimiques et magnétiques. Ainsi, les éléments chimiques sont communément classés dans un tableau périodique organisé en fonction de leurs propriétés chimiques et dont l'agencement est en réalité déterminé par la distribution des électrons sur les niveaux d'énergie des atomes. Le recouvrement de deux orbitales atomiques appartenant chacune à un atome distinct peut conduire à la formation d'une orbitale moléculaire constituant une liaison chimique entre deux atomes ; si les orbitales atomiques en recouvrement appartiennent au même atome, on dit qu'il y a hybridation. Une orbitale moléculaire est dite "liante" lorsque les phases d'électron des orbitales atomiques sont de même signe (interférence constructive) ; elle est dite "antiliante" lorsque les orbitales atomiques ont des phases de signe opposé (interférence destructive).Protons et neutrons forment un noyau atomique de dimension femtométrique. Le rayon nucléaire d'un atome dont le nombre de masse est "A" vaut environ formula_1 fm, alors que l'atome lui-même a un rayon de l'ordre de la centaine de picomètres (environ plus grand). Les protons étant chargés positivement, ils se repoussent au sein du noyau, mais l'intensité de cette répulsion électrostatique est très inférieure à celle de l'attraction entre nucléons induite par l'interaction nucléaire forte à des distances inférieures à 2,5 fm. La géométrie des noyaux atomiques est généralement sphérique, bien que certains noyaux stablesChimie et physique se rejoignent sur ce point, de sorte que les notions relatives à ces deux domaines des sciences se recouvrent à leur sujet. Ainsi, en physique nucléaire, on appelle "nucléide" un noyau atomique défini par un nombre déterminé de protons et de neutrons, terme souvent confondu avec la notion équivalente d"'isotope", qui relève davantage de la chimie. Un "élément chimique" se définit comme l'ensemble des atomes et des ions dont le noyau comporte un nombre donné de protons. Ce nombre est le numéro atomique, noté "Z", de l'atome ou deLes particules élémentaires possèdent un nombre quantique appelé spin, analogue à un moment angulaire et mesuré en unités de constante de Planck réduite (parfois appelée « constante de Dirac ») désignée par le symbole ħ, qui se lit « h barre ». C'est également le cas des protons et des neutrons du noyau atomique, dont la résultante des spins se manifeste par un moment magnétique nucléaire. La valeur de ce dernier est spécifique à chaque noyau ; à l'état fondamental, elle est nulle pourLa liaison nucléaire est généralement décrite comme une manifestation résiduelle entre nucléons de l'interaction nucléaire forte qui maintient ensemble les quarks constituant les nucléons. L'énergie de liaison nucléaire est définie comme l'énergie nécessaire pour arracher un nucléon quelconque au noyau considéré. Elle est deLa physique des noyaux atomiques est gouvernée par les trois interactions fondamentales du modèle standard de la physique des particules : l'interaction forte, l'interaction faible et l'l'interaction électromagnétique. Chaque noyau atomique est défini par le nombre de protons et de neutrons qu'il contient, ainsi que par son énergie totale, l'ensemble définissant les différents « arrangements » des particules selon lesquels l'énergie totale du système peut être distribuée. Plus il y a d'arrangements possibles et plus le système est stable : l'état présentant le plus grand nombre d'arrangements possibles est appeléLa radioactivité désigne l'ensemble des phénomènes physiques par lesquels un nucléide instable réorganise sa structure nucléaire afin de gagner en stabilité. Ces phénomènes de désintégration radioactive peuvent être les suivants :Certaines théories extrapolent les résultats du modèle en couches et les propriétés des nombres magiques en prédisant l'existence d'un îlot de stabilité parmi les nucléides superlourds, pour un nombre magique de 184 neutrons et — selon les théories et les modèles — 114, 120, 122 ou 126 protons. Une approche plus moderne de la stabilité nucléaire montreLe plus lourd des nucléides synthétisés jusqu'à présent est l'isotope Og et les recherches se poursuivent au GSI afin de produire l'isotope 120. On ignore précisément jusqu'à combien de nucléons un noyau atomique peut contenir : on estime habituellement la limite d'observabilité expérimentale à environ Z ≈ 130 et la limite théorique à Z = 173 : un proton (ou neutron) conférerait à la couche nucléaire 1s une énergie de, égale à la masse au repos d'un électron ou d'un positron ; un tel noyau serait donc instable par rapport à la désintégration β.Si les propriétés nucléaires de l'atome (masse, énergie nucléaire, radioactivité) relèvent de la physique, et particulièrement de la physique nucléaire et de la physique des particules, les propriétés des nuages électroniques des atomes (taille, énergie d'ionisation, conductivité électrique, valence) relèvent essentiellement de la chimie et de la science des matériaux.Le nuage électronique d'un atome n'a pas de dimensions bien définies car il consiste en une superposition d'orbitales atomiques de nature probabiliste. Il n'existe donc pas de définition unique ni de mesure définitive de la taille des atomes : celle-ci est généralement définie en termes de distance moyenne entre noyaux d'atomes liés entre eux, mais cette distance varie en fonction de la nature chimique des atomes environnants, du nombre et de la géométrie des liaisons dans lesquelles l'atome est engagé, ou encore de la nature de ces liaisons (métallique, covalente, ionique). Une valeur théorique de l'extensionL'une des propriétés les plus remarquables des atomes est leur propension à former toute une variété de liaisons chimiques avec d'autres atomes, afin de constituer des édifices moléculaires, des cristaux, voire des agrégats atomiques ("clusters", « superatomes »). Ces liaisons résultent du recouvrement d'orbitales atomiques appartenant à deux atomes pour former une orbitale moléculaire occupée par deux électrons provenant chacun d'un des deux atomes engagés dans la liaison (on parle dans ce cas de liaison covalente), mais peuvent aussi provenir de l'attraction électrostatique entre atomes de charge électrique opposée (un cation positif et un anionCompte tenu de leur configuration électronique, certains atomes auront davantage tendance que d'autres à attirer des électrons en formant des liaisons chimiques covalentes. Cette propriété est appelée l'électronégativité d'un atome. Elle dépend en premier lieu de leur nombre de masse et, corrélativement, de l'intensité de la liaison entre le noyau atomique et des électrons de valence. Elle est généralement évaluée à l'aide de l'échelle de Pauling, du nom de Linus Pauling qui la mit au point en 1932. D'autres méthodes d'évaluation donnent des résultats légèrement différents, mais toutes révèlent les mêmes tendances à travers le tableau périodique. La lecture de ce tableau permet de dégager deux tendances principales :Comme les nucléons, les électrons possèdent un spin, analogue à un moment angulaire, intrinsèque à chaque électron, auquel se superpose un moment angulaire orbital, représenté par le nombre quantique secondaire, généré par la distribution probabiliste de l'électron dans son orbitale atomique, qui s'assimile à un « mouvement ». Ces deux moments angulaires se combinent pour constituer un champ magnétique autour de l'atome. Lorsque deux électrons occupent une case quantique de l'atome, ils ont chacun un spin opposé en vertu du principe d'exclusion de Pauli, ce qui annule le moment angulaire résultant ; mais les atomes et les ions qui ont un nombre impair d'électrons ont par conséquent un moment magnétique résultant non nul provenant du spin de leurs électrons. Les matériaux ferromagnétiques ont la particularité d'orienter dans la même direction les moments magnétiques de leurs atomes par interaction d'échange, ce qui crée un champ magnétique macroscopique : c'est le cas, par exemple, de la magnétite.Un électron d'un atome peut être excité par absorption d'un photon incident, ce qui le fait occuper une orbitale atomique d'énergie supérieure à celle de sonL'interaction d'atomes avec un rayonnement électromagnétique peut également se traduire par l'apparition de raies d'absorption ou d'émission à certaines longueurs d'onde particulières sur un spectre par ailleurs continu. Ces longueurs d'onde correspondent à l'énergie de transition entre couches électroniques et sous-couches électroniques : lorsqu'un atome est atteint par un photon ayant une énergie égale à l'une de ces transitions entre niveaux d'énergie électroniques, un électron peut absorber ce photon et passer à un niveau d'énergieLa matière baryonique peut exister à l'état solide, liquide ou gazeux selon sa température et sa pression : les transitions entre ces états surviennent à des niveaux de température et de pression directement en rapport avec les propriétés des atomes et de leurs arrangements moléculaires qui constituent chaque matériau. Les états solide et liquide sont qualifiés d’"états condensés", tandis que les états liquide et gazeux sont qualifiés d’"états fluides". Les cristaux liquides (une mésophase) sont un état intermédiaire entre solide et liquide. Il existe par ailleurs des états de la matière moins courants sur Terre et qui dérivent des précédents :Les atomes constituent environ 4 % de l'énergie totale observable de l'univers, avec une concentration moyenne d'un atome pour quatre mètres cubes. Dans le milieu interstellaire d'une galaxie telle que la Voie lactée, la concentration d'atomes varie selon les régions entre cent mille et un milliard d'atomes par mètre cube, bien que l'environnement immédiat du Soleil soit bien plus ténu : à peine cinquante mille atomes par mètre cube, ce qui définit précisément la bulle locale comme une cavité dans le milieu interstellaire formée par l'explosion de supernovas voisines il y a deux à quatre millions d'années. Les étoiles se forment à partir de nuages denses, et les réactions de fusion nucléaire qui se déroulent en leur sein conduisent à la formation d'éléments chimiques plus lourds que l'hydrogène, l'hélium et le lithium produits à la suite du Big Bang. Plus de 95 % des atomes de la Voie lactée se trouvent dans les étoiles, et les atomes « visibles » de notre galaxie représentent environ 10 % de sa masse : le reste de cette masse serait constitué d'une mystérieuse matière noire.Dans les premières minutes de l'existence de l'univers, les quatre éléments les plus légers se sont formés au cours de la nucléosynthèse primordiale : environ 75 % d'hydrogène H, 25 % d'hélium He, 0,01 % de deutérium H, et des traces (de l'ordre de 10) de lithium Li. Cette nucléosynthèse aurait été trop brève pour permettre la synthèse d'éléments plus lourds que le lithium et pour permettre la fusion du deutérium. Les atomes proprementSelon toute vraisemblance, la grande majorité des atomes qui constituent la Terre étaient déjà présents dans la nébuleuse solaire, dont l'effondrement gravitationnel aurait engendré le système solaire. Les atomes apparus depuis proviennent le plus souvent de la désintégration radioactive d'éléments primordiaux instables, et les rapports isotopiques des éléments correspondants offrent le moyen d'évaluer l'âge de la Terre par datation radiométrique. Par ailleurs, l'abondance naturelle de l'hélium 3 sur Terre par rapport à l'hélium 4 des gisements de gaz naturel permetSous certaines conditions, il est possible d'exciter des atomes, par exemple avec un laser à colorant, pour placer certains de leurs électrons dans des orbitales atomiques correspondant à un nombre quantique principal "n" égal à plusieurs dizaines d'unités, voire supérieur à 100. De tels atomes sont appelés "atomes de Rydberg". Ils ont des propriétés remarquables, telles qu'une très grande susceptibilité électrique et magnétique, une relative stabilité, et des fonctions d'onde électroniques approchant, dans une certaine mesure, l'orbite décrite par un électron en mécanique classique autour du noyau. Les électrons de cœur écrantent le champ électrostatique du noyau du point de vue de l'électron périphérique, pour lequel le potentiel du noyau est identique à celui d'un atome d'hydrogène. Le comportement de cetDifférentes formes d'atomes exotiques ont été conjecturées, et parfois observées. C'est le cas, par exemple, des atomes muoniques, dans lesquels un électron est remplacé par un muon : ce dernier étant plus massif qu'un électron, il présente des orbitales plus proches du noyau, ce qui donne des « atomes » plus petits. De la même façon, un électron peut être remplacé par un hadron, tel qu'un méson, une particule Σ, voire un antiproton. Le seul atome exotique ayant une durée de vie significative est le muonium,La notion d'atome est particulièrement bien admise par le grand public, pourtant, paradoxalement, les atomes ne peuvent pas être observés par des moyens optiques et seuls quelques rares physiciens manipulent des atomes isolés. L'atome est donc un modèle essentiellement théorique. Bien que ce modèle ne soit plus aujourd'hui remis en cause, il a beaucoup évolué au cours du temps pour répondre aux exigences des nouvelles théories physiques et rendre compte des résultats expérimentaux obtenus au fil du temps.Il est possible que divers peuples aient développé la notion de « grain composant la matière », tant ce concept peut sembler évident lorsque l'on morcelle une motte de terre, ou en regardant une dune. Dans la culture européenne, ce concept apparaît pour la première fois dans la Grèce antique au, chez les philosophes présocratiques, notamment Leucippe (environ 460-370 av. J.-C.), Démocrite et plus tard Épicure. La théorie atomiste sera ensuite magnifiquement exposée par le Romain Lucrèce dans son œuvre "De rerum natura", qu’il résume en affirmant que « les corps premiers sont [...] d’une simplicité impénétrable, et forment un ensemble homogène et étroitement cohérent de particules irréductibles [...] dont la nature ne permet pas qu’on puisse encore rien retrancher ni soustraire. » Un des arguments majeurs développé par les atomistes est la permanence de l'univers qui suggère l'existence d'objets ultimement insécables rendantDepuis des millénaires, on a remarqué que les produits se transforment : le feu, la métallurgie, la corrosion, la vie, la cuisson des aliments, la décomposition de la matière organique Par exemple, pour Empédocle, les transformations de la matière s'expliquaient de la manière suivante : il y avait quatre types d'éléments (eau, air, terre, feu) qui s'associaient et se dissociaient, en fonction de l'amour ou de la haine qu'ils se portaient — les fameux « atomes crochus ». Au Moyen Âge, les alchimistes ont étudié ces transformations et remarqué qu'elles suivent des règles bien précises. Vers 1760, des chimistes britanniques commencent à s'intéresser aux gaz produits par les réactions, afin d'en mesurer le volume et de les peser. Ainsi, Joseph Black, Henry Cavendish et Joseph Priestley découvrent différents « airs » (c'est-à-dire gaz) : l'« air fixe » (le dioxyde de carbone), l'« air inflammable » (le dihydrogène), l'« air phlogistiqué » (le diazote), l'« air déphlogistiqué » (le dioxygène)...Un autre pas, fait en parallèle, vient de l'étude des propriétés des gaz et de la chaleur (thermodynamique). Les fluides (liquides et gaz) sont étudiés en Europe depuis l'Antiquité, mais c'est au milieu du que l'on commence vraiment à cerner leurs propriétés, avec l'invention du thermomètre (thermoscope de Santorre Santario, 1612), du baromètre et du vide pompé (Evangelista Torricelli, 1643), l'étude de l'expansion des gaz (Gilles Personne de Roberval, 1647), la pression atmosphérique (Blaise Pascal et Florin Perrier, 1648), les relations entre pression et volume (Robert Boyle en 1660, Edmé Mariotte en 1685), la notion de zéro absolu (Guillaume Amontons, 1702) René Descartes (mathématicien, physicien et philosophe français) émet l'idée, en 1644, que les gaz sont composés de particules tourbillonnantes. Mais il ne s'agit là encore que d'une conception imagée, sans appui expérimental ; dans le mêmeÀ ce stade, ressortaient trois notions : Ces notions ont en commun le fait que la matière homogène est composée de corpuscules tous semblables entre eux, mais trop petits pour être visibles. Les découvertes du vont permettre de faire converger ces trois notions, et d'établir les notions de molécule et d'atome. John Dalton (chimiste et physicien britannique), en 1804, mesure les masses des réactifs et des produits de réaction, et en déduit que les substances sont composées d'atomes sphériques, identiques pour un élément, mais différents d'un élément à l'autre, notamment par la masse de ces atomes. Il découvre également la notion de pression partielle (dans un mélange de gaz, la contribution d'un gaz donné à la pression totale).La notion d'atome et de molécule a donc permis le succès de la thermodynamique statistique, de la chimie et de la cristallographie.Dans l'histoire des sciences, plusieurs modèles de l'atome ont été développés, au fur et à mesure des découvertes des propriétés de la matière. Aujourd'hui encore, on utilise plusieurs modèles différents ; en effet, le modèle le plus récent est assez complexe, l'utilisation de modèles « anciens » ou partiellement faux, mais plus simples, facilite la compréhension, donc l'apprentissage et la réflexion. Depuis l'antiquité grecque, on supposait que la matière pouvait se fractionner en petits morceaux jusqu'à obtenir des grains indivisibles, qu'elle était comme « de la poussière dans la lumière ». C'est avec l'expérience de Rutherford que l'on atteint enfin ce grain : les particules α, en traversant la matière, voient leur trajectoire perturbée, ce qui va permettre enfin de savoir comment est organisée cette « poussière »...Les modèles présentés dans cette section sont trop éloignés de la réalité pour pouvoir être utilisés. Ils ne sont présentés ici qu'à titre historique.Avec la découverte de l’électron en 1897, on savait que la matière était composée de deux parties : une négative, les électrons, et une positive, le noyau. Dans le modèle imaginé alors par JosephL'expérience de Rutherford met en évidence que les charges positives ne sont pas « étalées » entre les électrons, mais sont concentrées en de petits points. Il bombarda une fine feuille d'or par un faisceau de particules alpha (particules de charges électriques positives). Il observa que les particules étaient déviées faiblement, ce qui ne correspondait pas au résultat prévu par le modèle de Thomson, pour lequel, elles n'auraient pas dû la traverser. Rutherford imagine donc un modèle planétaire : l'atome est constitué d'un noyau positif autour duquel tournent des électrons négatifs. Entre le noyau et ses électrons, un très grand vide existe. Ce modèle fut très vite mis en défaut par les équations de Maxwell d'une part, qui prédisent que toute charge accélérée rayonne de l'énergie, et par les expériences montrant la quantification des niveaux d'énergie d'autre part.Le modèle le plus simple pour représenter un atome est une boule indéformable. Ce modèle est très utilisé en cristallographie. Une molécule peut se voir comme plusieurs boules accolées, un cristal comme des boules empilées. On utilise parfois une représentation « éclatée » : les atomes sont représentés comme des petites boules espacées, reliées par desUn modèle fut développé par Niels Bohr en 1913 à partir des propriétés mises en évidence par Planck et Rutherford. Dans le modèle des sphères dures, l’atome est un objet entier, indécomposable. Or, on sait depuis le milieu du que l’on peut en « arracher » des particules portant une charge électrique négative, les électrons. Dans le modèle de Bohr, l’atome est composé d’un noyau chargé positivement, et d’électrons tournant autour, les rayons des orbites des électrons ne pouvant prendre que des valeurs bien précises. Le noyau est très compact, d’un diamètre d’environ 10 à 10 m, c’est-à-dire que le noyau est cent mille à un million de fois plus petit que l’atome ; il porte une charge électrique positive. C’est aussi la partie la plus lourde de l’atome, puisque le noyau représente au moins 99,95 % de la masse de l’atome. Les électrons sont ponctuels, c’est-à-dire que leurLa naissance de la mécanique ondulatoire de Louis de Broglie en 1924, généralisée par Erwin Schrödinger en 1926 amène à proposer un nouveau modèle, dont les aspects relativistes furent décrits par Paul Dirac en 1928 ; il permet d'expliquer la stabilité de l'atome et la description des termes spectroscopiques. Dans ce modèle, les électrons ne sont plus des billes localisées en orbite, mais des "nuages de probabilité de présence". Ce point de vue, révolutionnaire, peut choquer en première approche. Cependant la représentation que l'on pouvait se faire d'un électron — une petite bille? — était dictée par les formes observées dans le monde macroscopique, transposées sans preuves dans leSi la mécanique quantique permit d'expliquer rapidement les caractéristiques spectroscopiques des atomes et des molécules, le cœur de l'atome, son noyau, fut plus difficile à comprendre. Les difficultés sont ici de deux ordres : l'une correspondant à l'importance de l'énergie des particules sondes permettant d'atteindre les dimensions de l'ordre du fermi, l'autre à la nécessaire invention d'au moins une interaction supplémentaire permettant la stabilité d'un noyau constitué de protons (qui se repoussent électriquement) et de neutrons. Cette compréhension de la cohésion du noyau devait aussi expliquer les phénomènes de radioactivité alpha, bêta et gamma, dont les premièresUn atome est couramment désigné par son symbole chimique, complété par son nombre de masse A (égal au nombre de nucléons de l'atome) placé en haut et à gauche du symbole. Exemple : le carbone 12 de nombre de masse 12 est noté formula_4. Il est d'usage de compléter cette écriture par le numéro atomique Z, placé en bas et à gauche du symbole, pour décrire une réaction nucléaire dans laquelle intervient un isotope. Le carbone 12 est ainsi noté formula_5. Ainsi, le carbone 14 formula_6 et le carbone 12 formula_5 sont deux isotopes.
Un atome est la plus petite partie d'un corps simple pouvant se combiner chimiquement avec un autre. Les atomes sont les constituants élémentaires de toutes les substances solides, liquides ou gazeuses. Les propriétés physiques et chimiques de ces substances sont déterminées par les atomes qui les constituent ainsi que par l'arrangement tridimensionnel de ces atomes.
xwikis
Les champs peuvent être classés d'après la nature mathématique de la fonction représentative, à savoir d'après les propriétés de transformation de cette fonction dans une transformation du système de coordonnées. Sont alors distingués : Cette classification n'est pas exhaustive. En effet, en mécanique quantique, par exemple, il existe des champs encore plus généraux, tels que le champ spinoriel.Dans le cadre de la mécanique classique, le champ n'est qu'une manière de décrire les interactions élémentaires. Cette notion peut avoir des avantages formels dans l'écriture des relations ou bien faciliter certaines études. Par exemple, l'accélération d'une particule soumise uniquement à la force de gravitation de Newton est donnée directement par la valeur du champ gravitationnel. Dans le cadre de l'électromagnétisme, dans la forme moderne qu'il a pris à partir de James Clerk Maxwell, le champ n'est plus seulement un "artefact" de calcul équivalent à la notion de "force à distance". En effet, le caractère fini de la vitesse de propagation des ondes électromagnétiques fait du champ une notion indispensable à la description des phénomènes électromagnétiques. Ainsi, la loi de Coulomb qui décrivait les interactions électrostatiques en termes de "force à distance" avant l'avènement de la notion de champ, n'est rigoureusement vraie que dans une approximation statique, c'est-à-dire, lorsque les sources du champ sont fixes et produisent un champ invariable au cours du temps. En règle générale, les forces s'exerçant sur une particule à un instant donné ne sont plus définies par les positions des particules à ce seul instant. Dans le cadre de la relativité générale, on prend aussi en compte la vitesse de propagation des interactions gravitationnelles. Le champ gravitationnel acquiert donc une réalité physique intrinsèque semblable à celle du champ électromagnétique décrit par Darren James.Selon le type de l'interaction, on distingue différents champs de force :
En physique, un champ est la donnée, pour chaque point de l'espace-temps, de la valeur d'une grandeur physique. Cette grandeur physique peut être scalaire (température, pression...), vectorielle (vitesse des particules d'un fluide, champ électrique...) ou tensorielle (comme le tenseur de Ricci en relativité générale). Un exemple de champ scalaire est donné par la carte des températures d'un bulletin météorologique télévisé : la température atmosphérique prend, en chaque point, une valeur particulière. La notion de champ est plus particulièrement adaptée à l'étude des milieux continus (mécanique des milieux continus, mécanique des fluides) ainsi qu'à celle des phénomènes électromagnétiques. Elle est indispensable à un traitement efficace des phénomènes ondulatoires.
xwikis
Le, le Parlement européen adopte une résolution demandant à l'Union soviétique d'autoriser le retour des époux Sakharov en Russie (il s'agit de la deuxième résolution sur le sujet, la première datant du ). Lors du débat, alors que plusieurs propositions sont faites pour honorer Sakharov, dont de conserver une « chaise vide » au Parlement en son honneur, le député Jean-François Deniau propose l'idée d'attribuer un prix. La commission politique du Parlement, avec Deniau rapporteur, adopte son rapport le qui pose les bases du prix Sakharov, soulignant que ce dernier est « un citoyen européen qui incarne la liberté d'esprit et d'expression ». La proposition est adoptée le D'après le texte adopté : « [le Parlement européen] déclare son intention d'instaurer un prix auquel sera donné le nom « prix Sakharov» du Parlement européen pour la liberté de l'esprit qui sera décerné chaque année à une étude ou un ouvrage rédigé sur un des thèmes suivants : Sakharov, dont l'accord pour la création du prix était obligatoire selon le texte adopté, donne son accord en avril 1987. Le Bureau du Parlement européen arrête les caractéristiques initiales du prix le, sur la base du texte du 13 décembre 1985. Le prix, s'il est destiné à récompenser la rédaction d'un ouvrage ou d'une étude, peut « également honorer des engagements, activités ou réalisations. ».Les statuts actuels du prix, adoptés le en révision de ceux arrêtés le 6 juillet 1988, mettent à jour la liste des sujets susceptibles de récompense au vu des évolutions politiques ayant survenu depuis sa création. La nouvelle rédaction supprime aussi la nécessité de rédaction d'une étude, élargissant le champ du prix « toute production intellectuelle ou artistique, engagement ou action menée ». La récompense monétaire est également portée de 5000 écus à. Selon la formulation actuelle des statuts : « Ce prix est destiné à récompenser une réalisation particulière dans un des domaines suivants : Par « réalisation », il faut entendre toute production intellectuelle ou artistique, l’engagement, ou l’action menée dans les domaines cités plus haut. »Le 15 décembre 2010, le prix a été remis à Guillermo Fariñas. Or les autorités cubaines n'ont pas autorisé le lauréat à venir à Strasbourg, malgré les demandes de Jerzy Buzek président du Parlement européen. Ce dernier a donc déposé le diplôme sur une chaise vide, couverte d'un drapeau cubain à la demande du dissident. Le prix a finalement pu lui être remis le 3 juillet 2013, dans l’hémicycle du Parlement européen à Strasbourg. Le 22 octobre 2013, Martin Schultz remet à Aung San Suu Kyi dans l’hémicycle du Parlement européen à Strasbourg le prix qui lui avait été décerné en 1990.
Le prix Sakharov pour la liberté de l'esprit, nommé en l'honneur du scientifique et dissident soviétique Andreï Sakharov, fut créé en 1988 par le Parlement européen pour honorer les personnes ou les organisations qui ont consacré leur existence à la défense des droits de l'homme et des libertés fondamentales.
xwikis
La citoyenneté européenne est l'aboutissement d'une évolution dont le point de départ fut le Traité de Rome en 1957. Il instaura en effet la libre circulation des personnes sur le territoire de la Communauté européenne. Néanmoins cette liberté restait conditionnée à une activité économique (travail salarié, prestation de services,...). En 1974, le Sommet de Paris a posé la question de « droits spéciaux » à conférer aux ressortissants de la Communauté économique. L'Acte unique européen de 1986 a modifié le Traité de Rome en permettant l'abolition des frontières intérieures (et donc suppression du contrôle des personnes). Cet espace n'a pas été créé avant le 31 décembre 1992 comme cela était prévu, néanmoins le Conseil étendit le droit de séjour aux personnes n'exerçant pas d'activité économique (sous réserve de ressources suffisantes et d'une couverture sociale). Ces droits furent institutionnalisés par l'instauration de la citoyenneté de l'Union européenne dans le Traité de Maastricht en 1992. En octobre de la même année, le Conseil européen réuni à Birmingham délimita les contours de cette citoyenneté en déclarant que « la citoyenneté de l'Union confère à nos citoyens davantage de droits et de protection, sans se substituer en aucune manière à leur citoyenneté nationale ». En 1997, le Traité d'Amsterdam a approfondi la libre circulation des personnes à travers l'Accord de Schengen, tandis que le Conseil européen de Tampere (1999) a réaffirmé le principe de la constitution d'un espace de justice européen permettant aux citoyens de saisir les tribunaux de n'importe quel pays.La citoyenneté européenne offre certains droits et privilèges à l'intérieur de l'Union. Dans beaucoup de domaines, les citoyens de l'Union ont les mêmes droits ou des droits similaires que les citoyens locaux des États membres. Les droits garantis aux citoyens de l'Union incluent :Les règles concernant la libre circulation des personnes sont pour la plupart définies par la directive 2004/38. Les citoyens de l’Union pourront séjourner dans un État membre pour une durée de trois mois sans aucune autre obligation que celle de détenir une carte d’identité ou un passeport en cours de validité. Toutefois, pour des périodes de plus de trois mois le droit de séjour d'un citoyen de l'Union (et des membres de sa famille l'accompagnant) est acquis sous certaines conditions<ref name="dir_2004/38"></ref> : Pour ces séjours d'une durée supérieure à trois mois, l'État membre d'accueil peut imposer aux citoyens de l'Union de se faire enregistrer auprès des autorités compétentes. Au-delà de 5 ans, le citoyen acquiert le droit de séjour permanent sur le territoire de l'État d'accueil. Le droit de faire venir sa famille est accordé aux citoyens européens mais peut ne pas être applicable pour les personnes vivant dans un pays dont elles ont la nationalité.Lorsque de nouveaux pays adhèrent à l'Union, le traité d'adhésion peut éventuellement spécifier des mesures transitoires pour limiter temporairement la libre circulation des ressortissants des États entrants, dans les États membres qui en font la demande. Le traité d'adhésion de 2004 accueillant 10 nouveaux membres, ainsi que celui de 2007 concernant la Bulgarie et la Roumanie contiennent de telles mesures. La restriction prévue par ces traités ne peut pas se prolonger pendant plus de 7 ans, répartis de la manière suivante : Ainsi, en 2010, les ressortissants de la Bulgarie et de la Roumanie ne sont pas totalement bénéficiaires du principe de libre circulation européen en France, l'obtention d'un titre de séjour et d'une autorisation de travail étant toujours obligatoire.En matière d'élections, un citoyen européen peut : En France, il peut être conseiller municipal, mais il ne peut être maire ou adjoint, ni participer, directement ou non, à l'élection des sénateurs. L'existence des Initiatives Citoyennes Européennes, lancées le avril 2012, a permis la mise sur pied d'une initiative intitulée "Let me Vote" et qui tente d'obtenir pour les citoyens européens le droit de vote à toutes les élections dans leur pays de résidence à l'intérieur de l'UE (voir le site de la Commission européenne, ainsi que letmevote.eu).Un citoyen européen peut être fonctionnaire dans son État de résidence mais uniquement pour des emplois ne mettant pas en jeu la souveraineté ou sécurité nationale. En France, par exemple, la loi du 26 juillet 2005 a ouvert la fonction publique aux étrangers ressortissant d'un État membre de l'Union européenne, réservant aux nationaux les seuls postes « impliquant l’exercice de la souveraineté ou mettant en œuvre des prérogatives de la puissance publique (armée, police, magistrature, diplomatie et administration fiscale) »Les devoirs des citoyens de l'Union européenne ne sont prescrits par aucun des traités actuels. Néanmoins la Charte des droits fondamentaux pose le principe suivant : "".La jurisprudence précise les droits des citoyens de l'Union. Les affaires suivantes donnent un aperçu de la diversité de cette jurisprudence.Les conditions posées par le droit national en matière d'octroi d'une aide couvrant les frais d'entretien des étudiants doivent être objectivement justifiées et indépendantes de la nationalité des citoyens de l'Union européenne. Pour déterminer si tel est le cas, une juridiction nationale doit vérifier que ces conditions sont appropriées pour établir l'existence d'un lien réel entre un citoyen de l'Union demandant une telle aide et le système éducatif national et la société nationale. En outre, ces conditions ne doivent pas aller au-delà de ce qui est nécessaire pour atteindre cet objectif.Les articles 12, premier alinéa, CE et 18, paragraphe 1, CE doivent être interprétés en ce sens qu'ils ne s'opposent pas à ce qu'un contribuable résidant en Allemagne ne puisse pas, en vertu d'une réglementation nationale telle que celle en cause dans l'affaire au principal, déduire de son revenu imposable dans cet État membre la pension alimentaire versée à son ex-épouse résidant dans un autre État membre dans lequel ladite pension n'est pas imposable, alors qu'il en aurait le droit si son ex-épouse résidait en Allemagne.Les articles 12 CE et 17 CE doivent être interprétés en ce sens qu'ils s'opposent à ce que, dans des circonstances telles que celles de l'affaire au principal, l'autorité administrative d'un État membre refuse de donner une suite favorable à une demande de changement de nom pour des enfants mineurs résidant dans cet État et disposant de la double nationalité dudit État et d'un autre État membre, alors que cette demande a pour objet que ces enfants puissent porter le nom dont ils seraient titulaires en vertu du droit et de la tradition du second État membre.Au stade actuel de son évolution, le droit communautaire n'exige pas qu'une prestation de sécurité sociale, destinée aux demandeurs d'emploi qui apportent la preuve de l'insuffisance de leurs ressources, soit versée à un citoyen de l'Union qui entre sur le territoire d'un État membre dans l'intention d'y chercher un emploi et qui ne justifie d'aucun enracinement dans cet État ni d'aucun lien avec le marché du travail national.Les enfants d'un citoyen de l'Union européenne qui se sont installés dans un État membre alors que leur parent exerçait des droits de séjour en tant que travailleur migrant dans cet État membre sont en droit d'y séjourner afin d'y poursuivre des cours d'enseignement général, conformément à l'article 12 du règlement (CEE) n° 1612/68 du Conseil, du 15 octobre 1968, relatif à la libre circulation des travailleurs à l'intérieur de la Communauté. Le fait que les parents des enfants concernés ont entre-temps divorcé, le fait que seul l'un des parents est un citoyen de l'Union et que ce parent n'est plus un travailleur migrant dans l'État membre d'accueil ou le fait que les enfants ne sont pas eux-mêmes des citoyens de l'Union n'ont à cet égard aucune incidence.Les articles 6 et 8 du traité CE (devenus, après modification, articles 12 CE et 17 CE) s'opposent à ce que le bénéfice d'une prestation sociale d'un régime non contributif, telle que le minimum de moyens d'existence prévu à l'article de la loi belge du 7 août 1974, soit subordonné, en ce qui concerne les ressortissants d'États membres autres que l'État membre d'accueil sur le territoire duquel lesdits ressortissants séjournent légalement, à la condition que ces derniers entrent dans le champ d'application du règlement (CEE) n° 1612/68 du Conseil, du 15 octobre 1968, relatif à la libre circulation des travailleurs à l'intérieur de la Communauté, alors même qu'aucune condition de cette nature ne s'applique aux ressortissants de l'État membre d'accueil.Dans l'affaire "Mario Vicente Micheletti et autres contre Delegación del Gobierno en Cantabria", il a été établi que. D'après cette même affaire, la double nationalité dont seule l'une des deux concerne un État membre est suffisante pour satisfaire les exigences de « citoyenneté de l'Union ». Les dispositions du droit communautaire en matière de liberté d'établissement s'opposent à ce qu'un État membre refuse le bénéfice de cette liberté au ressortissant d'un autre État membre qui possède en même temps la nationalité d'un État tiers, au motif que la législation de l'État d'accueil le considère comme ressortissant de l'État tiers.Les législations secondaires et les affaires existantes ont été consolidées par la Directive 2004/38/CE du 29 avril 2004 « relative au droit des citoyens de l'Union et des membres de leurs familles de circuler et de séjourner librement sur le territoire des États membres » modifiant le règlement (CEE) n°1612/68 et abrogeant une série de directives antérieures. L'article 24 de cette directive énonce que « tout citoyen de l’Union qui séjourne sur le territoire de l’État membre d’accueil en vertu de la présente directive bénéficie de l’égalité de traitement avec les ressortissants de cet État membre dans le domaine d’application du traité ». En d'autres termes, l'égalité de traitement n'est pas limitée aux travailleurs : un étudiant ou un chômeur, citoyen d'un État de l'UE, a les mêmes droits que les autres étudiants et chômeurs d'un autre État de l'UE, lorsqu'il réside dans celui-ci. La Cour de justice des Communautés européennes a renforcé ce droit (par exemple dans le cadre d'un citoyen allemand, parti travailler en Autriche puis bénéficiant par la suite d'allocations chômage en Autriche, revenu en Allemagne et qui réclamait à la Caisse autrichienne le versement de ces allocations ).Par définition, selon le traité de Lisbonne, De ce fait, la procédure de retrait du Royaume-Uni de l'Union européenne suppose pour les Britanniques la perte de la qualité de national d’un État membre, et donc, par définition, la perte de la citoyenneté de l'Union européenne. Toutefois,. De ce fait, un grand nombre de Britanniques, dont dix députés, ont demandé l'acquisition de la nationalité irlandaise afin de préserver leur citoyenneté européenne, engendrant une hausse notable des demandes de naturalisation, entre les résultats du référendum sur l'appartenance du Royaume-Uni à l'Union européenne et le déclenchement de l'article 50 du traité sur l'Union européenne. Des actions judiciaires ont également été ouvertes par des nationaux Britanniques s'estimant lésé et contestant leur perte de citoyenneté engendrée par le Brexit.L'Union européenne est partie prenante avec des pays tiers dans des accords relatifs à quelques droits de libre circulation des citoyens. Parmi ces accords, on trouve: Ces accords dont bénéficient certains citoyens de l'UE couvrent des droits spécifiques, sans qu'il s'agisse de l'ensemble des droits des citoyens de l'UE. Citoyenneté au sein des États membres de l'Union européenne :Nationalité des États tiers bénéficiant d'accords spécifiques avec les États membres de l'Union européenne :
La citoyenneté de l'Union européenne ou citoyenneté européenne est une qualité juridique qui accorde à celui qui la possède certains droits et certaines libertés publiques. Elle a été introduite par le traité de Maastricht signé en 1992. Elle est subordonnée à la notion de nationalité, qui relève de la seule compétence des États.
xwikis
À l'origine, certains aliments étaient cuits lentement dans un récipient en terre sur un lit de braises. Les cuisiniers ont vite remarqué qu'en couvrant le plat, le jus s'évaporait beaucoup moins, les arômes et les saveurs des denrées se concentraient davantage. Quand la cuisine s'est faite dans l'âtre de grandes cheminées, les plats de cuisson se sont multipliés, les couvercles se sont développés jusqu'à avoir un rebord permettant de poser des braises dessus, la cuisson à l'étouffée se faisant. Au, la braisière en cuivre avec couvercle emboîtant, allant au four, est courante dans tous les grands restaurants, mais elle est le plus souvent remplacée en cuisine ménagère par une cocotte en fonte. Anciennement, à une époque où il n'était pas possible de cuire à feu doux (cheminée) et où il n'y avait pas de four à domicile (sauf « grandes maisons ») un élément technique majeur des cuissons délicates se nommait le potager, qui était un muret muni de creusets à braises au dessus desquels ou posait des cocottes en terre pour mijoter ou maintenir au chaud. À part quelques grillades sur barbecue, depuis longtemps les cuissons « plats sur braises » ont été abandonnées, laissant place dans les cuisines à des matériels (cuisinière, four radiant, hygrométrie contrôlée, etc.) de plus en plus sophistiqués. La technologie employée dans la fabrication des fours et des plaques de cuisson permet d'obtenir des mijotages à des températures précises, au degré près, ou à des minutages minutieux. Certaines cocottes avaient gardé des rebords hauts, non plus pour la braise, mais pour y mettre de l'eau, maintenant ainsi dans le four une hygrométrie permettant de ne pas dessécher la préparation ; les fours à vapeur modernes ont la même fonction. De plus, la température de l’eau sur le couvercle ne dépassant pas les 100 °C, elle accentue la condensation des vapeurs de cuisson sous formes de gouttes ruisselant à l’intérieur de la cocotte, favorisant ainsi la réhydratation du jus de cuisson. Pour certaines cuissons plus aqueuses, le couvercle peut être remplacé par une feuille de papier sulfurisé, l'évaporation étant plus intense. Aujourd'hui, les techniques culinaires pour braiser les aliments ont aussi beaucoup évolué. Les modes de conservation et d'acheminement permettent d'utiliser un nombre de produits diversifiés de plus en plus important. Les liquides de mouillement vont d'une simple cuillère d'eau à des fonds pré-préparés en poudre sophistiqués, en passant par toutes sortes de liquides (jus de cuisson, vin, bière, jus de fruits, concentré de légumes...). Quelquefois, le sucre qui peut être utilisé pour la caramélisation est remplacé par du miel ou certains édulcorants naturels, comme la stévia. Les assaisonnements classiques de sel et de poivre sont souvent complétés par une multitude d'épices et d’herbes aromatiques venues du monde entier, ou remplacés par des concentrés de soja ou du nuoc-mâm. Les corps gras pour saisir les produits au départ sont aussi variés que les régions d'origine des recettes proposées, graisses animales (beurre, saindoux...) ou huiles végétales (olive, tournesol, argan...).La cuisson braisée s'appliquent à des morceaux riches en collagène, c'est-à-dire des morceaux de viande qui nécessitent d'être attendris par une cuisson douce et longue. C'est très certainement une des cuissons les plus difficiles à maîtriser et à comprendre.Le braisage consiste en cuire une viande longuement après coloration, dans un liquide additionné d'éléments gélifiants. La sauce épaissit grâce à la présence de gelée. Les braisages peuvent être confondus avec les ragoûts, qui sont des cuissons longues après coloration dans un liquide lié à la farine qui devient progressivement la sauce.En général, les viandes blanches sont raidies, c'est-à-dire qu'elles sont à peine dorées. La technique de base est respectée mais les liquides de mouillement seront plutôt de couleur claire.Les braisés de viande rouge respectent généralement la technique de base. Les liquides de mouillement seront plutôt foncés.Le braisage de poissons ne joue pas le même rôle que pour la viande car le poisson contient peu voire pas de collagène (c'est pour cela que les chairs ne se tiennent pas). La notion de braisage est à rapprocher de la cuisson longue dans un liquide. Et c'est tout. Il y a un peu de gelée qui se formera mais le rôle n'est pas d'attendrir les chairs. On braisera principalement les gros poissons (turbot, carpe...)La logique du braisage des légumes ressemble à s'y méprendre à celle des poissons. Il s'agit d'une cuisson longue dans un liquide dans le but d'aromatiser le légume et l'empêcher de sécher. Il existe beaucoup de techniques pour braiser les légumes. Cuisinés seuls, ils servent d'entrée ou de garniture à un plat de poisson ou de viande, et peuvent être : Parfois, le légume constitue l'élément principal du plat comme l'endive au jambon (appelée en Belgique "chicons au gratin"). La cuisine végétarienne propose également toute une diversité de recettes de légumes braisés, pleines de variétés et de saveurs.
Braiser, en cuisine, est une technique de cuisson consistant à faire mijoter longuement à feu doux des aliments dans un récipient fermé, comme dans la cuisson à l'étouffée, dans un peu de liquide plus ou moins aromatisé. Contrairement à la cuisson à l'étouffée, les éléments sont "saisis" au préalable, c'est-à-dire "revenus" sur toutes leurs faces dans un corps gras très chaud.
xwikis
La, dans le langage courant, est souvent confondue avec la notion de température. Bien que très différentes d'un point de vue scientifique, les deux notions sont tout de même reliées entre elles et l'histoire de la genèse de la thermodynamique a parfois induit cette confusion. Les expressions comme « l'eau est chaude » pourrait faire croire, à tort, que la chaleur est une propriété du système alors qu'il s'agit d'un transfert d'énergie. Aussi, il est incorrect de dire « l'eau perd de la chaleur » lorsqu'elle refroidit. L'expression « transfert de chaleur » est un pléonasme pourtant très répandu. Jusqu'au, les scientifiques pensaient que la chaleur était constituée d'un fluide que l'on avait nommé le phlogistique (théorie du phlogistique). Au, la chaleur est assimilée à un fluide : le calorique. Les progrès et les succès de la calorimétrie imposent cette théorie jusqu'au milieu du. Cette conception est par exemple reprise par Sadi Carnot : un moteur thermique ne peut fonctionner que si la chaleur circule d'un corps dont la température est plus élevée vers un corps dont la température est plus faible ; raisonnement correspondant à une analogie avec une machine hydraulique qui tire son énergie du passage de l'eau d'un réservoir d'altitude élevée vers un réservoir d'altitude inférieure. Ce n'est qu'avec l'avènement de la thermodynamique statistique que la chaleur sera définie comme un transfert de l'agitation thermique des particules au niveau microscopique. Un système dont les particules sont statistiquement plus agitées présentera une température d'équilibre, définie à l'échelle macroscopique, plus élevée. La température est donc une grandeur macroscopique qui est le reflet statistique des énergies cinétiques des particules à l'échelle microscopique. Au cours de chocs aléatoires, les particules les plus agitées transmettent leurs énergies cinétiques aux particules les moins agitées. Le bilan de ces transferts d'énergies cinétiques microscopiques correspond à la chaleur échangée entre des systèmes constitués de particules dont l'agitation thermique moyenne est différente. La température est une fonction d'état intensive servant à décrire l'état d'équilibre d'un système alors que la chaleur est un "transfert" d'agitation thermique assimilable à une quantité d'énergie, associé à l'évolution d'un système entre deux états distincts ou identiques si la transformation est cyclique.Les modes fondamentaux de transfert thermique sont : Pour les quantifier, il est pratique d'utiliser le flux thermique formula_1, qui est la puissance échangée, en watts (W), ou encore mieux, la densité de flux thermique (ou flux thermique surfacique) formula_2 en watts par mètre carré ().Le transfert par conduction est un échange d'énergie se réalisant sans déplacement de matière : il concerne donc les solides et les fluides immobilisés. Ce transfert peut se réaliser au sein d'un seul corps ou par contact entre deux corps. L'énergie thermique due à la vibration des atomes autour de leur position d'équilibre dans le solide, se transmet de proche en proche : c'est un phénomène de diffusion. Les cristaux disposent d'un mode de transfert thermique supplémentaire particulier associé aux vibrations du réseau (voir phonon). Dans le cas le plus simple d'une paroi d'épaisseur "e" solide dont les deux surfaces d'aire "S", présentent une différence de température homogène "T" – "T", le flux thermique dépend de la conductivité thermique λ du matériau () : "R" est la résistance thermique de conduction. Pour une étude plus approfondie, il faut exploiter la loi de Fourier : C'est une loi de diffusion similaire à la loi de Fick qui décrit la diffusion de la matière.Le transfert thermique par convection est dû au déplacement de molécules qui induit un déplacement macroscopique de l'énergie thermique : il se produit dans les fluides (liquides ou gaz) et à l'interface entre un solide et un fluide. Ces molécules se déplaçant, elles transfèrent leur énergie thermique à une autre partie du système. On peut distinguer deux types de convection. Dans le cas le plus simple d'une paroi solide de surface "S" et de température homogène "T" en contact avec un fluide à la température "T" à grande distance de la paroi, le flux thermique dépend du coefficient de convection thermique "h" du matériau () : "R" est la résistance thermique de convection. Autrement écrit, formula_6. Le transfert thermique peut être formulé par la loi de refroidissement de Newton qui indique qu'il est proportionnel à la différence de température entre le corps étudié et son milieu environnant.Le rayonnement, parfois dit thermique, est un rayonnement électromagnétique. On l'associe souvent à un rayonnement infrarouge car c'est cette partie du spectre qui est le plus souvent prépondérante dans les échanges thermiques. Quelle que soit sa température, un corps émet un rayonnement, celui-ci est plus ou moins intense selon cette température. La longueur d'onde à laquelle est émise ce rayonnement dépend aussi de cette température. Ainsi, le rayonnement thermique émis par le Soleil est situé principalement dans le visible. Des corps plus froids comme les mammifères émettent quant à eux dans l'infrarouge. Ce mode de transfert est le seul à se réaliser dans le vide, cas du rayonnement solaire arrivant sur Terre. Néanmoins, celui-ci se réalise aussi dans les matériaux transparents. Il est important de le prendre en compte dans le cas des fortes température ou simplement en l'absence de conduction et de convection. Le corps noir est un corps théorique capable d'absorber la totalité du rayonnement qu'il reçoit. Il présente la propriété de respecter la loi de Planck et la loi du déplacement de Wien qui permettent de déterminer son spectre d'émission en fonction de sa température. Le flux thermique surfacique, qui équivaut à une exitance énergétique, s'exprime par rapport à l'émission du corps noir dans la loi de Stefan-Boltzmann : avec Si le corps récepteur réfléchit certaines longueurs d'onde ou est transparent à d'autres, seules les longueurs d'onde absorbées contribuent à son équilibre thermique. Si par contre le corps récepteur est un corps noir, c'est-à-dire qu'il absorbe tous les rayonnements électromagnétiques, alors tous les rayonnements contribuent à son équilibre thermique.Le transfert d'énergie par chaleur se réalise généralement par une combinaison de plusieurs modes de transfert. Par exemple, un chauffage central, combine la convection (en général forcée) pour chauffer le fluide dans la chaudière, la conduction pour chauffer les parois du radiateur et enfin la convection (en général naturelle) pour chauffer l'air, associée au rayonnement de la masse du radiateur (d'où son nom). Parfois le transfert thermique s'accompagne d'un transfert de matière. Par exemple, dans le cas de l'ébullition d'un liquide, une partie du liquide subit un changement d'état physique et le gaz ainsi créé se sépare du liquide.Soient deux objets "A" et "B" indéformables () formant un système isolé (). Conformément au premier principe de la thermodynamique, la variation de l'énergie interne est égale à la somme de la chaleur et du travail :. Si et sont respectivement les énergies thermiques élémentaires échangées entre l’objet "A" et l’objet "B",, d’où :. Le deuxième principe de la thermodynamique permet d’écrire la relation suivante liant les entropies des objets "A" et "B" : puisque le système est isolé. Par définition, formula_12 formula_13, alors, il vient : Si < 0 et donc que > 0, alors. En vertu de la règle des signes, on conclut que l’objet "A" cède de la chaleur à l’objet "B". L’objet le plus chaud cède donc de la chaleur à l’objet le plus froid.Le premier principe de la thermodynamique est un principe de conservation de l'énergie. Il introduit la fonction d'état énergie interne. Au cours d'une transformation d'un système thermodynamique fermé, entre deux états "I" initial et "F" final, la variation de l'énergie interne est due à la somme : Ce qui se traduit par : formula_17. On en déduit donc une de la chaleur le long d'un chemin bien défini allant de I à F : L'intégrale curviligne permettant le calcul du travail des forces de pression: formula_18, n'est pas indépendante du chemin suivi pour aller de "I" vers "F" car le travail n'est pas une fonction d'état. Il s'ensuit également que la chaleur n'est pas une fonction d'état et donc qu'elle dépend du chemin suivi. Notamment si la transformation permettant d'amener un corps de l'état "I" à l'état "F" est réalisée de deux façons différentes, les chaleurs mises en jeu sont également "a priori" différentes. Néanmoins dans certaines conditions expérimentales, la chaleur mise en jeu est égale à la variation d'une fonction d'état. En voici quelques exemples, pour un système fermé contenant moles de matière.Ces propriétés sont mises à profit dans le domaine de la calorimétrie effectuée dans un calorimètre fonctionnant soit à pression constante soit à volume constant dans le cas d'une bombe calorimétrique.Le deuxième principe de la thermodynamique est un principe d'évolution. Il introduit la fonction d'état entropie qui est une mesure du désordre de la matière. La fonction entropie est définie à l'échelle macroscopique de telle sorte que sa variation au cours de la transformation réversible d'un système correspond au rapport de la quantité de chaleur échangée avec le milieu extérieur sur la température du système : Et pour une transformation finie à température "T" constante, allant d'un état "I" à un état "F" d'équilibre : La chaleur est donc associée à une variation d'entropie. Or, plus il y a création d'entropie, plus la transformation est irréversible et plus le travail utile récupéré sera faible : la chaleur est « une dégradation qualitative de l'énergie ».
Un transfert thermique, appelé plus communément chaleur est, avec le travail, l'un des modes d'échange d'énergie interne entre deux systèmes. C'est une notion fondamentale de la thermodynamique. On distingue trois types de transfert thermique, qui peuvent coexister :
xwikis
La friture de l’aliment peut se faire à la poêle, en sauteuse ou en friteuse. Un feu de friteuse peut résulter de l'inflammation spontanée d'un bain de friture surchauffé. Aussi les friteuses modernes sont-elles bridées, de sorte que la température ne puisse augmenter jusqu'à atteindre ce point.Beurre, huile, saindoux, graisse de canard ou d’oie, fond des lèchefrites, gras figé du bouillon précieusement recueilli, blanc de bœuf, toute matière grasse convient pour frire et fait friller l’aliment, mais chacune lui apporte un goût particulier. Il est préférable d'utiliser des huiles pauvres en acides gras insaturés, moins sensibles à l'oxydation. En France, la législation impose un taux maximal en acide linolénique pour les huiles de friture.En Belgique, on a conservé le rôti de viande crue dans le, un exemple assez peu classique de la traditionnelle conservation de la viande dans la graisse.Les fritures peuvent aussi être des desserts : bonbon cravate, bonbon miel, bugnes, "donut, makroud, zalabia", etc.Le terme friture s’applique à la fois, explique Joseph Favre dans son "Dictionnaire universel de cuisine. Encyclopédie illustrée d'hygiène alimentaire", en 1883. On peut donc correctement dire et écrire qu’il faut déterminer la température idéale de la friture (matière grasse) pour la friture (action de frire) de la friture (aliment).La friture étant notamment l’action de frire, il est utile de rappeler que ce verbe ne se conjugue pas à tous les temps ou toutes les formes (verbe défectif). Principalement usité à l'infinitif (frire) et au participe passé (frit, frite), il s'emploie également au présent de l'indicatif (uniquement au singulier : je fris, tu fris, il frit), à toutes les personnes du futur et du conditionnel présent (je frirai, nous frirons, tu frirais, vous fririez) et à l'impératif singulier (fris). Il peut être utilisé aux temps composés (j'ai frit, nous avions frit, etc.). Les formes manquantes sont remplacées par l’expression « faire frire » (ils font frire, tu faisais frire, que vous fassiez frire, faisons frire).
La friture est un mode de cuisson qui utilise de la matière grasse alimentaire comme vecteur de la chaleur qui altère l'aliment. Elle est notamment utilisée pour cuire les frites mais aussi les poissons, les beignets...
xwikis
Aung San Suu Kyi est la fille du général Aung San, qui a négocié l'indépendance de la Birmanie, et de son épouse,. Son nom est composé de celui de son père ("Aung San"), de sa grand-mère maternelle ("Suu") et une partie de celui de sa mère ("Kyi"). Le, presque six mois avant l'indépendance, son père est assassiné, avec les membres de son cabinet, par un rival politique, U Saw. Après la disparition de Aung San, son épouse et ses trois enfants vivent à Rangoun, à l'époque capitale du pays. Aung San Lin, un des deux frères de Suu Kyi, meurt accidentellement alors qu’elle avait huit ans. Sa mère commence à s'engager dans les milieux sociaux et publics, gagne peu à peu une certaine importance dans le paysage politique du gouvernement des années 1950 et 1960 puis est nommée ambassadrice de la Birmanie en 1960 à Delhi, en Inde. Suu Kyi étudie à l’École anglaise catholique de Birmanie puis rejoint sa mère en Inde afin de terminer ses études secondaires au à New Delhi en 1964. Suu Kyi part ensuite pour la Grande-Bretagne, où elle suit un cursus de philosophie, politique et économie au St Hugh's College d'Oxford de 1964 à 1968. En 1969, âgée de 24 ans, elle part pour New York et entame un second cycle d'études supérieures, qu'elle abandonne après quelques semaines. Elle est hébergée pendant trois ans par sa compatriote Ma Than E, en poste au siège de l'Organisation des Nations unies, où Suu Kyi devient secrétaire-assistante du comité des questions administratives et budgétaires. En 1972, elle se marie à Michael Aris, un jeune homme rencontré à Oxford alors qu’il étudiait les civilisations tibétaines. En 1973, Suu Kyi donne naissance à son premier enfant, Alexander, à Londres. En 1977, elle a un second enfant, Kim, né à Oxford. Suu Kyi vit alors entre le Royaume-Uni et le Bhoutan, pays où habite son mari, car il fait à cette époque une étude sur l’Himalaya et le Tibet. Outre le birman, Aung San Suu Kyi parle couramment l'anglais et pourrait pratiquer le français qu'elle a appris sur cassettes audio durant ses années d'isolement. En 1985, elle s'inscrit à l'École des études orientales et africaines de Londres pour préparer un master en philosophie, mais en 1988 elle abandonne cette formation universitaire pour aller au chevet de sa mère, malade en Birmanie.En 1988, Aung San Suu Kyi retourne vivre en Birmanie afin de s’occuper de sa mère, vieillissante. Cette année-là, le général Ne Win, chef du parti socialiste au pouvoir, perd peu à peu le contrôle du pays. Des manifestations pro-démocratiques éclatent dans tout le pays. Elles sont violemment réprimées par l’armée. Une nouvelle junte militaire, le Conseil d'État pour la restauration de la Loi et de l'Ordre, prend le pouvoir le 18 septembre 1988. Fortement influencée par la philosophie non violente du Mahatma Gandhi, Suu Kyi entre en politique. Sa première intervention publique a lieu le, à la pagode Shwedagon. En septembre 1988, avec les anciens généraux Aung Gyi et Tin Oo, elle annonce la création d'un nouveau parti, la Ligue nationale pour la démocratie (LND), qui appelle à des réformes démocratiques. Les co-fondateurs s'attribuent les postes de président, vice-président, et secrétaire général (pour Aung San Suu Kyi), et encouragent la grève générale qui dure depuis un mois.Le, elle est arrêtée par le gouvernement militaire, avec son bras droit, Tin Oo, pour trouble à l'ordre public. Elle reste assignée à résidence pendant six ans.Sous la pression populaire, la junte militaire organise des élections générales le 27 mai 1990. Le scrutin est très largement remporté par le parti de Suu Kyi, la Ligue nationale pour la démocratie, qui obtient 58,7 % des voix et 392 des 492 sièges de l'assemblée, contre 21 % des voix et 100 sièges pour le parti soutenant le pouvoir militaire. Les députés élus ne sont pas autorisés à siéger. Le 28 juillet 1990, la junte militaire annonce que la formation d'un gouvernement ne pourra se faire qu'après un long processus d'élaboration d'une constitution, laquelle devra recevoir l'agrément des militaires, puis un aval référendaire. Le 30 juillet 1990, le congrès de la LND, en l'absence des dirigeants Suu Kyi et Tin Oo, placés en résidences surveillées, refuse ce programme. Une répression s'ensuit. Suu Kyi reçoit le prix Sakharov et le prix Rafto, puis le prix Nobel de la paix l'année suivante, en 1991. L'un de ses discours les plus connus, "Libérez-nous de la peur" ("Freedom from Fear"), commence ainsi : Ce n’est pas le pouvoir qui corrompt, mais la peur : la peur de perdre le pouvoir pour ceux qui l’exercent, et la peur des matraques pour ceux que le pouvoir opprime... Dans sa forme la plus insidieuse, la peur prend le masque du bon sens, voire de la sagesse, en condamnant comme insensés, imprudents, inefficaces ou inutiles les petits gestes quotidiens de courage qui aident à préserver respect de soi et dignité humaine. (...) Dans un système qui dénie l’existence des droits humains fondamentaux, la peur tend à faire partie de l’ordre des choses. Mais aucune machinerie d’État, fût-elle la plus écrasante, ne peut empêcher le courage de ressurgir encore et toujours, car la peur n’est pas l’élément naturel de l’homme civilisé. En juillet 1995, elle est libérée de sa détention surveillée. Cependant, il lui est interdit de quitter Rangoon afin de rendre visite à sa famille, au Royaume-Uni, sous peine de se voir refuser le droit de revenir en Birmanie. En 1997, son mari, Michael Aris, atteint du cancer de la prostate, se voit refuser le droit de rendre visite à sa femme par le gouvernement. Aung San Suu Kyi ne revoit jamais son mari avant sa mort, en 1999 ; autorisée par la junte à quitter le pays, l'opposante préfère ne pas se rendre aux obsèques de son époux par peur de ne pouvoir être autorisée à rentrer en Birmanie. Elle est par ailleurs toujours séparée de ses enfants, qui vivent au Royaume-Uni. En 1996, en arrêtant un proche qui meurt en prison (affaire Nichols), la junte cherche à intimider Aung San Suu Kyi mais provoque un processus de sanctions internationales. Elle se voit refuser le droit de rencontrer les membres de son parti plusieurs fois. En septembre 2000, elle est mise une fois de plus en maison d’arrêt. Le, après une négociation secrète entre les Nations unies et la junte militaire, elle est libérée. Mais, le, son convoi est attaqué dans le village de Depayin par un groupe paramilitaire payé par la junte au pouvoir. Beaucoup de ses supporters sont tués ou blessés durant cette embuscade. Suu Kyi réussit à s’échapper grâce à son chauffeur Ko Kyaw Soe Lin, mais est arrêtée un peu plus tard. Elle est alors à nouveau emprisonnée à la prison d'Insein à Rangoon. Elle est ensuite transférée en maison d’arrêt en septembre 2003 à cause de ses problèmes de santé et d’une hystérectomie. En mars 2004, Razali Ismail, un envoyé spécial des Nations unies, rencontre Aung San Suu Kyi. Ismail a démissionné de son poste l’année suivante, en partie parce qu’il s’est vu refuser l’entrée en Birmanie par la suite. Le, Ibrahim Gambari, un autre envoyé spécial des Nations unies a pu rencontrer Suu Kyi, la première visite étrangère depuis 2004. De façon régulière, la junte militaire birmane prolonge l'assignation à résidence de la chef de l’opposition en vertu de la loi de 1975 de la protection de l’État, qui permet d’emprisonner des « éléments destructeurs » de l'État pendant cinq ans sans jugement. Le, Suu Kyi passe son anniversaire en maison d'arrêt, sa ligne téléphonique est coupée, son courrier filtré et elle n'a pas accès aux soins médicaux qu'elle désire. Des manifestations sont organisées devant les ambassades birmanes. Le, un appel est lancé par une cinquantaine d'anciens dirigeants du monde entier pour la libération d'Aung San Suu Kyi.Le, l'opposante birmane, assignée à résidence depuis 2003, est exceptionnellement sortie brièvement en pleurs de sa maison à Rangoun pour saluer des moines bouddhistes qui manifestent contre la junte militaire, pour la cinquième journée consécutive. Le, Aung San Suu Kyi est enfermée à la prison d'Insein. L'assignation à résidence expire le 27 mai 2007, mais est reconduite sans autre forme de procès pour un an, et l'est de nouveau le 27 mai 2008, totalisant ainsi sept ans d'assignation à résidence forcée. À partir de 2008, des inquiétudes s'expriment quant à sa santé. Elle est à nouveau placée en détention le. Selon la secrétaire d'État française Rama Yade, l’arrestation d’Aung San Suu Kyi, accusée d’activité subversive à quelques jours de sa libération, est un « prétexte manifestement recherché pour l’écarter du processus électoral, d’autant plus que la LND, le parti politique d’Aung San Suu Kyi, est totalement laminé ». L’objectif du régime est de « tout mettre en place pour arriver aux élections législatives de 2010 sans gêne, sans entrave ». Le, Aung San Suu Kyi est condamnée à dix-huit mois de détention, ce qui la prive de tout moyen de participer à l'élection générale de 2010. L'Union européenne menace la junte birmane de sanctions, et la Malaisie a appelé à une réunion d'urgence de l'Association des nations de l'Asie du Sud-Est (ASEAN). L'opposante birmane a décidé de faire appel. Son parti, la Ligue nationale pour la démocratie, boycotte les élections législatives de 2010, les premières depuis la victoire de 1990, et la participation est faible.Aung San Suu Kyi dispose d’un soutien assez important au Royaume-Uni et aux États-Unis, via la campagne pour une Birmanie libre ("Free Burma Campaign"). En 1995, le film "Rangoon", de John Boorman, évoque certains évènements autour d'elle. En 2001, le groupe rock irlandais U2 a créé la chanson « "Walk On" », dédiée à Aung San Suu Kyi. « "Walk On" » est interdite en Birmanie. D’autres groupes et artistes comme Coldplay, R.E.M., Wayne Shorter, Jane Birkin, Jim Carrey ou Damien Rice ont publiquement soutenu Suu Kyi. Elle a reçu le prix « "" » (Libère ton esprit) par les MTV Europe Music Awards en 2003. En 2004, plusieurs tentatives de pressions diplomatiques ont eu lieu de la part des États-Unis, des Nations unies et de plusieurs pays afin de libérer Suu Kyi. Le Conseil de Paris l'a faite citoyenne d'honneur de la Ville de Paris en juin 2004 (cette citoyenneté lui étant par la suite retirée en décembre 2018, en raison de son silence lors de la crise des Rohyingas). Le, plusieurs manifestations ont eu lieu devant les ambassades birmanes partout dans le monde à l’occasion du soixantième anniversaire de Suu Kyi. Le magazine américain "New Statesman" a élu en 2006 Suu Kyi « "Hero of our time" » ("héroïne de notre temps"). La même année, elle est classée comme la la plus puissante au monde par le magazine "Forbes". En 2012, elle est classée. Les universités belges, l'université Libre de Bruxelles et l'université catholique de Louvain (UCL, en 1998) lui ont décerné le titre de docteur honoris causa. Une pétition, soutenue notamment par le dalaï-lama, a été lancée en Norvège en 2005. Il a rencontré la lauréate du prix Nobel de la paix une première fois le 19 juin 2012 à Londres et une seconde fois en République tchèque à Prague le 15 septembre 2013, en privé en marge du Forum 2000, une conférence internationale. Il lui écrit une lettre en août 2012 où il a dit être « profondément attristé » et rester « très préoccupés » par les violences infligées aux musulmans en Birmanie. Le 28 mai 2015, il l'appelle à nouveau à agir en tant que prix Nobel de la paix, remarquant qu'il ne « suffit pas » d’envisager d'aider les Rohingyas, remarquant un manque de compassion altruiste. Le 11 septembre 2017, il écrit à nouveau à Aung San Suu Kyi l'appelant à trouver une solution pacifique à la crise des Rohingyas. 14 septembre 18 personnalités parmi lesquelles des politiciens, des artistes et 12 prix Nobel, ont adressée aux pays membres du Conseil de sécurité de l’Organisation des Nations-Unies une lettre afin d’évaluer la situation dans l’État d’Arakan. Le, une lettre signée d'une cinquantaine d'anciens dirigeants du monde entier (dont Bill Clinton, Jimmy Carter et Jacques Delors) appelle la Birmanie à libérer Aung San Suu Kyi. Initié par l'association Info Birmanie, un dialogue entre Aung San Suu Kyi et Stéphane Hessel a été enregistré en février 2011 par RFI, un évènement que Hessel attendait depuis 12 ans.Le, la police birmane enlève les barrières posées devant la résidence d'Aung San Suu Kyi, permettant ainsi sa libération alors qu'elle a passé 15 des 21 dernières années en résidence surveillée. Elle rencontre le président Thein Sein le, et apporte son soutien à l'ouverture engagée par le pouvoir, qui prévoit notamment de libérer de nombreux prisonniers.Ayant été autorisée à se présenter aux élections législatives partielles de 2012, elle a enregistré sa candidature le 18 janvier 2012. Le, elle remporte très largement le scrutin et obtient ainsi son premier mandat officiel : celui de députée. Son parti, la Ligue nationale pour la démocratie (LND), prétend avoir remporté au moins 43 sièges des 45 sièges en jeu et les résultats officiels portant sur 40 sièges indiquent que tous ceux-ci ont été remportés par la LND. Toutefois, le parti reste très minoritaire dans la chambre basse qui compte 435 sièges, et les prochaines élections générales ne sont prévues que pour 2015. Refusant de prêter serment sur la Constitution à la date prévue, le, Aung San Suu Kyi accepte finalement de le faire le. Aung San Suu Kyi siège pour la première fois comme députée à la chambre basse du Parlement le 9 juillet 2012. Pour la première fois depuis 28 ans, la nouvelle députée franchit les frontières de son pays, le, pour un séjour de six jours en Thaïlande où elle a assisté au Forum économique mondial sur l'Asie de l'Est, appelant à une amélioration de la justice en Birmanie, indispensable à des investissements étrangers bénéfiques. Elle a aussi rencontré de nombreux compatriotes dans la région de Bangkok et dans le camp de réfugiés de Mae La, où vivent de nombreux Karens. En juin 2012, elle effectue un tour d'Europe qui la conduit en Suisse, en Norvège, en Irlande, en Grande-Bretagne et en France. Son objectif est d'inciter l'Occident à soutenir la Birmanie sur la voie des réformes politiques et à favoriser son développement économique. Elle est reçue à Londres et Paris avec les honneurs réservés aux chefs d'État ; à Oslo elle reçoit, le, plus de vingt ans après son attribution, le Prix Nobel de la paix. Évoquant à la BBC les futures élections, elle se dit prête à diriger son pays. Le 27 mars 2013, elle assiste à un défilé militaire aux côtés des généraux qui dirigent la junte birmane. Certains de ses soutiens, y compris dans le parti Ligue nationale pour la démocratie qu'elle dirige depuis 1988, regrettent cette position et reprochent à la députée de soutenir systématiquement le gouvernement militaire. La minorité ethnique Kachin exprime sa méfiance envers Aung San Suu Kyi dès l'automne 2012, à la suite de la passivité de celle-ci alors que l'armée birmane refuse la négociation et réprime les indépendantistes kachin. En juin 2012, à la suite du meurtre d'une jeune bouddhiste, des violences inter-ethniques éclatent entre les communautés musulmane (Rohingyas) et bouddhiste de l'État d'Arakan. Des bouddhistes tiennent alors des discours haineux à l'encontre des Rohingyas. Aung San Suu Kyi refuse longtemps de réagir, afin de ne pas « attiser le feu d'un côté ou de l'autre ». Human Rights Watch publie, en avril 2013, un rapport accusant les autorités birmanes d'avoir amplifié les troubles et organisé, à partir d'octobre 2012, une « campagne de nettoyage ethnique » contre les musulmans. Dans un entretien postérieur à cette annonce, Aung San Suu Kyi refuse de condamner les violences contre les musulmans et nie fermement qu'un nettoyage ethnique ait eu lieu en Birmanie. Cette attitude lui vaut des critiques au sein de la presse internationale ou « L'auréole ternie d'Aung San Suu Kyi » ; de grands titres de la presse anglo-saxonne se montrent particulièrement cinglants, estimant que son attitude envers ces violences « fait froid dans le dos » et « méprise les droits humains au nom de la politique ».Son parti remporte les élections législatives de novembre 2015. Aung San Suu Kyi prépare alors une transition démocratique avec le président sortant, Thein Sein. Lors de ces élections, le LND, exclut les musulmans de ses investitures, y compris les députés sortants, ce qui favorise l'élection d'un parlement sans aucun élu musulman pour la première fois depuis 1948.Aung San Suu Kyi annonce, le, son intention de se présenter à l'élection présidentielle de 2015. Lors de sa déclaration au Forum économique mondial sur l'Asie de l'Est, elle rappelle que la constitution birmane ne lui permet pas de se présenter. En effet, la constitution interdit à un Birman de se présenter s'il est marié avec un étranger : or, son époux, Michael Aris, était de nationalité britannique. Elle précise que pour qu'elle puisse se présenter à l'élection, la constitution doit être amendée. En juin 2014, un comité parlementaire vote contre une modification de la constitution, qui aurait permis à Aung San Suu Kyi de se présenter. Fin novembre de la même année, le président du Parlement exclut toute modification de la Constitution pouvant permettre à Aung San Suu Kyi de se présenter en 2015 ; un référendum pourrait être organisé mais son résultat ne prendrait effet qu'après les élections. Le Parlement birman élit, le 15 mars 2016, Htin Kyaw, proche d'Aung San Sui Kyi, à la fonction de président de la République du pays. Celui-ci est le premier chef de l'État élu démocratiquement depuis 1957. Il entre en fonction le avril 2016.Ne pouvant pas être présidente de la République, Aung San Suu Kyi devient ministre mais cumule autant de pouvoirs qu’elle peut le faire, le président Htin Kyaw étant considéré comme un de ses plus fervents partisans. Elle est ainsi ministre des Affaires étrangères et brièvement ministre de l'Éducation, de l'Électricité et de l'Énergie. Elle est également ministre de la Présidence, un portefeuille qui lui permet de jouir d'un statut de « super-ministre », devenant le numéro un d'un gouvernement comptant 21 titulaires. Malgré le poids important de l'ancienne junte, qui pèse dans l'appareil d'État, elle est considérée comme la dirigeante de la Birmanie "de facto". Le, Aung San Suu Kyi renonce à deux ministères au sein du gouvernement, l'Éducation et l'Énergie, qu'elle cumulait au sein d'un super-ministère comprenant aussi les Affaires étrangères et les relations avec la Présidence. Elle est nommée conseillère spéciale de l'État et porte-parole de la Présidence. D'une durée de cinq ans, ce nouveau poste consiste à faire la liaison entre la Présidence et le Parlement, et permet à Aung San Suu Kyi d'avoir accès à l'Assemblée. Après soixante ans de junte militaire, Aung San Suu Kyi se retrouve en difficulté afin de faire redémarrer le pays, la Birmanie manquant d'une classe intellectuelle et de cadres permettant de moderniser l'économie. Le 21 avril 2020, elle affiche officiellement son soutien à l'armée, qui est en lutte contre l"'Arakan Army", un groupe rebelle ethnique bouddhiste demandant plus d’autonomie pour l’État de l’Arakan.Malgré l'arrivée au pouvoir d'Aung San Suu Kyi, l'armée conserve un certain pouvoir dans le pays (un quart des sièges au Parlement et les ministères clefs), l'affaire des Rohingyas demeurant leur prérogative. Aung San Suu Kyi doit également composer avec le comité d'État de la Sangha Maha Nayaka, celui-ci développant avec l'armée un discours identitaire fort. Par ailleurs, depuis son indépendance en 1948, la Birmanie réprime ses minorités, et avant l'arrivée d'Aung San Suu Kyi au pouvoir, cela avait peu de résonance médiatique, ce que certains attribuent plus à la religion des victimes, musulmanes et non chrétiennes ou animistes, plutôt qu'à l'intensité des violences. En juillet 2016, l'ONU publie un rapport évoquant de possibles crimes contre l'humanité commis sous la mandature précédente. Dans la province d'Arakan, la minorité musulmane des Rohingyas est persécutée conjointement par la majorité bouddhiste et les autorités, avec une intensification des violences depuis 2012. De même que l'envoyée spéciale de l’ONU pour les droits humains en Birmanie Yanghee Lee, le Parlement européen demande à la nouvelle dirigeante d'intervenir. Alors qu'Aung San Suu Kyi semble en retrait sur cette question, la communauté internationale espère qu'il s'agit de sa part d'un simple calcul politique pour remporter les élections de 2015. Mais après son arrivée au pouvoir en avril 2016, Aung San Suu Kyi se refuse toujours à utiliser le terme « Rohingya ». En mai, elle tance l'ambassade des États-Unis, puis le secrétaire d'État américain John Kerry, qui ont employé publiquement ce mot, celui par lequel cette minorité se désigne elle-même. Le nouveau gouvernement birman, de même que les bouddhistes xénophobes, emploie le mot « Bengalis ». À la demande de Suu Kyi, son homologue français Jean-Marc Ayrault n'emploie pas publiquement le terme usuel en sa présence. Pour l'anthropologue spécialiste de la Birmanie Alexandra de Mersan, le gouvernement d'Aung San Suu Kyi, soulignant également que. Par ailleurs, l'armée fait monter la pression sur ce sujet afin de démontrer l'incapacité d'Aung San Suu Kyi à le gérer. En mars 2016, interviewée par Mishal Husain (BBC), elle s'emporte à la fin de l'entretien en déclarant : « personne ne m'a dit que je devais être interviewée par une musulmane ». À la suite d'une attaque armée commise par une organisation rohingya ayant tué neuf policiers, le 9 octobre 2016, une nouvelle vague de répression est lancée. Des ONG, comme Amnesty International et Human Rights Watch, dénoncent des exactions de grande ampleur des forces de sécurité birmanes : viols, arrestations arbitraires, tortures, exécutions sommaires, destructions de maisons et de villages, internement forcé dans des camps. La situation est principalement connue par les témoignages des réfugiés et les photos de satellites, car l'accès à la province est globalement interdit, y compris aux travailleurs humanitaires. Dans un premier temps, ces ONG jugent qu'Aung San Suu Kyi est « réticente ou se trouve dans l'incapacité » d'agir. À l'étranger, ces exactions sont généralement qualifiées de « nettoyage ethnique », souvent de « crimes contre l'humanité », et parfois de « génocide », et Aung San Suu Kyi est accusée de passivité. Après presque deux mois de répression, une interview de la dirigeante affirme que le gouvernement « a réussi à maintenir la situation sous contrôle et à l'apaiser » tandis que « la communauté internationale [...] ne cesse d'attiser les feux de la rancune ». Le conseiller spécial de l'ONU pour la Birmanie,, publie un communiqué lui demandant personnellement un changement de cap. De son côté, Zeid Ra'ad Zeid Al-Hussein, haut commissaire aux droits humains, affirme que les positions du gouvernement birman sont « des vues à court-terme, contre-productives et sans cœur » et ne respectent pas « les obligations des lois internationales des droits humains ». Le 29 décembre 2016, onze lauréats du prix Nobel de la paix signent, avec d'autres lauréats du prix Nobel, une lettre ouverte aux Nations unies pour demander l'arrêt du « nettoyage ethnique et des crimes contre l'humanité ». Ils dressent un parallèle avec de précédents génocides, expriment leur « frustration » contre Aung San Suu Kyi, et soulignent sa « responsabilité » dans ces exactions de masse. Desmond Tutu, qui avait soutenu Suu Kyi lors de son silence sur les Rohingya en 2012-2013, figure parmi les signataires. Après une nouvelle vague d'exactions de l'armée qui commence en août 2017, Aung San Suu Kyi sort de son silence le, en accusant la communauté internationale et les médias étrangers d'avoir un parti pris pro-rohingya. Lors d'un échange téléphonique avec le président turc, Recep Tayyip Erdogan, qui avait fait part de ses inquiétudes sur le sort de la minorité musulmane, elle affirme :. Elle est cependant soutenue par la Chine, alors que le Premier ministre indien appelle à de la Birmanie et partage l'inquiétude de cette dernière sur concernant les policiers attaqués par des Rohingya. Pour le leader républicain au Sénat américain Mitch McConnell,. Le, Desmond Tutu lui adresse une nouvelle lettre ouverte dans laquelle il écrit notamment « Si le prix politique à payer pour votre accession à la plus haute charge publique du Myanmar est votre silence, alors ce prix est certainement trop élevé ». Vers la mi-septembre, une pétition lui reprochant son inertie envers le sort de la minorité musulmane, recueille près de. Le 19 septembre 2017, devant la pression internationale, elle affirme que la Birmanie se prépare à organiser le rapatriement de Rohingyas réfugiés au Bengladesh, mais met en doute la réalité des persécutions. Le même jour, Amnesty International critique le discours d'Aung San Suu Kyi, qui selon l'ONG. Alors qu'Aung San Suu Kyi bénéficiait jusque-là d'une aura internationale et d'un statut d'icône, l'épisode des Rohingyas participe à ternir son image. En 2017, des distinctions lui sont retirées en raison de son « inaction ». Ainsi, le conseil municipal d'Oxford lui retire à l'unanimité son attribution symbolique des clés de la ville et le St Hugh's College, où Aung San Suu Kyi fut étudiante, retire son portrait. Le conseil de la ville de Dublin lui retire également sa distinction. En raison de son inaction dans la crise des Rohingyas, l'université d'Oxford a retiré son portrait de ses murs, l'université catholique de Louvain a retiré son nom d'une de ses chaires, et le Musée de l’Holocauste de Washington a retiré son prix décernée à la dirigeante birmane pour son combat contre la dictature et en faveur des libertés. En réponse à une question d'Associated Press (AP) à propos d'un éventuel retrait du Prix Nobel pour Aung San Suu Kyi, le président en exercice du Comité Nobel affirme qu'« il est impossible de retirer son prix à un ou une lauréate du Prix Nobel de la Paix ». Le correspondant du "Monde" en Asie, Bruno Philip, regrette que la fascination dont faisaient auparavant preuve les médias occidentaux à son égard était béate et sans nuance, évacuant la complexité du caractère de la femme politique. Le 13 septembre 2018, au sujet de journalistes de Reuters condamnés pour avoir enquêté sur les opérations de l'armée birmane, et dont la libération a été réclamée par les ONG et l'ONU, elle défend leur condamnation, affirmant que ceux-ci peuvent faire appel de la décision, le pays étant un État de droit. Au sujet du cas des Rohingyas, qualifié de par les Nations unies, elle affirme que la situation. En raison de son attitude dans son conflit, elle se voit retirer en 2018 plusieurs de ses distinctions à l'international, notamment sa nationalité honorifique canadienne et sa fonction d'ambassadrice d'Amnesty International.Aung San Suu Kyi a écrit plusieurs ouvrages, seule ou en collaboration :
Daw Aung San Suu Kyi (en birman : /, : aung hcan: cu. krany, ), née le à Rangoun, est une femme d'État birmane, figure de l'opposition non-violente à la dictature militaire de son pays. Elle est lauréate du prix Nobel de la paix en 1991.
xwikis
Créée à partir de territoires austro-hongrois peuplés de Tchèques, de Slovaques et de Ruthènes, la Tchécoslovaquie inclut aussi une importante population de langue allemande dans les Sudètes ainsi que des minorités hongroises. Le pays a Prague pour capitale. Ses frontières avec l'Autriche et la Pologne sont fixées par le Traité de Saint-Germain-en-Laye le et avec la Hongrie par le Traité de Trianon. La Tchécoslovaquie est une république démocratique parlementaire, mais la nouvelle prééminence tchèque, parfois assez lourde, n'est pas toujours appréciée par les anciennes élites allemandes et hongroises, et après la crise économique de 1929 et la montée du nazisme en Allemagne, des dissensions apparaissent, et la minorité allemande des Sudètes est instrumentalisée par l'impérialisme hitlérien. Après les Accords de Munich en 1938 qui voient la sécession des Sudètes reconnue par la communauté internationale, une première partition a lieu durant la Seconde Guerre mondiale, les nationalistes slovaques profitant du dépeçage du pays pour créer un État indépendant dirigé par et soutenu par l'Allemagne nazie. Après la guerre, le pays est réunifié, à l'exception de la Ruthénie, annexée par l'URSS. La démocratie est abolie lors du Coup de Prague de 1948, par lequel les communistes imposent leur dictature : la Tchécoslovaquie est le dernier pays d'Europe à passer du côté soviétique du « Rideau de fer ». Une timide libéralisation en 1968, appelée « Printemps de Prague », entraîne l'intervention des forces du Pacte de Varsovie qui fait capoter ce qu'Alexander Dubček a appelé la « dernière chance de sauver le socialisme réel » et referme le pays pour vingt ans. Profitant de la politique de « glasnost » et de « perestroïka » mise en place par Gorbatchev en URSS, le pays retrouve sa liberté en 1989 grâce à la « Révolution de velours » et porte à sa tête le dramaturge et dissident Václav Havel. Celui-ci ne pourra empêcher les susceptibilités nationales (les Slovaques ressentant toujours mal la prééminence tchèque), encouragées par des dirigeants politiques populistes, de conduire à la partition du pays en 1993, mais la Tchécoslovaquie ne s'enfonce pas dans la guerre civile comme la Yougoslavie et le processus, surnommé « divorce de velours », sépare à l'amiable la Tchéquie et la Slovaquie.Dans sa courte existence (moins d'un siècle), la Tchécoslovaquie connaît de nombreux régimes politiques et réformes institutionnelles.L'indépendance de la Tchécoslovaquie est proclamée le dans la petite ville de Darney (Vosges) et entérinée par le traité de Saint-Germain-en-Laye moins d'un an plus tard. Elle inclut les territoires des actuelles Tchéquie et Slovaquie ainsi que la Ruthénie subcarpathique qui sera annexée par l'URSS en 1945 (aujourd'hui en Ukraine). Elle se termine avec les accords de Munich () et le départ en exil de son président, Edvard Beneš (). Après 1918, la Pologne et la Tchécoslovaquie étant incapables de trouver un accord au sujet du partage du duché silésien de Teschen jusque là autrichien, le Conseil Suprême des Alliés décide, fin, que la question sera réglée par un plébiscite. Face à de vives contestations, cette solution est rapidement abandonnée et le Conseil Suprême des Alliés procède alors au partage du territoire fin. La Pologne s'estime aussitôt lésée considérant qu'une très importante minorité polonaise passe sous contrôle tchèque. Ainsi, au moment où commencera le démantèlement de la Tchécoslovaquie en, la Pologne forcera la Tchécoslovaquie à lui restituer une partie du territoire, correspondant à l'actuelle Zaolzie.Diminuée des Sudètes annexés au Troisième Reich, du sud de la Slovaquie attribué à la Hongrie, et de la région de Zaolzie envahie par la Pologne, la deuxième République tchécoslovaque est envahie par les troupes allemandes le. Elle prend ainsi fin le, après une courte existence de quelques mois, avec la création du Protectorat de Bohême-Moravie et la déclaration d'indépendance de la République slovaque. Edvard Beneš fonde en exil le Gouvernement provisoire tchécoslovaque, auquel demeurent fidèles des troupes qui participent à la Seconde Guerre mondiale aux côtés des Alliés. En 1945, Edvard Beneš revient sur le sol de la Tchécoslovaquie libérée et décrète la formation d'un gouvernement de coalition. Après la fin de la Seconde Guerre mondiale, accusés d'avoir collaboré avec les nazis, les Allemands des Sudètes sont expulsés en masse de Tchécoslovaquie. Certains historiens, tchèques en particulier, considèrent comme frappés de nullité les gouvernements suivant la démission d'Edvard Beneš et qu'il y a ainsi continuité de la première République tchécoslovaque jusqu'en 1948. Cependant, du fait du bouleversement territorial et politique, le nom d'usage de « Deuxième République tchécoslovaque » est parfois utilisé pour désigner aussi bien l'éphémère État qui suit les accords de Munich que celui qui est reconstitué le par le président en exil Edvard Beneš. La période 1945-1948 est cependant également désignée sous le nom de troisième République tchécoslovaque. Cette deuxième — ou troisième — République prend fin avec le coup de Prague le quand Klement Gottwald, premier ministre depuis 1946 et chef du Parti communiste tchécoslovaque, parvient à s'emparer de tous les pouvoirs. Une nouvelle constitution, en mai, proclame le pays.Le nom officiel de République socialiste tchécoslovaque n'est adopté que le avec la nouvelle constitution, mais il ne s'agit que de la traduction dans les textes du putsch communiste qui a lieu en, mettant fin à la Troisième République tchécoslovaque. Dans les années 1950, la Tchécoslovaquie connait une croissance économique élevée (de l'ordre de 7 % en moyenne par an) permettant une augmentation substantielle des salaires et du niveau de vie, ce qui favorise la stabilité du régime. La contestation des aspects dictatoriaux du régime s'accroit nettement dans les années 1960, y compris à l'intérieur du Parti communiste, ce qui aboutira à la démission du président Antonín Novotný. Le Printemps de Prague, en 1968, qui vise à instaurer un « socialisme à visage humain » se solde par l'invasion des troupes du Pacte de Varsovie et se poursuit par une période de durcissement politique et idéologique, la « Normalisation ». Agitée par les revendications nationalistes des Slovaques, la République socialiste tchécoslovaque devient officiellement, à partir du, une république fédérale, composée de la République socialiste tchèque et de la République socialiste slovaque. Dans les faits, le nom de la République ne change pas et le pouvoir, dévolu dans les textes entre les parlements tchèque, slovaque et fédéral, reste aux mains du Parti communiste lequel est subordonné à Moscou. Elle prend fin avec la Révolution de velours, le quand le Parti communiste annonce qu'il abandonne sa mainmise sur le pouvoir politique. Le un nouveau gouvernement est formé.Après une courte période d'hésitation, au printemps 1990, sur le nom officiel du pays, l'État tchéco-slovaque est rebaptisé "République fédérale tchèque et slovaque". Les questions nationales travaillent la nouvelle entité et aboutissent à la dissolution de la Tchécoslovaquie le.La Tchécoslovaquie a pour codes :
La Tchécoslovaquie est un pays d'Europe centrale qui exista du au (à l'exception, "de facto", de la période 1939-1945). Elle réunissait les États actuels de Tchéquie et de Slovaquie de l'ancien Empire austro-hongrois (1867-1918), la Tchéquie étant elle-même constituée de la Bohême et de la Moravie. De 1919 à 1938, la Ruthénie subcarpathique (aujourd'hui ukrainienne) en faisait également partie.
xwikis
Les actes législatifs soumis à amendement ou approbation du Parlement dans le cadre de la procédure législative ordinaire (anciennement ) sont soit des "règlements", « directement applicables dans tout État membre », soit des "directives", qui « lient tout État membre destinataire quant au résultat à atteindre, tout en laissant aux instances nationales la compétence quant à la forme et aux moyens », soit des "décisions", obligatoires pour leurs destinataires (TFUE ). Le parlement approuve le président de la Commission européenne choisi par le Conseil européen, ainsi que la composition de la Commission, il peut la forcer à démissionner par l'emploi d'une motion de censure. Il participe au vote du budget de l'Union européenne et a le dernier mot pour les dépenses dites. D'autres organisations européennes, telles que l'Organisation pour la sécurité et la coopération en Europe (OSCE), le Conseil de l'Europe et anciennement l'Union de l'Europe occidentale (UEO) ont des assemblées parlementaires dont les membres sont nommés par les parlements nationaux. Mais d'une part elles ne sont pas des institutions de l'Union européenne, et d'autre part elles n'ont pas de pouvoir législatif. Le Parlement européen est le seul à être directement élu par les citoyens et à avoir une compétence législative. Par certains aspects, le Conseil de l'Union européenne et le Parlement européen sont comparables aux chambres haute et basse d'un système bicaméral mais, à quelques exceptions près et à la différence des parlements nationaux, ni le Parlement ni le Conseil ne peuvent être à l'initiative de proposition de textes législatifs, ce pouvoir étant réservé à la Commission européenne (article 17-2 du traité de l'Union européenne). Cependant, l'article 192 du traité d'Amsterdam (article 225 du traité sur le fonctionnement de l'Union européenne) précise que : Le Parlement européen peut, à la majorité des membres qui le composent, demander à la Commission de soumettre toute proposition appropriée sur les questions qui lui paraissent nécessiter l'élaboration d'un acte de l'Union pour la mise en œuvre de la Constitution. Si la Commission ne soumet pas de proposition, elle en communique les raisons au Parlement européen. La portée pratique de cette faculté est renforcée par l'accord du entre les trois institutions (Conseil de l'Union européenne, Commission européenne, Parlement européen) par lequel la Commission s'engage à donner suite aux demandes qui lui sont faites : La Commission tient compte des demandes de présentation de propositions législatives faites par le Parlement européen ou le Conseil, formulées respectivement sur la base de l'article 192 ou de l'article 208 du traité CE. Elle fournit une réponse rapide et appropriée aux commissions parlementaires compétentes et aux organes préparatoires du Conseil. Selon la Procédure législative ordinaire (dite de codécision), les actes législatifs sont adoptés conjointement par le Parlement et le Conseil sur proposition de la Commission (TFUE 289 et 251). Depuis le traité de Lisbonne cette procédure est devenue le cas général et couvre presque l'intégralité des secteurs en intégrant notamment les politiques de coopération policière et judiciaire. Les secteurs restants relèvent de la procédure de coopération et de la procédure de consultation (le Parlement rend un simple avis), ou de l'avis conforme (le texte est accepté ou rejeté par le Parlement sans possibilité d'amendement). L'article TFUE 294, qui précise la mécanique institutionnelle, dispose que pour être adoptés selon la procédure de codécision, les actes législatifs doivent être votés à la majorité par le Conseil et par le Parlement. En cas de désaccord, le Parlement peut rejeter le projet d'acte, ou l'amender à la majorité des parlementaires et non des présents (TFUE 294-7). Ces amendements issus du Parlement ne peuvent en outre être adoptés qu'à l'unanimité par le Conseil si la Commission européenne ne les approuve pas. Le Parlement européen peut rejeter et amender la partie dépenses du budget (TFUE 314). Il reste écarté des décisions sur les recettes de l'Union, c'est-à-dire ne vote pas la partie recettes du budget de l'Union, ne vote pas l'impôt, et est donc exclu de la fiscalité, dont le monopole appartient au Conseil après approbation à l'unanimité des États membres (TFUE 311). Cependant, la supervision des dépenses de l'Union européenne est l'une des compétences majeures des députés, notamment en accordant (ou pas) la « décharge » budgétaire à la Commission, par laquelle les députés valident la manière dont les fonds ont été gérés. En 1999 cette procédure avait mené à la démission de la Commission Santer, prouvant la montée en puissance du Parlement européen : la Commission Santer est poussée à la démission à la suite du refus du Parlement de donner la décharge budgétaire pour l'année 1996. Le Parlement élit pour cinq ans le président de la Commission européenne (TUE 14-1), mais seulement sur proposition du Conseil européen (les chefs d'État), qui tient compte des résultats des élections au Parlement européen (TUE 17-7). Les autres membres de la Commission sont désignés par le président « en raison de leur compétence générale et de leur engagement européen et parmi des personnalités offrant toutes garanties d'indépendance » (TUE17-3), et non pour correspondre à la majorité parlementaire. Quand bien même les futurs membres sont auditionnés individuellement, le Parlement accepte ou rejette en bloc la composition de la Commission : ainsi, le l'élection de la première Commission Barroso est repoussée de plusieurs jours, le Parlement ayant menacé de refuser de l'avaliser si Rocco Buttiglione était maintenu au poste de Commissaire à la Justice. C'est finalement Franco Frattini qui le remplace, et le nouveau collège est présenté le 4 novembre. Le Parlement européen exerce une certaine surveillance de toutes les activités de l'UE, en particulier celles de la Commission. Le Parlement peut ainsi censurer et donc démettre la Commission dans son ensemble, à la majorité des membres du parlement et des deux tiers des suffrages exprimés (TUE 17-8, TFUE 234). Le Parlement peut donner un avis consultatif sur toute question au moyen des déclarations écrites. Le Parlement nomme également le médiateur européen pour.Le texte du traité sur l'Union européenne, modifié par le traité de Lisbonne (art. 14-2), dispose que : Le Parlement européen représente plus de de citoyens de l'Union. Ses membres sont appelés députés européens. Les élections, au suffrage universel direct, se déroulent tous les cinq ans. Les citoyens de l'Union ne sont pas également représentés au Parlement européen : les petits États sont surreprésentés (comme Malte qui a un député pour habitants) au détriment des grands pays (comme l'Allemagne avec un député pour habitants ou la France avec un député pour habitants) ; en fonction de la population de 2011, un électeur allemand pèse donc onze fois moins qu'un électeur maltais et un électeur français douze fois moins. De même la Belgique, le Portugal, la République tchèque, la Grèce, et les grandes régions françaises du Sud-est ou de l'Île-de-France ont chacun une population oscillant entre d'habitants, mais les premiers éliront, les dernières 13 à 14 seulement. Comme le nombre de députés accordé à chaque pays résulte des négociations dans les traités, il n'y a pas de formule précise sur la répartition des sièges parmi les États membres. Aucun changement de cette configuration ne peut se produire sans consentement unanime de tous les gouvernements. Au sein de chaque État membre, le mode de scrutin est à la libre appréciation de chaque État membre. Cependant, il est soumis à trois règles : Cette dernière règle pose un problème de représentativité pour les États avec plus de. Par exemple, la France applique le seuil de 5%, ce qui a ainsi conduit à ignorer 19,7% des scrutins exprimés lors des élections de 2019. Généralement, les pays candidats à l'adhésion à l'UE envoient auparavant au Parlement des observateurs dont le nombre et les modalités de désignation sont fixés dans les traités d'adhésion signés par ces pays. Les observateurs peuvent assister aux débats et y prendre part sur invitation, mais ils ne peuvent pas voter ni exercer de fonctions officielles. Quand les pays deviennent membres de l'UE, leurs observateurs deviennent députés à part entière pendant une période d'intérim jusqu'aux prochaines élections européennes ou jusqu'à des élections intermédiaires dans les pays en question. Le nombre maximum de parlementaires (751 selon le traité de Lisbonne), peut donc temporairement être dépassé. Ainsi, depuis l'automne 2005, la Bulgarie et la Roumanie disposaient respectivement de 18 et 35 observateurs. Ils ont été sélectionnés par les parlements nationaux parmi les partis de la majorité comme de l'opposition. Le, ils sont devenus députés au Parlement européen, et des élections ont eu lieu en mai en Bulgarie et en novembre en Roumanie pour désigner de nouveaux élus jusqu'en 2009. Le Parlement européen a alors compté temporairement, en attendant les élections européennes de juin 2009 qui ont ramené ce chiffre à 732, chiffre maximal fixé par le traité de Nice en 2003. Extrêmement peu d’ex-ouvriers ont siégé sur les bancs du Parlement européen. En moyenne, selon les législatures, entre 0 % et 2 % des eurodéputés français depuis 1979 ont été ouvriers.La Communauté européenne du charbon et de l'acier (CECA) a établi, en septembre 1952, une "Assemblée commune" de issus des parlements nationaux des six pays constituant la CECA. Dans cette assemblée, les députés disposaient du pouvoir de sanctionner la Haute Autorité, organe exécutif de la communauté. Une rupture politique eut lieu en mars 1957 avec la création de la Communauté économique européenne (CEE) dont l’"Assemblée parlementaire européenne", renommée "Parlement européen" en 1962, était alors dotée du seul pouvoir de consultation. En 1979, le nombre de parlementaires a été une nouvelle fois augmenté et les membres ont été élus directement par le peuple pour la première fois pour une durée de cinq ans. Ensuite l'effectif du Parlement européen a simplement augmenté à chaque élargissement ; le nombre de députés a également été revu à la hausse en 1994 après la réunification allemande et le traité de Nice l'a porté à 732. Depuis l'entrée en vigueur du traité de Lisbonne en 2009, le Parlement européen compte (750 plus le président du Parlement qui n'a pas le droit de vote), à partir de la législature suivante, élue en 2014. Depuis le départ du Royaume-Uni le, le nom de députés a été ramené.En 1957, comme l'avait alors exigé la France, le Parlement n'était qu'une assemblée composée de députés des parlements nationaux sans aucun pouvoir. Il n'était donc pas question de lui permettre de déposer des propositions de lois. Il a fallu attendre le traité d'Amsterdam pour qu'il acquière un pouvoir d'initiative législative très limité, puisqu'il ne peut aller plus loin que demander un projet de loi à la Commission. Les Allemands, notamment Helmut Kohl, qui vivent sous une démocratie parlementaire, ont au contraire sans cesse demandé une extension des pouvoirs du Parlement, et bien que s'étant heurté aux oppositions des Français, du général de Gaulle à François Mitterrand en passant par le célèbre « Appel de Cochin » de Jacques Chirac, il a fini petit à petit par acquérir de plus en plus de poids sur la scène politique européenne, dans les seuls domaines où il a compétence : Rappelons toutefois que les amendements issus du Parlement doivent être adoptés à l'unanimité par le Conseil des ministres si la Commission européenne ne les approuve pas. Le Parlement n'a en définitive qu'un droit de veto, et n'a pas le pouvoir d'imposer ses choix. C'est jusqu'ici le traité d'Amsterdam qui a le plus augmenté les pouvoirs du Parlement européen. Le traité de Lisbonne s'inscrit également dans cette montée en puissance du Parlement européen en lui accordant le droit d'initiative constitutionnelle, et en rendant plus fréquent le recours à la procédure de codécision plutôt qu'à la procédure de l'avis conforme voire de la procédure de l'avis simple.Les principaux représentants et organes du Parlement sont : Le Parlement européen dispose également de délégations chargées des relations avec les parlements de pays non membres de l'Union.Le Parlement a vingt commissions et deux sous-commissions parlementaires permanentes. Actuellement il existe deux commissions spéciales. Le nom indiqué indique leur président élu en 2014. Les commissions sont composées de et sont dotées d'un président, d'un bureau et d'un secrétariat. Leur composition politique reflète celle de la plénière.Les députés au Parlement européen sont souvent organisés en partis politiques européens ou en regroupements assimilés lorsque ceux-ci ne sont pas reconnus ; ces partis sont souvent eux-mêmes regroupés au sein d'un même groupe politique sur la base d'affinités idéologiques. Les groupes politiques dépassent souvent le cadre d'un seul parti européen. Les députés restent membres de leur partis politiques national et la discipline dans les partis et les groupes européens n'est pas rigide. Les délégations nationales et les députés eux-mêmes sont libres de changer de groupe, comme ils sont libres de leur vote.Les partis politiques représentés au Parlement sont un type d'organisation politique reconnu par l'Union européenne depuis 1992 (traité de Maastricht) et éligible depuis 2003 pour recevoir des fonds communautaires sous certaines conditions. En fait ces « partis » ne sont pas toujours des organisations auxquelles peuvent adhérer les citoyens et constituent davantage des fédérations de partis nationaux., ces organisations ne présentent pas les mêmes traits distinctifs d'un parti : projet, organisation visant à la conquête du pouvoir par le moyen de la mobilisation électorale. Ce sont donc plutôt des lieux de rencontre et d'échange.Les groupes politiques du Parlement européen sont distincts des partis politiques européens, bien qu'ils soient souvent liés. Généralement, les partis européens comptent également parmi leurs membres des partis appartenant à des pays européens extérieurs à l'UE. Au début de la sixième législature en 2004, il y avait sept groupes, ainsi que plusieurs députés non-inscrits. Jusqu'en, il fallait au moins issus d'un cinquième des États membres pour former un groupe politique. Depuis, après les élections européennes de 2009, il faut issus d'au moins un quart des États membres (c'est-à-dire de membres). Les députés européens ne peuvent être membres de plusieurs groupes à la fois. En revanche, ils peuvent n'appartenir à aucun groupe : on les appelle alors les « non-inscrits ».Le Parlement européen dispose également de délégations dédiées à un pays ou à une zone géographique donnée. Ces délégations, constituées de députés européens, organisent des rencontres et des visites, et ont pour objectif de favoriser les échanges entre les parlementaires européens et leurs homologues étrangers. Elles sont réunies dans une conférence des présidents des délégations.Les prochaines élections se tiendront en 2024.En 1979, lors de la première élection des représentants au Parlement européen, l'abstention s'élevait à 37 % en moyenne. Elle n'a depuis pas cessé d'augmenter pour atteindre 54,3 % en 2004. L'abstention progresse pour la plupart des pays, sauf en Belgique, au Danemark, au Luxembourg et au Royaume-Uni, où le taux d'abstention est assez stable (proche de 67 % au Royaume-Uni). En 2004, le taux d'abstention a été d'autant plus élevé que la date d'adhésion était proche : 51 % pour les les plus anciens, 54 % pour les ayant adhéré entre 1981 et 1995, et 73 % pour les ayant adhéré en 2004. Le record d'abstention, en 2004, est atteint par la Slovaquie avec 83 %, suivie par la Pologne (79 %). Au sein des six pays fondateurs, le taux d'abstention a en moyenne systématiquement augmenté de 1979 (30 %) à 2004 (48 %), ce taux passant même de 31 à 50 % si l'on exclut les (Belgique et Luxembourg) où le vote est obligatoire. Le Parlement européen n'a jamais connu de majorité partageant une même idéologie. Le Parti populaire européen (PPE) et l'Alliance progressiste des socialistes et démocrates au Parlement européen (S&D). Pascale Joannin, directrice générale de la fondation Robert-Schuman, estime que.En Belgique, l'élection des eurodéputés a lieu au scrutin de liste à la proportionnelle, sans panachage. Depuis 1979, l'élection se déroule dans le cadre de trois collèges électoraux : le collège néerlandais (en Flandre et à Bruxelles), le collège français (en Wallonie et à Bruxelles) et le collège germanophone (Communauté germanophone). La participation au vote en Belgique est obligatoire.En France, l'élection des eurodéputés a lieu au scrutin de liste à la proportionnelle, sans panachage ni vote préférentiel. En 2004, un nouveau mode de scrutin a été mis en œuvre : pour la première fois, l'élection s'est déroulée dans le cadre de huit circonscriptions régionales Nord-Ouest, Sud-Est, Est, Massif-Central-Centre, Sud-Ouest, Île-de-France, Ouest, Outre-Mer. La participation à l'élection européenne en France a été inférieure à 43 %, en baisse de par rapport à celle de 1999. Pour l'élection de 2019, la France revient à une circonscription nationale unique. Le taux d'abstention aux élections européennes a toujours été plus important au niveau national que pour la moyenne européenne, et a augmenté continuellement depuis la première élection en 1979. Le taux d'abstention est ainsi passé de 39,3 % à 43,3 % en 1984, 51,2 % en 1989, 47,2 % en 1994, 53,2 % en 1999, 57,2 % en 2004, avant d'atteindre 59,5 % en 2009 puis de redescendre à 49,9 % en 2019.Le Parlement européen siège à Strasbourg, en France, au sein des bâtiments Louise Weiss et Winston Churchill (au Palais de l'Europe de 1977 à 1999). S'il n'y a bien qu'un seul siège, il y a néanmoins plusieurs lieux de travail : Strasbourg, Bruxelles (Belgique) et la ville de Luxembourg (Grand-Duché de Luxembourg). Ont lieu à Strasbourg les douze sessions plénières de l'année – une par mois sauf en août (aucune) et en septembre (deux) – qui actuellement durent chacune trois jours et demi. Ont lieu à Bruxelles les commissions parlementaires – la proximité du Conseil permet aux députés d'effectuer un travail important avec ce dernier – mais aussi six « mini-sessions » par an, officiellement appelées sessions plénières additionnelles. Enfin, la ville de Luxembourg a été dotée du Secrétariat général (administration et services de traduction et d'interprétation). Cette situation définie par le traité sur le fonctionnement de l'Union européenne est la conséquence de l'histoire-même du Parlement européen. En 1952, Strasbourg (ville-frontière, lourdement marquée par la Seconde Guerre mondiale) devient le siège de l'assemblée de la CECA et symbolise dès lors la réconciliation franco-allemande. En 1965, la CECA, la CEE et Euratom fusionnent. L'assemblée de cette nouvelle institution siège à Strasbourg, tandis que sa Commission et son Conseil se fixent à Bruxelles. Le secrétariat général du Parlement à peine né, ainsi que les deux reviennent à la ville de Luxembourg.Il existe une vive polémique au sujet de la répartition entre trois villes (Bruxelles, Luxembourg et Strasbourg) des bâtiments du parlement européen. En effet certains pensent qu'il serait préférable de n'avoir qu'une seule et unique ville abritant un seul parlement, mais aucune des trois villes ni aucun des trois pays ne souhaite céder sa part de l'institution, chacun avançant divers argument et rapports.Selon un sondage, environ 90 % des députés se font les avocats d'un déménagement total du Parlement de Strasbourg à Bruxelles. L'exemple le plus connu est celui de l'eurodéputée Cecilia Malmström qui a lancé en 2006 une pétition sur internet pour que le Parlement européen soit entièrement transféré à Bruxelles, arguant que la maintenance du site de Strasbourg coûterait plus de d'euros de frais directs (les bâtiments) et indirects (les transports entre Bruxelles et Strasbourg). Les transports entre les deux villes pollueraient aussi comme aller-retour entre Londres et New York. S'ajoutent à cet argument à la fois économique et écologique, des arguments de confort : déplacements fastidieux en train ou en avion des députés, de leurs assistants et de leur matériel. En outre, il n'y a de vols directs de Strasbourg qu'en destination de seulement six capitales européennes – par exemple pas de vol vers Vienne. D'autres députés tels que la Belge Frédérique Ries, l'Allemand Alexander Alvaro ou la Néerlandaise Jeanine Hennis-Plasschaert font également régulièrement entendre leurs voix dans ce sens. Le, une résolution du Parlement a été adoptée par 483 contre tendant à faire de Bruxelles le seul lieu du siège du parlement. Dans un rapport de, la Cour des comptes européenne a mentionné que le coût du maintien du siège à Strasbourg était de d'euros. Toutefois, ce rapport indique que l'hypothèse inverse de concentrer les activités vers Strasbourg n'a pas été étudiée. Ces arguments et ces chiffres sont contestés par l'étude publiée en février 2012 par l'Association européenne des jeunes entrepreneurs, qui a notamment démontré, documents officiels du secrétariat général du Parlement à l'appui, que le coût annuel du siège s'élève à d'euros et l'empreinte carbone à de, soit quatre et cinq fois moins que les chiffres régulièrement communiqués par les partisans d'un déménagement à Bruxelles ( d'euros et de ). Le siège bruxellois est apparu en 2017 comme fortement fragilisé par des infiltrations et une mauvaise conception, et nécessiterait d'importants travaux pour être utilisé définitivement comme siège du Parlement, voire une reconstruction. Devant ces révélations, la question du siège se pose de nouveau avec une nouvelle actualité.Il existe plusieurs campagnes pro-Strasbourg, telles que la campagne "OneCity" ou bien l'association « "Pour la Démocratie Européenne" ». Selon cette dernière, les chiffres avancés lors de la campagne "OneSeat" sont basés sur d'anciennes estimations et ne font pas la différence entre les trajets des députés de chez eux à Bruxelles ou Strasbourg et ceux qu'ils font entre Bruxelles et Strasbourg. Le coût total du maintien des trois lieux de travail (et non pas de Strasbourg uniquement) avoisinerait les d'euros. De plus, pour l'association basée à Strasbourg, certains arguments de « confort » avancés par les pro-Bruxelles, ne peuvent avoir plus de poids que l'idée de décentralisation (plusieurs capitales pour plusieurs pouvoirs) de la démocratie en Europe. Ces initiatives sont elles aussi soutenues par certains députés tels que la Luxembourgeoise Astrid Lulling ou l'Allemand. Toutefois, à partir de 2012, l'Association européenne des jeunes entrepreneurs (AEJE) a fait évoluer le débat en menant une étude complète sur la question du siège du Parlement européen. Cette étude a donné lieu à la publication de trois rapports nommés « le Siège dans tous ses États » réalisé sous la direction de Pierre Loeb, coprésident de l'AEJE. En, le dernier rapport « le Siège dans tous ses États : Strasbourg l'évidence », toujours sous la direction de Pierre Loeb, de Jean-Baptiste Horhant, avec l'aide de Pauline Brugeilles, Tristan Tottet et Elie Walther, pointe les défaillances du bâtiment Paul-Henri Spaak du Parlement européen de Bruxelles et les coûts de sa rénovation (entre et 1 milliard d'euros). C'est pourquoi, le dernier rapport de l'AEJE préconise qu'à la prochaine mandature en, le siège de Strasbourg soit le siège unique lors des rénovations des bâtiments de Bruxelles. Ce rapport passe au crible les arguments historiques, institutionnels, politiques, financiers et environnementaux. Il fait le constat. Ainsi, il conclut à la nécessité. Ce rapport a été présenté publiquement au Parlement européen le, par un panel de six députés européens, la Bulgare Mariya Gabriel, le Tchèque Libor Rouček, le Luxembourgeois Frank Engel et les Françaises Véronique Mathieu, Sandrine Bélier et Nathalie Griesbeck, autour de Pierre Loeb. Le rapport comprend trois grandes parties :À ce jour (2014), d'intérêt exerceraient une activité de lobbying au niveau de l'Union. Ce chiffre inclut juristes et consultants (804), représentants d'associations professionnelles et d'industriels (), ONG (), think-tanks et organisations académiques (478), organisations religieuses (40) et organisations locales, municipales ou régionales (303). En comparaison, il y avait en 2014 plus de lobbyistes accrédités à Washington, DC. Le Parlement européen a également édicté un code de bonne conduite spécifiant notamment les conditions d'accès à ses locaux et membres et le registre des accréditations. Les députés doivent signer une déclaration financière visant à éviter tout conflit d'intérêt entre l'exercice du mandat et des activités annexes.Le Parlamentarium est le centre des visiteurs. Il se répartit sur les deux sites du Parlement européen. Le premier, situé sur son site de Bruxelles à côté de l'Espace Léopold, a officiellement été ouvert au public le par son président Jerzy Buzek. C'est une exposition permanente, montrant l'histoire de la construction européenne et se focalisant sur les rôles et activités du Parlement. La visite se fait avec un guide multimédia disponible dans l'ensemble des langues officielles de l'Union européenne. De même, un deuxième Parlamentarium est inauguré le à Strasbourg par le président Antonio Tajani.Tous les ans, le Parlement européen décerne quatre prix à des personnes ou des organisations qui se sont distinguées dans le domaine des droits de l'homme, de la jeunesse, du cinéma ou de la citoyenneté européenne :Selon Olivier Costa, chercheur au CNRS, le Parlement européen a su être incubateur de nouveaux partis qui apparaissent plus tard au niveau national.
Le Parlement européen (PE) est l'organe parlementaire de l'Union européenne (UE) élu au suffrage universel direct. Il partage avec le Conseil de l'Union européenne le pouvoir législatif de l'Union européenne.
xwikis
Les noms de la Slovénie et de la Slovaquie ont tous les deux la même origine que le mot « Slave », qui provient soit vieux-slave "slovo" signifiant « mot » ou « parole » (c’est-à-dire parlant de manière intelligible aux Slaves), soit du mot "slava", « gloire ». La Slovénie et la Slovaquie sont souvent confondues, car les noms "Slovenská Republika" (qui signifie "République slovaque" en slovaque) et "Republika Slovenija" peuvent prêter à confusion dans de nombreuses langues. Chaque année, un poids considérable de courrier mal acheminé est à réexpédier vers la Slovénie ( en 2004). Cette confusion fait que le personnel se retrouve chaque mois pour échanger le courrier mal adressé. Les Slovaques appelaient le territoire où ils vivaient "Slovensko" (« Slovaquie »), terme apparu par écrit au mais qui n'était pas défini précisément, et certaines sources du y font référence sous les dénominations "Sclavonia" ou encore "Slováky", noms qui qualifiaient une aire à la fois géographique et ethnique, aux limites indéfinies. Cette région habitée par les Slovaques n'avait pas de statut légal, constitutionnel ou politique à l'intérieur du royaume de Hongrie.Le paysage slovaque est très contrasté dans son relief. Les Carpates (qui commencent à Bratislava) s'étendent sur la majorité de la moitié nord du pays. Parmi cet arc montagneux on distingue les hauts sommets des Tatras ("Tatry"), qui sont une destination très populaire pour le ski et contiennent deLa Slovaquie appartient à la zone climatique tempérée nord avec une alternance régulière de quatre saisons et des conditions météorologiques variables avec une répartition relativement uniforme des précipitations tout au long de l'année due à l'influence des courants de l'Atlantique. Ce climat océanique tempéré tend vers le climat continental principalement au sud du pays où les influences des masses d'air sec située à l'est accentuentAvec ses voisins hongrois et tchèques, la Slovaquie se trouve dans la région présentant le plus haut niveau de pollution atmosphérique et d'acidité des pluies en Europe. Cette situation est due à la circulation automobile et aux usines chimiques et agroalimentaires. En 2013, environ Slovaques ont souffert de maladies étant liées à cette pollutionLa plupart des régions ayant un intérêt écologique sont placées sous protection. En 2003, environ 23 % de la surface du pays était sous une de ces formes de protection : 9 parcs nationaux (12 %), 14 zones de paysage protégé (10,5 %), 181 sites protégés, 383 réserves naturelles, 219 réserves naturelles nationales, 230 monuments naturels et 60 monuments naturels nationaux.La Slovaquie est divisée en 8 régions ("kraje", au singulier "kraj"), nommées d’après leur capitale :On peut aussi noter l’existence de 79 districts ("okres").En 2008, 56 % de la population habitait en ville. La capitale, Bratislava, est la plus grande villeLe réseau routier est en bon état dans l’ensemble, même s'il a peu d’autoroutes (excepté autour de Bratislava, qui est relié à 4 autoroutes, y compris vers Vienne). LaŽeleznice Slovenskej republiky ("ŽSR, Réseaux ferrés de la république slovaque") est la société de droit public qui gère l'infrastructure ferroviaire en Slovaquie. LeL'aéroport principal du pays est l'aéroport M. R. Štefánik à de Bratislava (qui est aussi proche de l'Aéroport de Vienne-Schwechat en Autriche). D'autres aéroports pour passagers se trouvent à Košice, Poprad,Le Danube sur est la seule voie navigable de Slovaquie. Du fait que le fleuve se situe en grande partie surLa majorité des villes possèdent un réseau de bus, dans cinq villes ce réseau de bus est complétéLa Slovaquie est traversée par d'importants gazoducs, tel que le gazoduc Transgas reliant l'Ukraine à l'Autriche (et le hub de Baumgarten an der March). Son importance stratégique pour le gaz naturel devrait décroitre à l'avenir avec l'ouverture du gazoduc Nabucco. Elle est également traversée par l'oléoduc Droujba. En tout, elle est traversée par de gazoducs et d'oléoducs. Le pays est importateur d'électricité (de peu), mais dépend principalement d'importations pour son pétrole et son gaz naturel. La Slovaquie est dotée d'un réseau téléphonique moderne qui s'est largement étendu ces dernières années, principalement avec les services mobiles. Le réseau est en train d'être converti au numérique et à la fibre optique, particulièrement dans les grandes villes. Le service mobile est fourni par trois entreprises. Le pays a trois commutateurs internationaux, un à Bratislava et deux à Banská Bystrica. Le pays participe à des projets de communication internationaux. En 2009, le pays avait internet, et d'internet en 2008. Son est 421 et son domaine national de premier niveau.sk.Slavisé au, le territoire slovaque constituait le cœur de la Grande-Moravie et, à partir du, uneAprès la mort du roi de Hongrie Louis II à la Bataille de Mohács (1526), son beau-frère Ferdinand de Habsbourg est choisi à la fois comme roi de Hongrie par la diète de Pozsony/Pressburg/Prešporok (Presbourg, actuelle Bratislava) et comme roi de Bohême par celle de Prague. La dynastie règnera dès lors jusqu'en 1918. À la suite de la prise de Buda en 1541 par les Ottomans, et l'occupation de la Hongrie (sauf la Haute-Hongrie et ses riches mines d'argent), Pozsony/Pressburg/Prešporok devient la capitale de la Hongrie royale et la ville de couronnement de la couronne de Hongrie. AuÀ la suite du traité de Saint-Germain-en-Laye de 1919 et du traité de Trianon de 1920 mettant fin à la Première Guerre mondiale, la Slovaquie, les pays tchèques (Bohême, Moravie, Silésie tchèque), et jusqu'en 1939 la Ruthénie ont constitué de au la Tchécoslovaquie. Cette union politique, prônée à Versailles, accordée par le traité de Saint-Germain-en-Laye, démantelée par l'Allemagne nazie et reconstituée en 1945 est partiellement artificielle : les pays tchèques, l'ancien Royaume de Bohême (possession autrichienne), située en Cisleithanie, formaient un paysLe pays redevient indépendant au, trois ans après la « Révolution de Velours » de 1989 qui mit fin au régime communiste imposé par le « coup de Prague » de, le fédéralisme prôné par le « Printemps de Prague » de 1968 ayantLa Slovaquie est une république parlementaire ayant à sa tête un président, élu tous les cinq ans au suffrage universel, lors d'un scrutin uninominal majoritaire à deux tours). Le pouvoir exécutif est exercé principalement par le chef du gouvernement, le Premier ministre, qui est habituellement le chef du parti ou de la coalition majoritaire au parlement, nommé par le président. Le reste du gouvernement est nommé par le président sur recommandation du premier ministre. Le pouvoir législatif est exercé par le Conseil national de la République slovaque (), parlement monocaméral comprenant. Les délégués sont élus pour un mandat de quatre ans à la proportionnelle, lors d'une élection en un tour, où chaque parti ou coalition obtenant 5 % des voix (7 % pour une coalition de 2 ou 3 partis, 10 % pour une coalition de 4 partis ou plus). La plus haute juridiction est la Cour suprême (), qui siège à Bratislava. La Cour constitutionnelle () décide des questions constitutionnelles. Ses sont nommés par le Président pour, à partir d'une liste de candidats sélectionnés par le Parlement.La Slovaquie et la Tchéquie s'étant séparées pacifiquement, et étant tous les deux les États successeurs de la Tchécoslovaquie, le pays a été reconnu sur la scène internationale dès son indépendance. Il a été admis aux Nations unies après son indépendance. En 2005, le pays fut élu pour la première fois au Conseil de sécurité des Nations unies.La Slovaquie fait partie de nombreuses organisations internationales, telles que : Groupe Australie Banque des règlements internationaux Conseil de l'Europe Initiative centre-européenne Organisation européenne pour la recherche nucléaire Conseil de partenariat euro-atlantique Banque européenne pour la reconstruction et le développement Banque européenne d'investissement Union européenne Europol Organisation des Nations unies pour l'alimentation et l'agriculture Agence internationale de l'énergie atomique Banque internationale pour la reconstruction et le développement Organisation de l'aviation civile internationale Chambre de commerce internationale Cour pénale internationale Mouvement international de la Croix-Rouge et du Croissant-Rouge Association internationale de développement Agence internationale de l'énergie Société financière internationale Fédération internationale des Sociétés de la Croix-Rouge et du Croissant-Rouge Organisation internationale du travail Fonds monétaire international Organisation maritime internationale Organisation européenneL’Union européenne reste la priorité de la diplomatie slovaque. La Slovaquie a rejoint le premier groupe des pays adhérents et clôturé les négociations lors du Conseil européen de Copenhague, les 13 et. Elle a signé le traité d’adhésion le à Athènes et l'a ratifié massivement (plus de 92 % de oui) lors du référendum des 16 et. Son adhésion est devenue effective le. La Slovaquie dispose de 13 eurodéputés, et a ratifié le traité de Lisbonne le (par contre 5). La Slovaquie soutient en particulier la poursuite de la politique européenne de voisinage et souhaite prendre une part active dans la PESC et la PESD. Elle est attentive aux aspects concrets des politiques de l’Union européenne : budget européen, liberté de circulation des personnes, économie de la connaissance, culture et éducation, énergie, etc.En juillet 2009, la population slovaque était estimée à, faisant de la Slovaquie le le plus peuplé au monde. , la majorité des habitants de Slovaquie sont des Slovaques (80,7 %). Cependant, le pays compte une forte minorité magyarophone (de langue hongroise) dans le sud et l'est (8,5 % de la population nationale). Les autres ethnies sont les Roms (2,0 %) (Tsiganes), les Tchèques, les Ruthènes, les Ukrainiens, les Allemands et les Polonais. Selon ce même recensement, 62,0 % de la population est catholique, 8,8 % protestante, 4,1 % gréco-catholique, et 13 % athée. En 2009, 15 % de la population a moins de, et 12,5 % plus de. Le taux de natalité est de pour, plaçant le pays au mondial (ou 1,35 enfant par femme - au monde), le taux de mortalité de 9,53 pour ( mondial) et le taux deAlors qu’entre 1970 et 1985 les revenus réels avaient augmenté d’environ 50 %, ils ont chuté dans les années 1990. Le produit intérieur brut n’a retrouvé le niveau de 1989 qu’en 2007. L’économie de la Slovaquie est en forte croissance depuis 2000, en particulier grâce aux bénéfices de son intégration à l’Union européenne et des réformes libérales menées par le gouvernement de Mikuláš Dzurinda. Depuis 1999, le taux de croissance annuel n'a ainsi cessé d'augmenter, passant de +0,3 % à +8,8 % en 2007. Le terme « tigre des Tatras » est parfois employé, basé sur le terme Tigre celtique. L'ancienne ministre (de 1998 à 2002) Brigita Schmögnerová explique que : « Il y a toujours un consensus des dirigeants sur le dumping social. Depuis l’élargissement de l’Union européenne, les sociétés étrangères recherchent la main-d’œuvre la moins chère, mais, au lieu d’unir leurs forces, les gouvernements de la région rivalisent pour proposer le niveau de taxes le plus faible possible. » Lors de son entrée dans l’Union européenne, en 2004, la Slovaquie est ainsi devenue le premier pays de l’OCDE à mettre en place une imposition au taux unique intégral : 19 %, tant sur les bénéfices des sociétés que sur les revenus ou les biens de consommation. L’absence de progressivité de l’impôt conduit à une forte augmentation des inégalités. Les dépenses en matière de santé, d’éducation ou de logement sont inférieurs à la moyenne européenne. À la faveur d'une main d'œuvre assez qualifiée, des salaires faibles et un droit du travail flexible, le pays attire de nombreuses entreprises industrielles. Après Volkswagen à Bratislava, c'est PSA Peugeot Citroën qui a annoncé un investissement à Trnava, puis Hyundai à Žilina et aussi Jaguar Land Rover à Nitra. Le secteur de l'industrie automobile représente désormais un tiers du PIB et constituait le premier poste à l'exportation en 2006. En 2007, voitures devraient être assemblées dans le pays et en 2010. Hormis la métallurgie (vers la capitale et Košice), les principales activités du pays sont le bois et ses dérivés (région de Banská Bystrica et autour de Ružomberok), les biens d'équipement et, à un degré moindre, l'électronique et l'habillement. Le pays exploite aussi du charbon. Le PIB se montait en 2008 à de dollars, soit par habitant. Depuis le, l’impôt sur les sociétés est de 23 %. Quant aux personnes physiques dont le revenu mensuel est supérieur à 2750 EUR, elles seront imposées à 25%. Pour l'année 2009, le taux de chômage s'établit à 11,9 % de la population active. La balance commerciale slovaque est légèrement négative. En 2008 ses importations étaient de contre des exportations de. Les partenaires commerciaux de la Slovaquie étaient principalement des pays de l'Union européenne, la Russie, la Corée du Sud et la Chine. Un quart des exportations en 2004 étaient des véhicules. Les chaines de grande distribution sont arrivées au milieu des années 1990. Environ 10 % de la population active slovaque est expatriée en 2014. Le pays présente un niveau de chômage parmi les plus élevés d'Europe, avec 7,1 % de la population active sans emploi depuis plus d’un an.Le sport le plus populaire et le plus pratiqué en Slovaquie est le Hockey sur glace. La Slovaquie fait partie des meilleures nations au monde, étant classée actuellement au classement IIHF. L'équipe nationale a notamment été championne du monde en 2002. Par ailleurs de nombreux joueurs slovaques évoluent dans la LNH, la meilleure ligue du monde. En 2011, Bratislava et Košice ont été les villes hôtes du Championnat du monde de hockey sur glace 2011. Plus récemment encore, l'équipe nationale s'est classée seconde au ChampionnatL'équipe nationale avait failli se qualifier notamment pour la Coupe du monde de football 2006, seulement éliminée en matchs de barrages face à l'Espagne. La Slovaquie s'est qualifiée pour la première fois de son histoire pour la Coupe du monde de football 2010, le, en étant première de son groupe. Elle finit ainsi devant la Slovénie. Lors de la phase finale en Afrique du Sud, elle crée la surprise en éliminant l'Italie, tenante du titre, remportant la rencontre directe décisive surEn tennis, la Slovaquie est présente sur la scène internationale aussi bien chez les hommes que chez les femmes. Chez les hommes, la meilleure performance de l'équipe nationale est la finale de la Coupe Davis, où elle s'inclina face à la Croatie. OnLa Slovaquie fait partie des meilleures nations en canoë-kayak. Elle possède dans ses rangs, Michal Martikán le meilleur céiste de ces 15 dernières années avec Tony Estanguet. Il a à son palmarès plusieurs Coupe du monde et surtout 2 titres olympiquesLa littérature slovaque du Moyen Âge est en grande partie d'inspiration biblique et les thèmes, le style ont été souvent recopiés d'une œuvre à l'autre et étaient généralement anonymes. Si la littérature slovaque était active depuis la renaissance, elle n'a pris son essor qu'à partir de 1843 lorsque le dialecte du centre de la Slovaquie fut codifié pour en faire une langue au niveau national. Au apparait un nationalisme savant (avec des auteurs comme Juraj Papánek ou Juraj Sklenár), et avec les changements sociaux sous les règnes de Marie-Thérèse et Joseph (fin du système féodal, alphabétisation, rapprochement des notions de Nation et de communauté linguistique), les premières codifications du slovaque et textes littéraires en slovaque apparaissent. La seconde codificationLa tradition artistique slovaque remonte jusqu'au Moyen Âge. De l'époque, de nombreux maîtres sont connus, tels que maître Paul de Levoča ou Maître MS. L'art slovaque moderne a été influencé par le folklore slovaque et l'artLa musique slovaque remonte à la musique religieuse catholique, elle est étroitement liée à la musique des pays et peuples voisins (Autriche, Roms), et des états dont la Slovaquie a fait partie (Hongrie, Tchéquie). Elle a également d'autres influences telles que les musiques allemande, espagnole, française, italienne, ou provençale. La vie musicale ne reprend son cours pleinement qu'au (avec des compositeurs tels que Ján Kusser), à la suite des invasions ottomanes et Bratislava devenant la ville de couronnement hongroise, et qui reste jusqu'à maintenant un centre musical important, visité par de nombreux grands compositeurs. À la suite de l'indépendance, sur les bases de la musique tchèque et traditionnelle naît une musique nationale slovaque, avec des compositeurs tels queLe cinéma en Slovaquie a souffert sous le régime communiste de la censure, et depuis l'indépendance de la compétition internationale et la réduction desLa Slovaquie est aussi connue pour ses polymathes, tels que Pavel Jozef Šafárik, Matthias Bel, Ján Kollár, et ses réformateursLe Festival international duLa ville organise depuis 1967 la Biennale d'illustration de Bratislava (BIB), biennale internationale qui délivre les prix parmi les plus renommés pour lesDepuis 1991 se déroule la Biennale d'animation de Bratislava (BAB) ou Festival international de films d'animation pour enfants, biennale internationale qui rassemble et récompense des réalisateurs de films d'animation pour les enfants.De nombreux grands monuments ont été construits sous le régime communiste dans les années 1960 et 1970 (tels que le Pont du soulèvement national slovaque ou la tour de télévision du Kamzík), qui ne sont pasLa cuisine est fortement influencée par les cuisines hongroise, autrichienne et slave on retrouve donc sur les tables la goulasch, les Strudels et borchtch. Mais le plat national est un plat typiquement montagnard qui s'appelle halušky au brynza () et qui consiste en un plat de gnocchis au fromage de brebisLe slovaque est une langue du groupe slave occidental, proche du tchèque, qui présente trois principaux dialectes. Il fut codifié par Anton Bernolák en 1787 (Bernolák se basa sur le dialecte slovaque occidental pour codifier la première langue "littéraire" slovaque), et Ľudovít Štúr, qui se basa sur le dialecte central en 1843. Le slovaque est la seule langue officielle. Une nouvelle loi controversée adoptée par le parlement slovaque en juilletLa majorité des Slovaques s'identifie comme catholiques ou d'origine catholique (68,9 %), on compte également 6,93 % de luthériens, 4,1 % de gréco-catholiques, 2 % de calvinistes et 0,9 % d'orthodoxes et 13,0La Slovaquie a pour codes :
La Slovaquie, en forme longue la République slovaque, et, est un pays situé en Europe centrale, au cœur de l'Europe continentale et à l'est de l'Union européenne, dont elle est membre depuis 2004. Ses pays frontaliers sont la Pologne au nord, l'Ukraine à l'est, la Hongrie au sud, l'Autriche à l'ouest et la Tchéquie à l'ouest-nord-ouest. Du au, puis du au, elle a fait partie de la Tchécoslovaquie.
xwikis
En 1945, à la fin de la Seconde Guerre mondiale, l'Europe, affligée de destructions et de souffrances sans précédent, doit faire face à de nouveaux défis politiques, la réconciliation des peuples d'Europe en particulier. Cette situation est propice à la réalisation d'une idée ancienne : la construction européenne par la création d'institutions communes. Dans son célèbre discours prononcé à l'université de Zurich le 19 septembre 1946, Winston Churchill appelait de ses vœux la reconstruction de l'Europe continentale en une sorte d'États-Unis d'Europe et la création du Conseil de l'Europe. Au mois de novembre 1948, un comité international de coordination des mouvements pour l’unité européenne est créé. Visant à sensibiliser les politiques sur son projet, il souhaite organiser un événement qui marquera l'opinion publique. Cet événement sera le Congrès de La Haye qui, en 1948, a rassemblé plus d'un millier de délégués des gouvernements, des décideurs et de la société civile de presque tous les pays d'Europe afin d'examiner la future structure d'une organisation européenne. Il y avait là deux écoles de pensée : l'une favorable à une organisation internationale classique dotée de représentants des gouvernements et l'autre penchant davantage pour une tribune politique de parlementaires. Les deux approches ont finalement été combinées pour aboutir à la création du Comité des ministres et de l'Assemblée parlementaire.Le Conseil de l'Europe a été fondé le 5 mai 1949 par le traité de Londres, signé dans la même ville par les dix pays suivants : Belgique, Danemark, France, Irlande, Italie, Luxembourg, Pays-Bas, Norvège, Suède et Royaume-Uni. Le statut entre en vigueur le 3 août 1949. Dans le cadre de son objectif de promouvoir les droits de l'homme, il s'est doté le de la Convention européenne des droits de l'homme qui entre en vigueur le 3 novembre 1953. La Cour européenne des droits de l'homme est créée le en vue de faire respecter la Convention. La Convention énonce une liste de droits reconnus dans chacune des législations des 47 États membres et dont la Cour européenne des droits de l'homme surveille le respect en dernier recours.L'élargissement vers l'Est se fait en deux vagues successives : les pays d'Europe centrale et orientale sont les premiers à adhérer et sont suivis par l'Estonie, la Lettonie, la Lituanie, la Russie et la Slovénie et enfin les États issus de l'ex-URSS et de l’ex-Yougoslavie. À la suite de l'ouverture de l'Union soviétique, le Conseil de l'Europe décide le de créer le statut d'invité spécial à l'Assemblée parlementaire afin de faciliter l'élargissement. Ce statut est octroyé, dès le 8 juin de la même année, à la Pologne et à la Yougoslavie puis, durant l'été 1989, à la Hongrie et au Soviet suprême de l'URSS. La Secrétaire générale Catherine Lalumière – ayant pris ses fonctions le juin 1989 – souhaite ouvrir la politique du Conseil de l’Europe à l'est. Le 7 mai 1990, ce statut est également octroyé à la Tchécoslovaquie et à la République démocratique allemande. Enfin, le 3 juillet 1990, il est octroyé à la Bulgarie. Le 10 mai 1990, après la chute du mur de Berlin en novembre 1989, la Commission européenne pour la démocratie par le droit, aussi appelée « Commission de Venise », est créée dans le but d'aider les pays de l'ex-Union soviétique à mettre en place les lois et institutions nécessaires à leur démocratisation. Une des problématiques soulevées à cette période est celle de l'adhésion de la Russie, dont la demande est faite le. En effet, cela crée une tension entre la volonté de faire entrer dans l’organisation un État au poids politique important et le fait que ce même État ne respecte pas certaines valeurs fondamentales du Conseil de l’Europe. Le 15 juin 1992, la Douma prend le statut d'invité spécial à la suite du Soviet suprême. Cependant, en dépit du soutien affiché du Comité des ministres, la situation en Russie s'aggrave durant la crise constitutionnelle russe, culminant le par un siège du parlement russe mené par l'armée sous les ordres de Boris Eltsine. Lors du Sommet de Vienne, Eltsine rassure les chefs d’États et de gouvernement du Conseil de l'Europe en réaffirmant sa volonté d'adhérer. L'Assemblée parlementaire reste toutefois réticente. L'éclatement de la guerre de Tchétchénie en décembre 1994 conduit l'Assemblée parlementaire à geler les négociations d'adhésion de la Russie – sans lui retirer son statut d'invité spécial – par une résolution adoptée le 2 février 1995. La conclusion d'un accord de paix en juillet 1995 favorise, en dépit du fait que la guerre n'est pas encore finie, la reprise des négociations le 26 septembre 1995. Finalement, le 30 novembre 1995, la commission des affaires politiques donne son accord sur l'adhésion à la condition que les élections législatives russes de 1995 se déroulent correctement. Finalement, le principe de l'adhésion est accepté sans condition le 20 décembre 1995. Selon B. Wassenberg, cela montre « une pression politique forte [...] en faveur de l'adhésion de la Russie », qui ne respecte pourtant pas certaines normes et valeurs de l'organisation (droits de l'homme, état de droit, etc.), reposant notamment sur le besoin de maintenir la stabilité démocratique et la sécurité du reste de l'Europe. Finalement, le Comité des ministres invite la Russie le 8 février 1996 et l'adhésion devient effective le 28 février de la même année.Lors du premier Sommet du Conseil de l'Europe à Vienne en Autriche les 8 et, les chefs d’État et de gouvernement décident que le Conseil de l’Europe « serait le gardien de la sécurité démocratique fondée sur les droits de l'homme, la démocratie et l'état de droit ». Le 10 octobre 1997, Daniel Tarschys, professeur de sciences politiques à l'université de Stockholm et secrétaire général du Conseil de l'Europe de 1994 à 1999, prononce un discours relatif aux nouvelles menaces et au nouveau rôle du Conseil de l'Europe. Il souligne ainsi une transition d'une menace incarnée par la concentration du pouvoir militaire à des menaces plus petites, incarnant des fractures au sein de la société européenne : la pauvreté, le crime, la corruption, la démagogie. Rappelant la déclaration de Vienne de 1993, il rappelle la nouvelle définition donnée au rôle Conseil de l'Europe en tant que garant de la démocratie pluraliste. La « sécurité démocratique » est donc l'objectif principal du Conseil de l'Europe qui bénéficie de 5 atouts :En 2016, le Conseil de l'Europe compte 47 États membres.Le Conseil de l’Europe compte un État candidat : la Biélorussie.Le Conseil de l’Europe compte quatre États observateurs : le Canada, les États-Unis, le Japon et le Mexique, ainsi qu'un sujet de droit international : le Saint-Siège.Le siège du Conseil de l'Europe est fixé à Strasbourg, en France, par l'article 11 de son statut. Il a tenu sa première réunion au palais universitaire de Strasbourg en 1949 et occupe aujourd'hui le Palais de l'Europe sur un site où sont également regroupés le palais des droits de l'homme (siège de la Cour européenne des droits de l'homme) et d'autres bâtiments du Conseil tels que l'Agora, construite en 2007, et d'organismes qui en dépendent (Pharmacopée européenne, Centre européen de la jeunesse). Certains organes non statutaires sont basés ailleurs en Europe. Ainsi, la Banque de développement du Conseil de l'Europe a son siège administratif à Paris, le Centre Nord-Sud du Conseil de l'Europe est établi à Lisbonne (Portugal) tandis que le Centre européen des langues vivantes, porteur de projets liés au CECRL (Cadre européen commun de référence pour les langues), est situé à Graz (Autriche). Le Centre européen de la jeunesse comprend deux structures, l'une à Budapest (Hongrie) et l'autre à Strasbourg.La promotion des droits de l’homme et du droit en général ne sont pas ses seules prérogatives ; à cela s'ajoute un aspect culturel avec la Convention culturelle européenne du 19 décembre 1954, économique avec la création du Fonds de rétablissement, ou encore social avec la Charte sociale européenne de 1961. L'entente en Europe doit être favorisée par une meilleure compréhension commune des cultures et par la pratique des langues des autres pays membres. C'est à cette fin que le Conseil de l'Europe a initié le CECRL (Cadre européen commun de référence pour les langues) pour renouveler l'étude des langues. Les objectifs premiers du Conseil de l'Europe sont définis dans le Traité de Londres du 5 mai 1949. Son introduction rappelle l'attachement aux valeurs de paix, de justice et de coopération internationale, aux valeurs spirituelles et morales du patrimoine commun de l'Europe, grâce auxquelles furent posés les principes démocratiques de liberté individuelle, de liberté politique et de prééminence du droit. Dès cette introduction apparaît la notion de "progrès social". L'article premier pose comme but du Conseil de l'Europe la réalisation d'une union plus étroite entre ses membres autour de ces idéaux et principes; cela sera poursuivi, précise-t-il, au moyens des organes du Conseil, par une action commune dans les domaines économique, social, culturel, scientifique, juridique et administratif. Une place particulière est donnée à la sauvegarde et au développement des droits de l'homme et des libertés fondamentales. Il est rappelé que cela ne doit pas altérer la contribution à l'œuvre des Nations unies. Enfin, les questions de défense nationale ne sont pas de la compétence du Conseil de l'Europe.Le Conseil de l’Europe dispose de deux organes statutaires, l’Assemblée parlementaire et le Comité des ministres, et d’un organe de soutien, le Secrétaire général.Historiquement, c'est la première assemblée parlementaire du continent. Elle est composée de 324 membres et de 324 suppléants élus ou désignés par les parlements nationaux. Le nombre de représentants par pays dépend de sa démographie (de deux à dix-huit). L'assemblée se réunit quatre fois par an pendant une semaine. Les travaux de l'assemblée sont préparés par des commissions spécialisées. Elle siège au Palais de l'Europe à Strasbourg.Le Comité est composé des ministres des Affaires étrangères, et se réunit à ce niveau ministériel une fois par an. Leurs délégués, les représentants permanents, se réunissent une fois par semaine et délibèrent dans un quorum à huis clos. Les ministres exercent la présidence du comité à tour de rôle, par ordre alphabétique, pour une durée de six mois. La présidence est actuellement exercée par la Géorgie depuis novembre 2019, prenant ainsi la suite de la France. La Ministre des Affaires Étrangères croate a fait savoir quelles étaient les grandes priorités qu'elle entendait mettre en place durant son mandat, parmi lesquelles la lutte contre la corruption.Élu par l'Assemblée parlementaire pour cinq ans, mandat renouvelable, il est l'organe administratif du conseil de l'Europe et responsable du budget du Conseil de l'Europe (qui en 2004 s'élevait à 180 millions d'euros et en 2007 à un peu plus de 197 millions d'euros), dont le financement vient du gouvernement des États membres.Les Sommets sont la réunion de chefs d'État et de gouvernement et ont lieu épisodiquement depuis les années 1990. Ils doivent permettre d'aider le comité des ministres et de donner de nouvelles impulsions au Conseil de l'Europe.Le Congrès constitue, avec l'Assemblée parlementaire et le Comité des Ministres, le troisième pilier du Conseil de l'Europe. Il a été créé en 1994. Il joue un rôle fondamental dans la promotion de la démocratie en associant les collectivités locales et régionales aux travaux du Conseil de l'Europe. Il est composé de deux chambres : L'assemblée des deux chambres comprend 318 représentants et 318 suppléants représentant plus de collectivités locales et régionales des États membres. Il se réunit deux fois par an à Strasbourg. Par la discussion et l'échange, le Congrès cherche à renforcer les structures démocratiques locales, en particulier dans les nouvelles démocraties. Les deux chambres élisent un président du Congrès.Représentant la société civile, 400 OING sont membres de la Conférence. Elles contribuent activement de diverses manières à l'action et au rayonnement du Conseil de l'Europe tant par leurs contributions à la réflexion sur les multiples sujets abordés que par le suivi de l'application des diverses conventions que ses membres peuvent assurer dans les différents pays européens. La Conférence se réunit 4 fois par an au Palais de l'Europe à Strasbourg aux mêmes dates que l'Assemblée parlementaire. De plus, elle exerce son expertise dans les différents comités directeurs et groupes d'experts. Dotée depuis 2003 d'un statut participatif, elle constitue un des 4 piliers du Conseil de l'Europe, en lien étroit et en complémentarité avec les 3 autres (Comité des ministres, Assemblée parlementaire et Congrès des pouvoirs locaux et régionaux). La Conférence des organisations internationales non gouvernementales est présidée par le Jean-Marie Heydt depuis janvier 2009.Le Commissariat aux droits de l'homme est une institution indépendante au sein du Conseil de l'Europe ; sa mission est de promouvoir la prise de conscience et le respect des droits de l'homme dans les 47 États membres du Conseil de l'Europe. Il est élu par l'assemblée parlementaire pour un mandat de six ans, mandat non renouvelable, et est chargé de promouvoir l'éducation, la sensibilisation ainsi que le respect des droits de l'homme. Il peut adresser des recommandations aux États membres et des rapports au Comité des ministres et à l'Assemblée parlementaire. En 1999, le Comité des Ministres a adopté une résolution qui institue la fonction de Commissaire et définit le mandat du Commissaire. Le premier Commissaire, M. Alvaro Gil-Robles, a occupé ce poste du 15 octobre 1999 au 31 mars 2006, puis M. Thomas Hammarberg du avril 2006 au 31 mars 2012, tandis que le Commissaire actuel, M. Nils Muižnieks, a pris ses fonctions le avril 2012.Contrairement aux institutions et emblèmes officiels du Conseil de l'Europe, les conventions adoptées par l’Assemblée parlementaire du Conseil de l’Europe n'ont pas de caractère obligatoire pour tous ses pays membres. Ainsi, les conventions suivantes, adoptées au Conseil, n'ont pas été ratifiées par l'ensemble des pays membres et sont soumises à la ratification volontaire des membres : Au-delà du seul Conseil de l'Europe, l'Union européenne, dont tous les membres doivent avoir ratifié la Convention européenne de sauvegarde des droits de l'homme et des libertés fondamentales, et l’Association européenne de libre-échange, ont requis la ratification de certaines de ces conventions comme condition préalable à leur adhésion, sans toutefois les requérir pour leurs membres actuels. De plus, des conventions de libre-échange et/ou de liberté de circulation ou chartes existent parallèlement entre ces trois institutions et d'autres institutions de coopération régionale européenne ou extra-européenne, qui permettent d'étendre la compétence de certaines des institutions du Conseil de l'Europe au-delà de ses seuls membres. Parmi les actes de ratification des traités d'adhésion au Conseil de l'Europe, les pays membres ne sont pas obligatoirement engagés concernant leurs territoires autonomes en Europe ou ailleurs dans le monde si leur Constitution leur accorde le droit de décider avec les territoires concernés du statut et de l'application des traités internationaux aux territoires dont ils sont les représentants. Sauf si les territoires autonomes en décident autrement (et ces territoires autonomes disposent du droit de se retirer de ces conventions et traités tant qu'ils ne sont pas reconnus indépendants et pleinement autogouvernés, en vertu du droit à l'autodétermination reconnu par le Conseil de l'Europe et les traités de l'ONU, dans les limites des Constitutions de chaque pays signataire).Le Conseil de l'Europe a des bureaux à Paris et à Bruxelles ainsi que dans les capitales de plusieurs autres États membres.Le Conseil de l'Europe est doté du statut d'observateur auprès des Nations unies et dispose ainsi de bureaux de liaison à New York, à Genève et à Vienne.Le siège du Conseil de l'Europe se situe à proximité directe du siège du Parlement européen, ce qui facilite la collaboration entre l'Europe des 47 (Conseil de l'Europe) et l'Europe des 27 (Union européenne). Les deux entités, n'ayant pas de liens organiques formels et donc à ne pas confondre, ont néanmoins longtemps partagé la même salle d'assemblée (l'hémicycle du Palais de l'Europe) jusqu'en 1999. Le quartier de l'Orangerie accueille également la plupart des Représentations permanentes.Les emblèmes officiels du Conseil de l'Europe sont :
Le Conseil de l’Europe (en anglais, "Council of Europe" ou "COE") est une organisation intergouvernementale instituée le par le traité de Londres. C’est une organisation internationale qui rassemble environ de ressortissants de membres, par le biais des normes juridiques dans les domaines de la protection des droits de l'homme, du renforcement de la démocratie et de la prééminence du droit en Europe. Le Conseil de l'Europe est doté d’une personnalité juridique reconnue en droit international public.
xwikis