Datasets:

Modalities:
Text
Formats:
parquet
Languages:
French
ArXiv:
DOI:
Libraries:
Datasets
Dask
License:
Dataset Viewer
Auto-converted to Parquet
text
stringlengths
1
100k
summary
stringlengths
3
4.99k
dataset
stringclasses
11 values
L'astronomie est considérée comme la plus ancienne des sciences. L'archéologie révèle en effet que certaines civilisations de l'Âge du bronze, et peut-être du Néolithique, avaient déjà des connaissances en astronomie. Elles avaient compris le caractère périodique des équinoxes et sans doute leur relation avec le cycle des saisons, elles savaient également reconnaître certaines constellations. L'astronomie moderne doit son développement à celui des mathématiques depuis l'Antiquité grecque et à l'invention d'instruments d'observation à la fin du Moyen Âge. Si l'astronomie est pratiquée pendant plusieurs siècles parallèlement à l'astrologie, le siècle des Lumières et la redécouverte de la pensée grecque voient naître la distinction entre la raison et la foi, si bien que l'astrologie n'est plus pratiquée par les astronomes.Au Néolithique, tous les grands cercles mégalithiques sont en fait des observatoires astronomiques. Les plus connus sont NabtaLes systèmes les mieux connus sinon les plus développés sont :Toutes les observations se faisaient à l'œil nu puisque les Anciens étaient aidés dans cette tâche par l'absence de pollution industrielle et surtout lumineuse. C'est pour cette raison que la plupart des observations "à l'antique" seraient impossibles aujourd'hui. Les dessins de la Grotte de Lascaux sont en étude, on a pensé que les dessins servaient d'emplacements de constellations. Ces observations, parfois relativement simples en apparence (simple dessin de quatre ou cinqL'invention de l'astronomie remonte aux Chaldéens. À ses débuts, l'astronomie consiste simplement en l'observation et en la prédiction du mouvement des objets célestes visibles à l'œil nu. Ces différentes civilisations ont lègueront de nombreux apports et découvertes. En Mésopotamie, l'astronomie voit apparaître ses premiers fondements mathématiques. Le repérage des trajets des astres errants se fait d'abord sur trois voies parallèles à l'équateur. Puis, après les premières observations systématiques de la fin du millénaire (vers -1200), les trajets du Soleil et de la Lune sont mieux connus. Vers le apparaît la notion d'écliptique et plus tard encore uneSocrate considère l’astronomie comme futile, au contraire de l’Athènes antique : les anciens Grecs, dont Ératosthène, Eudoxe de Cnide, Apollonios, Hipparque et Ptolémée, construisent progressivement une théorie géocentrique très élaborée. Aristarque de Samos formule les bases d'une théorie héliocentrique. En ce qui concerne le Système solaire, grâce à la théorie des épicycles et à l'élaboration de tables fondées sur cette théorie, il est possible, dès l'époque alexandrine, de calculer de manière assez précise les mouvements des astres, y compris les éclipses lunaires et solaires. Concernant l'astronomie stellaire, ils apportent d'importantes contributions, notamment la définition du système de magnitude. L’"Almageste" de Ptolémée contient déjà une liste de quarante-huit constellations et.L'astronomie ne peut être étudiée sans l'apport d'autres sciences qui lui sont complémentaires et nécessaires : les mathématiques (géométrie, trigonométrie), ainsi que la philosophie. Elle sert au calcul du temps. Sur les sciences et l'éducation en général au Moyen Âge :L'astronomie indienne aurait culminé vers 500, avec l"Āryabhaṭīya", qui présente un système mathématique quasi-copernicien, dans lequel la Terre tourne sur son axe. Ce modèle considère le mouvement des planètes par rapport au Soleil. Pour s'orienter sur mer mais aussi dans le désert, les civilisations arabo-persanes ont besoin de données très précises. Dérivée des astronomies indienne et grecque, l'astronomie islamique culminera vers le. Boèce est le fondateur dès le du quadrivium, qui inclut l'arithmétique, la géométrie, la musique et l'astronomie. Après les invasions barbares, l'astronomie se développe relativement peu en Occident. Elle est par contre florissante dans le monde musulman à partir du. L'astronome persan al-Farghani (805-880) écrit beaucoup sur le mouvement desL'œuvre d'Al-Farghani est traduite en latin au, en même temps que bien d'autres traités arabes et que la philosophie d'Aristote. Dans le monde musulman, on peut citer :Pendant la Renaissance, Copernic propose un modèle héliocentrique du Système solaire ayant de nombreux points communs avec la thèse de Nasir ad-Din at-Tusi, avec le "De revolutionibus" publié en 1543 après sa mort. Près d'un siècle plus tard, cette idée est défendue, étendue et corrigée par Galilée et Kepler. Galilée imagine une lunette astronomique, en s'inspirant des travaux du hollandais Hans Lippershey (dont la lunette ne grossissait que trois fois et déformait les objets), pour améliorer ses observations. S'appuyant sur des relevésOn découvre que les étoiles sont des objets très lointains : l'étoile la plus proche du Système solaire, Proxima du Centaure, est à plus de quatre années-lumière. Avec l'introduction de la spectroscopie, on montre qu'elles sont similaires au Soleil, mais dans une grande gamme de températures, de masses et de tailles. L'existence de notre galaxie, la Voie lactée, en tant qu'ensemble distinct d'étoiles, n'est prouvée qu'au début du du fait de l'existence d'autres galaxies. Peu après, on découvre l'expansion de l'Univers, conséquence de la loi deÀ son début, durant l'Antiquité, l'astronomie consiste principalement en l'astrométrie, c'est-à-dire la mesure de la position dans le ciel des étoiles et des planètes. Plus tard, des travaux de Kepler et de Newton naît la mécanique céleste qui permet la prévision mathématique des mouvements des corps célestes sous l'action de la gravitation, en particulier les objets du Système solaire. La plus grande partie du travail dans ces deux disciplines (l'astrométrie et la mécanique céleste), auparavant effectué à la main, est maintenant fortement automatisée grâce aux ordinateurs et aux capteurs CCD, au point que maintenant elles sont rarement considérées comme des disciplines distinctes. Dorénavant, le mouvement et la position des objets peuvent être rapidement connus, si bien que l'astronomie moderne est beaucoup plus concernée par l'observation et la compréhension de la nature physique des objets célestes. Depuis le, l'astronomie professionnelle a tendance à se séparer en deux disciplines : "astronomie d'observation" et "astrophysique théorique". Bien que la plupart des astronomes utilisent les deux dans leurs recherches, du fait des différents talents nécessaires, les astronomes professionnels tendent à se spécialiser dans l'un ou l'autre de ces domaines. L'astronomie d'observation est concernée principalement par l'acquisition de données, ce qui comprend la construction et la maintenance des instruments et le traitement des résultats. L'astrophysique théorique s'intéresse à la recherche des implications observationnelles de différents modèles, c'est-à-dire qu'elle cherche à comprendre et à prédire les phénomènes observés. L"astrophysique" est la branche de l'astronomie qui détermine les phénomènes physiques déduits par l'observation des astres. Actuellement, les astronomes ont tous une formation poussée en astrophysique et leurs observations sont presque toujours étudiées dans un contexte astrophysique. En revanche, il existe un certain nombre de chercheurs et chercheuses qui étudient exclusivement l'astrophysique. Le travail des astrophysiciens est d'analyser des données d'observations astronomiques et d'en déduire des phénomènes physiques. Les domaines d'études de l'astronomie sont aussi classés en deux autres catégories :L'étoile la plus étudiée est le Soleil, une petite étoile typique de la séquence principale de type spectral G2V et vieille d'environ 4,6 milliards d'années. Le Soleil n'est pas considéré comme une étoile variable, mais il subit des changements périodiques de son activité, ce qui peut être vu grâce aux taches solaires. Ce cycle solaire de fluctuation du nombre de taches dure 11 ans. Les taches solaires sont des régions plus froides que la normale qui sont associées à une activité magnétique intense. La luminosité du Soleil a régulièrement augmenté au cours de sa vie. Aujourd'hui, il est en effet 40 % plus brillant qu'au moment où il est devenu une étoile de la séquence principale. Le Soleil a également subi des changements périodiques de luminosité ayantCe domaine de la planétologie s'intéresse à l'ensemble des planètes, des lunes, des planètes naines, des comètes, des astéroïdes, et des autres corps orbitant autour du soleil ; ainsi qu'aux exoplanètes. Le Système solaire a été relativement bien étudié, d'abord à l'aide de télescopes puis aux moyens de sondes. Cela a fourni une bonne compréhension globale de la formation et de l'évolution de ce système planétaire, bien qu'un grand nombre de découvertes soient encore à accomplir. Le Système solaire est subdivisé en cinq parties : le Soleil, les planètes internes, la ceinture d'astéroïdes, les planètes externes et le nuage d'Oort. Les planètes internes sont toutes telluriques, il s'agit de Mercure, Vénus, la Terre, et Mars. Les planètes externes, des géantes gazeuses, sont Jupiter, Saturne, Uranus et Neptune. Derrière Neptune se trouve la ceinture de Kuiper, et finalement,L'étude des étoiles et de l'évolution stellaire est fondamentale pour notre compréhension de l'univers. L'astrophysique des étoiles a été déterminée grâce à l'observation et à la compréhension théorique ainsi que par des simulations informatiques. Une étoile se forme dans des régions denses de poussières et de gaz, connues sous le nom de nuages moléculaires géants. Lorsqu'ils sont déstabilisés, les fragments peuvent s'effondrer sous l'influence de la gravité pour former une protoétoile. Une région suffisamment dense et chaude provoquera une fusion nucléaire, créant ainsi une étoile de la séquence principale. Presque tous les éléments plus lourds que l'hydrogène et l'hélium ont été créés dans le noyau des étoiles. Les caractéristiques de l'étoile résultant dépendent d'abord de sa masse de départ. Plus l'étoile est massive, plus sa luminosité est importante et plus elle videra le stock d'hydrogène présent dans son noyau rapidement. AuLe Système solaire orbite au sein de la Voie lactée, une galaxie spirale barrée qui est un membre important du Groupe local. C'est une masse tournante formée de gaz, d'étoiles et d'autres objets maintenus ensemble par une attraction gravitationnelle mutuelle. Étant donné que la Terre est située dans un bras extérieur poussiéreux, il y a une grande partie de la Voie lactée que l'on ne peut pas voir. Au centre de la Voie lactée se trouve le noyau, un bulbe de forme étirée qui d'après de nombreux astronomes abriterait un trou noir supermassif en son centre gravitationnel. Celui-ci est entouré de quatre bras spiraux majeurs démarrant du noyau. C'est une région active de la galaxie qui contient beaucoup d'étoiles jeunes appartenant à laL'étude des objets situés en dehors de notre galaxie est une branche de l'astronomie concernée par la formation et l'évolution des galaxies ; leur morphologie et classification ; l'examen des galaxies actives ; ainsi que par les groupes et amas de galaxies. Ces derniers sont importants pour la compréhension des structures à grande échelle de l'Univers. La plupart des galaxies sont organisées en formes distinctes, ce qui permet d'établir un schéma de classification. Elles sont communément divisées en galaxies spirales, elliptiques et irrégulières. Comme son nom l'indique, une galaxie elliptique a la forme d'une ellipse. Ses étoiles se déplacent sur une orbite choisie au hasard sans aucune direction préférée. Ces galaxies ne contiennent que peu ou pas de gaz interstellaire, peu de régions de formation d'étoiles, et généralement des étoiles âgées. On trouve généralement des étoiles dans les noyaux d'amas galactiques qui peuvent se former à partir de la fusion de plus grandes galaxies. Une galaxie spirale est organisée comme un disque plat en rotation, avec généralementLa cosmologie (du grec κοσμος, « monde, univers » et λογος, « mot, étude ») pourrait être considérée comme l'étude de l'Univers comme étant un tout. Les observations de la structure de l'Univers à grande échelle, une branche appelée cosmologie physique, a donné une profonde connaissance de la formation et de l'évolution du cosmos. La théorie bien acceptée du Big Bang est fondamentale à la cosmologie moderne qui dit que l'univers a commencé comme un simple point et qu'il s'est ensuite agrandi durant 13,7 milliards d'années jusqu'à son état actuel. Le concept du Big Bang peut être retracé jusqu'à la découverte du fond diffus cosmologique en 1965. Dans ce processus d'expansion, l'univers a connu plusieurs stades d'évolution. Dans les tout premiers temps, nos théories actuelles montrent une inflation cosmique extrêmement rapide, ce qui a homogénéisé les conditions de départ. Ensuite, la nucléosynthèse primordiale a produitEn astronomie, l'information provient principalement de la détection et de l'analyse de la lumière visible ou d'une autre onde électromagnétique. L'astronomie d'observation peut être divisée selon les régions observées du spectre électromagnétique. Certaines parties du spectre peuvent être observées depuis la surface de la Terre, alors que d'autres sont seulement observables à de hautes altitudes voire dans l'espace. Des informations spécifiques sur ces sous-branches sont données ci-dessous.La radioastronomie étudie les radiations d'une longueur d'onde supérieure au millimètre. La radioastronomie est différente des autres formes d'observations astronomiques dans la mesure où les ondes radio sont traitées davantage comme des ondes plutôt que comme des photons discrets. Il est plus facile de mesurer l'amplitude et la phase des ondes radio que celles de longueurs d'onde plus courtes. BienL'astronomie infrarouge s'occupe de la détection et de l'analyse du rayonnement infrarouge (longueurs d'onde plus longues de celle de la lumière rouge). Excepté pour les longueurs d'onde situées près de la lumière visible, le rayonnement infrarouge est fortement absorbé par l'atmosphère ; d'autre-part, celle-ci produit des émissions d'infrarouge significatives. Par conséquent,D'un point de vue historique, l'astronomie optique, également appelée "astronomie de la lumière visible", est la plus ancienne forme d'astronomie. À l'origine, les images optiques étaient dessinées à la main. À la fin du et durant une bonne partie du, les images furent faites en utilisant un équipement photographique. Les images modernes sont produites grâce à des détecteurs digitaux, particulièrement les caméras CCD. Bien que la lumière visible s'étende elle-même approximativement deL'astronomie en ultraviolets fait référence aux observations aux longueurs d'onde correspondant à l'ultraviolet, c'est-à-dire entre ~ 100 et (). La lumière de ces longueurs est absorbée par l'atmosphère de la Terre, les observations de ces longueurs d'onde se font donc depuis la haute atmosphère ou depuis l'espace. L'astronomie à ultraviolets est plus indiquée pourL'astronomie en rayons X consiste en l'étude des objets astronomiques à des longueurs d'onde correspondant aux rayons X, autrement dit allant d'environ (). Typiquement, les objets émettent des rayons X comme des émissions synchrotron (produit par des électrons oscillant autour des lignes d'un champ magnétique), des émissions thermiques provenant de gaz fins (appelé rayonnement continu de freinage) quiL'astronomie des rayons gamma concerne les plus petites longueurs d'onde du spectre électromagnétique. Les rayons gamma peuvent être directement observées par des satellites tels que le Compton Gamma-Ray Observatory. Les rémanents de supernovae, les pulsars,L’astronomie gravitationnelle, ou "astronomie des ondes gravitationnelles", est la branche de l'astronomie qui observe les objets célestes grâce aux ondes gravitationnelles, soit de faibles perturbations de l'espace-temps se propageant dans l'espace etL’astronomie des neutrinos est une branche de l'astronomie cherchant à étudier les objets célestes capables de produire des neutrinos de très hautes énergies (de l'ordre de quelques centaines de TeV à plusieurs PeV).L'astronomie et l'astrophysique ont développé d'importantsLes astronomes amateurs observent une variété d'objets célestes, au moyen d'un équipement qu'ils construisent parfois eux-mêmes. Les cibles les plus communes pour un astronome amateur sont la Lune, les planètes, les étoiles, les comètes, les essaims météoritiques, ainsi que les objets du ciel profond que sont les amas stellaires, les galaxies et les nébuleuses. Une branche de l'astronomie amateur est l'astrophotographie, consistant à photographier le ciel nocturne. Une partie des amateurs aime se spécialiser dans l'observation d'un type d'objet particulier. La plupart des amateurs observent le ciel aux longueurs d’onde visibles, mais une minorité travaille avec des rayonnements hors du spectre visible. Cela comprend l'utilisation de filtres infrarouges sur des télescopes conventionnels, ou l'utilisation de radiotélescopes. Le pionnier de la radioastronomie amateur était Karl Jansky qui a commencé à observer le ciel en ondes radio dans les années 1930. Un certain nombre d'amateurs utilisent soit des télescopes fabriqués de leurs mains, soit des télescopes qui ont été construits à l'origine pour la recherche astronomique mais qui leur sont maintenant ouverts (par exemple le ). Une certaine frange de l'astronomie amateur continue de faire progresser l'astronomie. En fait, il s'agit de l'une des seules sciences où les amateurs peuvent contribuer de manière significative. Ceux-ci peuvent effectuer les calculs d'occultation qui servent à préciser les orbites des planètes mineures. Ils peuvent aussi découvrir des comètes, effectuer des observations régulières d'étoiles doubles ou multiples. Les avancées en technologie numérique ont permis aux amateurs de faire des progrès impressionnants dans le domaine de l'astrophotographie.
L’astronomie est la science de l’observation des astres, cherchant à expliquer leur origine, leur évolution, ainsi que leurs propriétés physiques et chimiques. Avec plus de d’histoire, les origines de l’astronomie remontent au-delà de l’Antiquité dans les pratiques religieuses préhistoriques. L’astronomie est l’une des rares sciences où les amateurs jouent encore un rôle actif. Elle est pratiquée à titre de loisir par un large public d’astronomes amateurs.
xwikis
L'origine du mot est anglaise, "tourist", qui trouve son étymologie dans le mot français "tour" (voyage circulaire). Il désigne au le voyage que font les jeunes de l'aristocratie britannique sur le continent européen pour rejoindre la ville de Rome. Il est tout d'abord un adjectif, puis devient un substantif. Le mot "tourist" apparaît en Angleterre en 1800. Trois ans plus tard, il est utilisé dans la langue française, pour lequel, le "Littré" donne dans ses différentes éditions du la définition suivante : Pierre Larousse donne une version moins négative avec sa définition, dans son "Dictionnaire Universel du ". Le mot semble se populariser à partir de 1816 et Stendhal contribue à son usage avec "Mémoires d'un touriste", publié en 1838. L'usage du mot "tourisme" est, lui, plus tardif et il faut attendre la fin du siècle pour que les dictionnaires lui donnent une définition. Le "Supplément Larousse" donne ainsi une ébauche de définition dans son édition de 1877 : « Tourisme, habitude de touriste ».Bien que la notion de « tourisme » soit récente, le sociologue du tourisme Rachid Amirou note des analogies de comportement plus anciens, par exemple l'attrait de la mer pour les Romains ou encore avec les pèlerinages médiévaux. Il étudie également comment, depuis le s'est opposée la notion méliorative du « voyageur » à celle, péjorative, du tourisme de masse et de quelle manière s'est construit un imaginaire touristique (par exemple l'île et le fantasme construit culturellement du « paradis perdu ») avec les dérives que cela peut engendrer (comme la mise en valeur d'une authenticité qui serait surtout une assignation identitaire àLes termes « tourisme » et « touriste » furent utilisés officiellement pour la première fois par la Société des Nations pour dénommer les gens qui voyageaient à l'étranger pour des périodes de plus de 24 heures. Mais l'industrie du tourisme est bien plus ancienne que cela. Pour qu'il y ait tourisme, quatre paramètres essentiels doivent être réunis : Le tourisme moderne apparaît avec ce que l'on appelait le Grand Tour, un voyage traditionnel en Europe (en particulier en Allemagne et en Italie), entrepris principalement par des jeunes hommes nobles européens. En 1624, le jeune prince de Pologne, Ladislas Sigismond Vasa, fils aîné et héritier de Sigismond III, entreprit un voyage à travers l'Europe, comme c'était le cas chez la noblesse polonaise. Il a parcouru lesLe tourisme de masse ne commença à se développer que lorsque les moyens de transport eurent progressé et que le nombre de gens bénéficiant de temps libre eut augmenté. L'invention du chemin de fer et le développement du réseau ferré au ont abouti à la croissance de villes au bord de la mer facilement accessible pour les citadins britanniques... Blackpool a été créé par la construction d'une ligne en direction de Fleetwood et quelques stations ont été promues par les sociétés de chemin de fer- Morecambe par Midland Railway et Cleethorpes par Great Central Railway. D'autres stations ont inclus Scarborough dans le Yorkshire, pour les habitants Leeds et Bradford ; Weston-super-Mare dans le Somerset, accueillant les habitants de Bristol ; et Skegness, été fréquenté par lesUn exemple de développement d'un tourisme dans les colonies est le cas des Indes néerlandaises. Entre 1890 et 1910, les publications de guides de voyage se multiplient. Le gouvernement colonial comprend le profit qu'il peut tirer de cet intérêt, et construit des relais d'étape à travers l'île de Java, les "pasanggrahan". Entre 1900 et 1930, le tourisme par des Européens à Java connaît un essor remarquable. À Batavia, capitale de la colonie, un "Travellers' Official Information Bureau" publie des guides vantant les charmes des « Indes orientales ». Le fabricant de pneumatiques Goodyear publie des cartes. De prestigieux hôtels sont construits à travers l'île. Ce développement est rendu possible par l'amélioration des liaisons maritimes entre Batavia et Singapour, principale colonie britannique dans la région et déjà un port important. Un autre exemple est le tourisme colonial français : création de la stationLa seconde moitié du est marquée par les fameux quatre S du modèle touristique, Sea, Sun, Sand, Sex (la Mer, le Soleil, le Sable, le Sexe), idée qui a été popularisée de façon satirique par le film "Les Bronzés". Des évolutions se manifestent dans cette seconde moitié du. Le touriste n'est plus seulement « toute personne en déplacement hors de son environnement habituel pour une durée d'au moins une nuitée et d'un an au plus» (définition de l'Organisation mondiale du tourisme) ; c'est un ensemble beaucoup plus vaste d'activités, de pratiques extrêmement variées. Si en France jusqu'en 1936 il était l'apanage de classes sociales aisées, avec l'instauration des congés payés, il a connu un essor tout autre ; la masse des travailleurs et de leurs familles pouvant ainsi enfin se déplacer pour leur agrément. Le développement du tourisme de masse en France a lieuLe tourisme créatif existe, comme forme de tourisme culturel, depuis les origines mêmes du tourisme. Ses racines européennes renvoient au Grand Tour qu'effectuaient les jeunes aristocrates européens dans le but de découvrir d'autres cultures en réalisant des voyages basés sur l'expérience. Plus récemment le tourisme créatif a été reconnu comme tel par Crispin Raymond et Greg Richards, qui, en tant que membre de ATLAS - Association for Tourism and Leisure Education ont dirigé un grand nombre de projets et études pour la Commission Européenne. Le tourisme créatif réunit de plus en plus d’adeptes dans le monde, désireux de réaliser une activité artistique et créative qui leur permette de découvrir la culture de leur lieu de séjour en vivant des moments privilégiés avec ses habitants. L’engouement croissant des touristes pour cette nouvelle façon de découvrir une culture intéresse particulièrement les responsables territoriaux et les opérateurs, sensibles à la possibilité d’attirer un tourisme de qualité tout en mettant en valeur le patrimoine immatériel (ateliers d’artisanat, stages de cuisine, etc.) et en optimisant l’utilisation des infrastructures existantes (via par exemple la location de salles et auditorium).Le tourisme est également lié au monde du travail par le biais du tourisme d'affaires et par celui des pratiques appelées en anglais « "incentive" ». Le premier concerne toute l'offre touristique (divertissement, découverte) qui entoure les voyages d'affaires, les congrès, les séminaires, les salons - et la France est encore pour quelques années la première destination mondiale des salons et congrès. Le second (« "incentive" ») consiste en des voyages organisés pour le personnel d'une entreprise (en français : voyage de stimulation). Il peut comprendre des épreuves sportives ou ludiques, mais aussi des activités culturelles, en complément de séminaires ou de réunions. On observe que les pratiques se diversifient, s'entrecroisent, créant autant de niches pour les producteurs du tourisme. Une clientèle ne se définit plus par une pratique unique, une pratique ne définit plus un seul profil de clientèle. En République populaire de Chine, le tourisme et la consommation touristique ont fortement augmenté : en 2003, on estime que plus de 100 millions de Chinois ont parcouru et visité leur pays, en dehors des voyages pour motif familial. Ce nombre a atteint 130 millions en 2008, alors que 46 millions de Chinois sont allés à l'étranger.L'avènement de l'e-tourisme est à l'origine de la désintermédiation et la consolidation du secteur du tourisme (dématérialisation du billet papier en billet électronique, développement de grandes plateformes de distribution, etc.). InternetApparu plus récemment, le tourisme sombre (ou noir) (de l'anglais "dark tourism") consiste à visiter des endroits évoquant souffrance, mort et peur : le camp d’extermination d’Auschwitz, l'île de Gorée, la centrale de Tchernobyl.Le tourisme se présente sous diverses formes avec notamment le tourisme balnéaire, sports d'hiver ou encore tourisme vert, voire selon des thématiques comme le tourisme d'affaires, culturel, sexuel, de mémoire, de naissance ou encore l'écotourisme. Au niveau du tourisme mondial, la moitié des touristes internationauxUn aménagement est l’ensemble des constructions humaines aménagées pour faciliter la vie d’une collectivité. Exemples : routes, port,Le tourisme est un des phénomènes les plus marquants depuis le milieu du. En 1950, quelque 25 millions de touristes franchissent une frontière internationale. Ils passent à 500 millions dans les années 1990. La barre du milliard est franchie en 2012. L'Organisation mondiale du tourisme (OMT) annonce un nouveauPar arrivées de touristes internationaux Par présence de touristes internationaux Après avoir chuté de 3,9 % en 2010 (« pire année depuis 60 ans » selon Taleb Rifai, secrétaire général de l'Organisation mondiale du tourisme), le nombre de touristes dans le monde a progressé de 6,6 % en 2011, 5 % en 2012 et 4 % en 2013, année qui voit le nombre de touristes dansLes recettes du tourisme international engrangées par les destinations à travers le monde enregistrent une croissance spectaculaire depuis le milieu du, passant de 2 milliards de dollars en 1950, à 104 milliards en 1980, puis à 495 milliards en 2000 et 1260 milliards en 2015. Selon l'OMT, le tourisme international et interne représenteSelon l'Organisation mondiale du tourisme, les dix paysLe classement des dix villes les plus visitées au monde est établi selon les statistiques fournies par les services officiels de chaque ville. Il comprend à la fois le tourisme de loisir et le tourisme d'affaire (ce dernier constituant par exemple entre 40 et 50 % des arrivées parisiennes). Les méthodologies sont susceptibles de différer (nombre de touristes internationaux enregistrés dans les hôtels et/ou autres types d'hébergement, nombreLe tourisme est une activité économique majeure permettant aux régions où se localise le développement d'obtenir une source de revenus importants. Toutefois, le développement des différentes activités et infrastructures engendre également des problèmes que l'on qualifie parfois d'effet « pervers » dans les différentes littératures. En effet, des auteurs ou des observateurs accusent ainsi régulièrement les activités touristiques d'être responsables de la destruction des modes de vie traditionnels ou de surconsommation des ressources locales (énergies, eau, etc.), de participer à l'augmentation des différents coûts, à une forme de spéculation foncière, à la destruction de l'environnement.Le tourisme a différentes conséquences économiques sur les différents pays. Premièrement, il apporte un certain revenu aux gouvernements des pays ciblés, mais il participe également au développement de certaines industries, notamment dans le secteur de la restauration et de l'hôtellerie. La tendance courant dans les déplacements touristiques est des pays riches vers les plus pauvres puisque c'est chez lesLe tourisme peut créer des effets « collatéraux » sociaux-culturels (perte d'identité, acculturation, prostitution, folklorisation des sociétés traditionnelles, « consommation des mœurs »...). Il peut aussi créer une dynamique de pouvoir entre la personne qui regarde et la personne (touriste) qui est regardéeLe tourisme frappe l'environnement, et est à son tour touché par la dégradation de la nature. Le tourisme vert et les touristes en général recherchent notamment des environnements et une biodiversité préservée ou de qualité. Mais il est actuellementL'empreinte écologique individuelle des touristes croît rapidement, de même que le nombre de touristes circulant dans le monde (exemple : doublement en France de 1964 à 2004, passant de 200 à plus de 400 millions de touristes/an). Certaines formes de tourisme ont une empreinte énergétique et climatique particulièrement élevée (transports aériens, grandes croisières, etc.). À titre d'exemple, une étude a montré qu'en 2006, rien que le transport des touristes français a produit 6 % des émissions de gaz à effet de serre (GES) du pays. 5 % des touristes ont émis 50 % du total des émissions liées au tourisme (rien qu'en se transportant sur leur lieu de vacances), et 10 % des touristesOutre le transport des touristes, leurs achats et leur alimentation qui ont les impacts climatiques les plus élevés, le nautisme motorisé, la chasse, le quad, la motoneige, la "pêche au gros", les safaris, la plongée sous-marine, ou même le surf ainsi que certains modes de logements (hôtels de luxe, climatisation, etc.) peuvent encore fortement augmenter les conséquences écologiques et énergétiques du tourisme, ainsi que sa contribution à l'effet de serre. En France une étude a montré que la minorité de touristes séjournant dans des hôtels trois étoiles et plus ou dans des clubsElle est devenue considérable : en 2017 il est responsable de 8 % du total des émissions de gaz à effet de serre des humains. Elle est due aux transports et aux activités sur place, aux touristes eux-mêmes ainsi qu'aux professionnels du tourisme. Les déplacements intérieurs sont les plus coûteux en émission. Les États insulaires, dits "destinations exotiques" dans le milieu touristique, comme les Maldives ou Chypre, sont fortement pénalisés de ce point de vue.Deux types de produits éditoriaux concernent le tourisme : les guides de tourisme et les magazines et revues spécialisées. Ce panorama de l'édition touristique ne serait pas complet si on omettait l'offre gratuite qui a deux sources principales : Outre leur gratuité, elles présentent l'inconvénient d'être limitées géographiquement dans le premier cas ou d'être limitées à une offre constituée et peu informative pour d'autres usages que ce à quoi la destine le tour opérateur dans le second cas. En définitive, elles ne sont pas concurrentielles avec la production éditoriale marchande.Les objets principaux des guides de voyage sont : La plus ancienne et la plus fortement établie est celle consacrée à la restauration et à l'hôtellerie (avec par exemple en France les guides : Michelin « rouge », Gault-Millau, Bottin Gourmand ; Touring Editore, Slow Food Editore, Le Guide de l'Expresso, La Guida Michelin en Italie ; Der Michelin Führer en Allemagne et en Autriche ; les guides Michelin Benelux, Europe main cities, Espana-Portugal, Great Britain & Ireland, London, Portugal, Suisse/Schweiz/Svizzera).Les guides de tourisme sont utilisés traditionnellement pendant le voyage, d'où pour beaucoup une taille adaptable à la boîte à gants de l'automobile. Un certain nombre de guides (les mêmes que les précédents ou d'autres) ont une fonction préparatoire au voyage, ou encore une fonction de souvenir. DansLa plupart des éditeurs de guides touristiques amorcent en ce moment un virage vers les supports électroniques en ligne dans la dynamique du e-tourisme, tout en n'abandonnant pas le papier qui a pour lui d'être itinérant, quoique pesant, et qui présente de plus l'inconvénient majeur d'être obsolète quasiment dès sa parution, notamment pour les renseignements pratiques. Le guide sur support électronique, notamment en ligne, a pour lui d'être mis à jour instantanément. Il est particulièrement adapté à un public de niche, qui prépare activement son voyage, qui recherche des informations fiables et qui dispose d'outils informatiques et télématiques. L'édition de guides touristiques s'intéresse de plus en plus aux nouveaux supports, notamment mobiles. Un bel exemple sur support électronique est proposé par l'éditeur australien Lonely Planet (qui édite encore principalement sur support papier) dont le site francophone reçoit par mois en 2001, (il faut préciser que son site anglophone reçoit prèsDans le tourisme, les magazines sont nombreux. Chaque éditeur choisit un axe éditorial spécifique. Il peut s'agir des voyages et de la photographie, de la nature ou encore de la culture et de l'histoire. Depuis quelques années, l'axe régional a été également exploré avec des magazines dédiés à certaines régions françaises. On ne peut négliger les revues thématiques qui consacrent des rubriques entières aux voyages comme cela est le cas pour des magazinesEntre le premier janvier 2013 et le 31 décembre 2015, 3121 touristes ont été reporté tués par la presse. Les principales activité recensées dans ces accidents sont les activités nautiques (1035 tués); le transport non aérien (875 tués); le transport aérien (490 tués) ou les activités de terrain (167 tués).
Le mot tourisme désigne le fait de voyager pour son plaisir hors de ses lieux de vie habituels, et d'y résider de façon temporaire, mais aussi un secteur économique qui comprend en plus de l'hôtellerie l'ensemble des activités liées à la satisfaction et aux déplacements des touristes.
xwikis
Étymologiquement, le mot français "philosophie" dérive du grec ancien φιλοσοφία, composé de φιλεῖν, « aimer » et σοφία, « la sagesse, le savoir », c'est-à-dire littéralement : "l’amour de la sagesse" ou "l’amour du savoir". Selon le philosophe Roger-Pol Droit, À noter que le mot φιλοσοφία fait effectivement partie du lexique du grec ancien, où l'on trouve des usages attestés dès l'Antiquité. Il s’agit donc d’une sémantique de construction, comme pour le terme "utopie", néologisme couramment forgé dans la langue française. Les termes φιλόσοφος ("philosophos") et φιλοσοφεῖν ("philosophein") apparaissent en quelques occurrences chez les penseurs présocratiques Héraclite, Antiphon, Gorgias et Pythagore, mais aussi chez d'autres penseurs comme Thucydide ou Hérodote, contemporains de Socrate. En la matière, un écho d’Héraclide du Pont révélerait que le premierLa philosophie s’est comprise très tôt comme une manière de vivre et non pas uniquement comme une réflexion théorique. Dit autrement : être philosophe, c’est aussi vivre et agir d’une certaine façon et non pas seulement se confronter à des questions abstraites. L’étymologie du terme « philosophie » indique bien que le philosophe est celui qui tend vers la sagesse, qui cherche à vivre comme il le faut et plus particulièrement qui recherche le bonheur. La philosophie, entendue comme mode de vie, met l'accent sur la mise en application dans sa propre vie des résultats de la réflexion philosophique. L’idée que la philosophie est une manière de vivre a aussi pu amener certains philosophes à imaginer que, pour cette raison, ils devaient guider les autres et les aider à mener correctement leurs existences. La philosophie, d’éthique personnelle, pouvait se faire projet collectif voire politique. Ces ambitions « collectives » de la philosophie prennent différentes formes. Une véritable communauté de vie pouvait se constituer autour d'un philosophe. Ceci explique en partie la naissance dans l’Antiquité d’écoles philosophiques (autour d’Épicure, de Platon ou d’Aristote par exemple). Depuis les présocratiques et surtout à partir de Socrate, toute une tradition a défendu cette conception de la philosophie comme un mode de vie. Citons entre autres les Stoïciens, Platon, Aristote, Épicure, Descartes, Spinoza, Sartre ou Russell. Mais ces derniers sont loin d’exclure l’idée que le philosophe s’intéresse à des problèmes théoriques. La « sagesse », ou plus exactement la "sophia", que veut posséder le philosophe est aussi un savoir et une connaissance. Le philosophe, dans la lignée de la tradition fondée par Socrate, sait comment il doit vivre ; il peut justifier ses choix et son mode de vie. Socrate par exemple, dans les dialogues présocratiques de Platon, exige de ses interlocuteurs qu’ils soient à même de donner le "logos" de leur jugementLa philosophie contemporaine occidentale, issue d’une tradition multiple, se présente sous des formes variées : tradition herméneutique et postkantienne en Allemagne, philosophie analytique dans les pays anglophones et dans une grande partie de l’Europe, tradition phénoménologique en Europe continentale. Certains remettent fortement en cause la tradition philosophique et ses présupposés telle la philosophie féministe, la déconstruction de Derrida ou de Heidegger. Ces courants forment autant de pratiques différentes et d'opinions divergentes sur la nature de la philosophie, qui interdisent de donner une définition unique acceptable par tous. S'il y a aujourd'hui plusieurs traditions philosophiques, aucune ne peut prétendre résumer l'activité philosophique à elle seule, ni décrire l'activité philosophique de façon consensuelle. Les difficultés à définir la philosophie sont en outre de nature "épistémologique", car il est difficile de délimiter rigoureusement méthodes, thèmes et objets de la philosophie. Historiquement, elle aOn peut dans une première approche, délimiter en creux un certain nombre de méthodes et de principes heuristiques qui caractérisent au moins en partie la philosophie.D'une part la philosophie ne recourt pas à la méthode expérimentale. La philosophie, en effet, à la différence de la physique, de la chimie ou de la biologie, n'a jamais vraiment intégré le processus d’expérimentation dans son outillage heuristique. Ceci est évident pour la philosophie antique et médiévale qui ne connaissait pas l'expérimentation. Même les grands philosophes qui se sont illustrés comme scientifiques (Descartes, Pascal, Leibniz pour ne citer qu'eux) ont toujours distingué leur travail dans le domaine scientifique et dans le domaine philosophique. Certains philosophes comme Kant ou Wittgenstein ont même vu dans l’absence d’expérimentation en philosophie une caractéristique épistémologique essentielle de cette discipline et ont refusé toute confusion avec les sciencesMalgré les difficultés que comporte cette entreprise, il est possible de distinguer certaines grandes caractéristiques positives de la méthode philosophique. La philosophie se comprend comme un travail critique. C'est une de ses définitions les plus courantes. Cette critique n’est cependant jamais purement et simplement négative. Elle a pour but de créer de nouvelles certitudes et de corriger les fausses évidences, les illusions et erreurs du sens commun ou de la philosophie elle-même. Socrate, par exemple, interrogeait ses contemporains et les sophistes afin de leur montrer leurs contradictions et leur incapacité à justifier ce qui leur semblait évident. Descartes est à l'époque moderne le meilleur représentant de cette conception de la philosophie, car, selon lui, seul un doute radical et général pouvait être le fondement d'une pensée parfaitement rigoureuse et indubitable. La philosophie est souvent caractérisée comme un travail sur les concepts et notions, un travail de création de concepts permettant de comprendre le réel, de distinguer les objets les uns des autres et de les analyser, mais aussi un travail d'analyse des concepts et de leurs ambiguïtés. Elle a très tôt reconnu les problèmes que posent les ambiguïtés du langage. De nos jours la philosophie analytique donne elle aussi une grande place à ce problème. En outre, à la différence des sciences,La philosophie est loin d’être un domaine de connaissances bien délimité au sens où les problèmes auxquels elle se confronte sont d’une extrême variété. Elle étudie de nombreux objets, certains proches, c'est pourquoi sa subdivision en différentes branches est problématique et relève de l'arbitraire. De plus, si des pans entiers de la philosophie sont apparus au, certains domaines se sont détachés très nettement de la philosophie à l'époque moderne. La physique, par exemple, était considérée comme appartenant àSi la philosophie a une longue histoire, il convient de distinguer la pratique de la philosophie de l'étude simple des doctrines passées. Parfois atténuée, voire effacée, cette distinction est pourtant cruciale. Nombre de penseurs en appellent aux philosophies antérieures pour les appuyer, s'en inspirer, ou encore les critiquer : il y a là un appel à l'histoire et à un fond culturel commun, mais ça ne fait pas de la philosophie une discipline historique. La pratique philosophique n'étant pas uniquement une glose sur la philosophie des époques précédentes, il faut la distinguer de l'histoire de la philosophie. "L’histoire de la philosophie" consiste à tenter de reconstruire, de comprendre, d’interpréter, voire de critiquer, les positions et thèses de penseurs comme Platon, Thomas d’Aquin, Hegel, etc. Il s'agit moins d'évaluer la pertinence philosophique ou l'intérêt actuel de ces philosophes que de savoir ce qu'ils ont vraiment dit, et de restituer leurs pensées dans leurs contextes d'apparition. Ce travail d'étude porte également sur des courants philosophiques (le scepticisme antique, le néokantisme), ou des questions débattues au cours de l’histoire (le dualisme de l’âme et du corps, la querelle des universaux) appartiennent elles aussi à l’histoire de la philosophie.La philosophie grecque a connu trois grandes périodes : La philosophie grecque se caractérise par le fait qu'elle est dominée par l'éthique, par la question « comment bien vivre? » et plus particulièrement par celles de la vertu et du bonheur. L'importance de ce thème apparaît évidente à la lecture des dialogues de Platon, des textes d'Aristote, des Stoïciens ou d'Épicure. La conséquence de cette tendance est que la philosophie était comprise comme une façon de vivre et non pas uniquement comme un discours théorique (même si ce dernier ne saurait être ignoré, naturellement) ce qui est particulièrement frappant chez un Socrate, un Diogène ou chez les Stoïciens. Les deux autres grands domaines de la recherche des penseurs antiques sont d'une part la cosmologie et la physique (ce qu'on a longtemps nommé "philosophie naturelle"), d'autre part la théorie de la connaissance parfois liée à la logique. Ainsi, la question fondamentale qui occupait les philosophes présocratiques était la question du principe de toute chose. Au travers d'un mélange d'observations empiriques et de spéculations, ils tentèrent de comprendre la nature et ses phénomènes. Ainsi, le premier philosophe connu, Thalès,Les Romains, dominant petit à petit le contour de la mer Méditerranée (la "Mare nostrum"), s'approprient ensuite l'héritage grec des différents courants philosophiques. Certains auteurs romains nous ont légué à travers le temps des principes et concepts de philosophie grecque qui aujourd'hui manquent par faute de textes originaux ou de copies : c'est le cas de Lucrèce (Ier siècle av. J.-C.), avec son œuvre poétique "De rerum natura", explicitant l'épicurisme (seules trois lettres d'Épicure nous sont parvenues), malgré le rejet de la poésie par les Épicuriens. Il est en effet probable qu'il ait eu sous les yeux des traités aujourd'hui perdus. Nous devons probablement à Cicéron, philosophe de première importance, d'avoir sauvé le poème de Lucrèce. Premier écrivain ayant rédigé des ouvrages philosophiques en latin, Cicéron ne peut être rattaché à aucune école, faisant preuve d'éclectisme, mais il a toutefois largement contribué à répandre la philosophie stoïcienne et épicurienne dans le monde romain. Les Stoïciens sont représentés par deux grands hommes de pouvoirLa philosophie médiévale d'Occident et du Proche-Orient sont issues du même courant. Ce sont les penseurs musulmans et chrétiens, puis entre musulmans eux-mêmes, qui en cherchant des arguments convaincants vont faire appel à la philosophie antique. Du Moyen-Orient, principalement musulman, vont naître plusieurs écoles de pensée et de méthode qui seront reprises plus tard en Occident, alors que les sociétés musulmanes finiront par étouffer les idées originales nées durant cette période. La philosophie médiévale en Occident est caractérisée par la rencontre du Christianisme et de la philosophie. La philosophie médiévale est une philosophie chrétienne, à la fois dans son intention et par ses représentants qui sont presque tous des clercs. Un thème fondamental constant est à partir de là aussi le rapport entre la foi et la raison. Mais ceci ne signifie pas que la pensée se manifeste désormais selon une unité dogmatique. Le conflit des directions philosophiques entre elles d'une part et les condamnations de thèses par les autorités ecclésiastiques d'autre part, montrent bien que la pensée se déploie sur des voies très autonomes et divergentes. Malgré sa grande diversité et sa longue période de développement, elle se manifeste cependant une certaine unité dans la présentation des questions philosophiques : discussion des auteurs du passé, confrontation avec les Saintes Écritures et les textes des Pères de l'Église, afin d'examiner toutes les facettes d'un même problème, dont à la fin l'auteur proposait la résolution. La première période coïncide avec l'Antiquité : la Patristique (du au environ) est caractérisée par les efforts des Pères de l'Église ("patres") pour édifier la doctrinePar « philosophie moderne », il faut entendre les courants philosophiques qui se développent au cours de ce que les historiens appellent l'Époque moderne (1492-1789). Globalement, on peut distinguer la philosophie humaniste de la Renaissance et celle des Lumières.L’Humanisme est un courant de pensée qui apparaît pendant la Renaissance. Il consiste à valoriser l’Humanité, à la placer au centre de son univers. Dans cette optique, le principe de base de cette théorie est que la personne humaine est en possession de capacités intellectuelles potentiellement illimitées. La quête du savoir et la maîtrise des diverses disciplines sont nécessaires au bon usage de ces facultés. Il prône la vulgarisation de tous les savoirs, même religieux : pour certains humanistes, la parole divine doit être accessible à toute personne, quelles que soient ses origines, sa langueElle est, d'une part, l'héritière de la pensée antique en bien des points. Descartes, Spinoza, Leibniz ou Hume (pour ne citer qu'eux). et leur ont notamment emprunté leur vocabulaire. Mais d'autre part, les Modernes ont souvent compris leur propre travail comme une de ce que les philosophes de l'Antiquité avaient déjà accompli, ce qui les conduisit parfois à s'opposer à ces derniers. Cette tentative « d'améliorer » la philosophie antique apparaît clairement dans la philosophie politique, une des grandes caractéristiques de la philosophie moderne étant en effet d'avoir renouvelé celle-ci. Machiavel ou Hobbes ont tous deux voulu fonder la philosophie politique comme science, en la séparant nettement de l'éthique (alors que cette dernière et la politique étaient inséparables chez les trois grands penseurs de l’Antiquité qu'étaient Socrate, Platon et Aristote). En outre, aussi bien Spinoza et Hobbes que Machiavel ont cherché à fonder la philosophie politique sur l'étude de la personne humaine telle qu'elle "est" — et non telle qu'elle "devrait être" comme le faisaient les Anciens. Mais la philosophie moderne, au sens où nous l'avons délimitée, comprend aussi, dès la fin du, la philosophie des Lumières et le libéralisme : Locke, Rousseau, Diderot, Voltaire entre autres. Le mot « philosophe » y prend le sens nouveau de « membre du parti philosophique » au fur et à mesure que se dessine une philosophie politique qui privilégie la démocratie, la tolérance et la souveraineté du peuple, que ceLa philosophie du se divise en des directions si différentes qu'elles ne se laissent pas ramener à un seul et unique concept. Elle comprend la philosophie romantique, l'Idéalisme allemand, le positivisme, la pensée socialiste et matérialiste de Marx, Feuerbach ou Proudhon, le pragmatisme ainsi que nombre de penseurs difficiles à classer tels Schopenhauer, Nietzsche et Kierkegaard ou encore plus tard Chestov. Une partie de la philosophie et surtout de la philosophie allemande se comprend comme un dialogue critique mais aussi constructif avec la pensée kantienne : ce fut le cas de l'Idéalisme allemand, de Schopenhauer et de Nietzsche. Le but avoué étant de reprendre ce qui semblait le plus intéressant dans la philosophie de Kant et de la débarrasser de ce qui semblait être des restes d'une métaphysique dépassée. Les courants philosophiques marqués par l'empirisme ont pris une autre direction comme le positivisme de Comte qui voulait dépasser la pensée métaphysique uniquement au moyen des sciences empiriques c'est-à-dire sans recourir aux explications métaphysiques. En Angleterre Bentham et Mill développèrent l'utilitarismeLa philosophie du se caractérise elle aussi par une importante variété de doctrines, dominées globalement par deux grandes familles de pensée : la philosophie analytique et la phénoménologie. La philosophie analytique, philosophie dominante de la seconde moitié de ce siècle, qui prend racines en Allemagne avec Frege, en Autriche avec Moritz Schlick et Rudolf Carnap, au Royaume-Uni avec Russell et Whitehead, et en Pologne avec l'École de Lvov-Varsovie (Tarski, Kotarbiński, Leśniewski, Łukasiewicz), est majoritaire dans l'ensemble des pays anglophones et dans une grande partie de l'Europe (Autriche, Allemagne, Pologne, Suisse, pays scandinaves, etc.). Elle se caractérise par un usage important de la logique mathématique et plus généralement par une grande attention portée au langage comme source d'illusions et de paralogismes. Elle a abouti à une reprise d'ensemble de nombreux problèmes philosophiques traditionnels tels que la nature de l'esprit et ses rapports au corps (voir philosophie de l'esprit), les problèmes relatifs à la nature de l'action (voir philosophie de l'action), l'essence et la fonction du langage naturel et formel (cf. la philosophie du langage et la philosophie de la logique). Ses représentants les plus importants sont Russell, Frege, Whitehead, Wittgenstein, Tarski, Leśniewski, Łukasiewicz, Ajdukiewicz, Davidson, Kenny, Austin, Searle, Ryle, Hintikka, Vuillemin. L'autre grande tradition philosophique du est la phénoménologie, fondée par Husserl, dont les successeurs sont Heidegger, Sartre, Merleau-Ponty, Ingarden, Stein, Patočka, Ricœur ou Levinas. Pour Husserl, la phénoménologie est la science des phénomènes, c'est-à-dire la science des « vécus » de la conscience, s'opposant en cela au réalisme naïf (ou « attitude naturelle ») qui prétend faire la science des objets du monde extérieur. Il s'agit d'une science apriorique, ou « eidétique », c'est-à-dire d'une science qui décrit les "essences" des vécus de la conscience. Elle aura ainsi pour objets, entre autres, la connaissance (Husserl), l'imagination (Sartre), la perception (Merleau-Ponty), l'existence humaine (Heidegger), la volonté (Ricœur). Le début du marque également le début de la psychanalyse, fondée par Freud, qui apporte une conception nouvelle de l'homme, contredisant la représentation traditionnelle de la conscience humaine : la psychanalyse fournit en effet un modèle théorique du psychisme humain impliquant la domination de l'inconscient sur la conscience, ainsi qu'une méthode d'investigation de ce dernier. Freud dit lui-même de sa discipline qu'elle constitue la troisième blessure narcissique de l'humanité. Même si Freud était un médecinLa philosophie chinoise diffère radicalement de la philosophie grecque, tellement que l'on peut s'interroger sur l'association des termes de l'expression « philosophie chinoise ». Dès l'origine les chemins divergent, se rejoignant seulement au : les formes linguistiques sont très différentes (la linguistique chinoise n'est pas basée sur le "logos", au contraire du grec ancien) ; la pensée chinoise s'appuie plus volontiers sur l'analyse que sur la synthèse ; sur la résolution des problèmes que sur la définition des concepts ; sur l'exemplarité que sur la démonstration ; sur la fluidité de l'esprit que sur la solidité des arguments. La pensée chinoise est donc intéressante dans le sens où elle nous permet de découvrir des entrées originales, inconnues pour la philosophie occidentale.Le confucianisme est la voie principale de la philosophie chinoise et n'a connu que de rares mises à l'écart. Toute éducation se fondait en premier lieu sur les livres formant le « Canon confucianiste » : dont le "Shi Jing" ou "Livre des Poèmes", le "Yi Jing" ou "Livre des Mutations", les "Annales de Lu", les "Entretiens de Confucius" et le livre de "Mencius". Presque toute la production savante en Chine peut s'interpréter commeLe néo-confucianisme désigne un développement tardif et éloigné du confucianisme, mais possède des racines autres que celle du confucianisme. Il commença son développement sous la dynastie des Song et parvint à sa plus grande expansion sous celle des Ming. On en retrouveLe taoïsme, une religion, une philosophie? Le terme « taoïsme » recouvre des textes, des auteurs, des croyances et pratiques, et même des phénomènes historiques qui ont pu se réclamer les uns des autres, répartis sur ans d’histoire. La catégorie « Taoïsme » est née sous la dynastie Han (200 av. J.-C. à 200), bien après la rédaction des premiers textes, du besoin de classer les fonds des bibliothèques princières et impériales. "Dào jiā" () ou "dào jiào" (), « école taoïste », distingue à l’époque une des écoles philosophiques de la période des Royaumes combattants (500 av. J.-C. à 220 av. J.-C.). École est ici à entendre dans son sens grec, voire pythagoricien, d’une communauté de pensée s’adonnant aussi à une vie philosophique ; n'y voir qu’un courant intellectuel est un anachronisme moderne. Mais cette école ne fut sans doute que virtuelle, car ses auteurs, dans la mesure où ils ont vraiment existé, ne se connaissaient pas forcément, et certains textes sont attribués à"Xuanxue" , "Hsuan Hsue" ou néo-taoïsme désigne un courant de pensée philosophique et culturel chinois. Celui-ci s'est créé lors du démantèlement de l'empire Han, au de notre ère. Les philosophes de ce courant ont développé une interprétation métaphysique cohérente du Dao De Jing, du Zhuangzi et du Yi Jing, dans laquelle le "dao",Sous cette désignation, on retrouve quantité de doctrines, avec, entre autres :La philosophie japonaise (en japonais , "Nihon tetsugaku") se situe dans le prolongement de la philosophie chinoise, le plus généralement par l'importation, "via" la Corée, de la culture chinoise durant le Moyen Âge. Le Japon s'est en effet approprié le Bouddhisme et le Confucianisme. La religion traditionnelle nippone, le Shintoïsme,On définit classiquement deux sortes de philosophies indiennes : les philosophies "āstika" (आस्तिक en devanāgarī), qui suivent les "Veda" (hindouisme...) et les philosophies "nāstika" (नास्तिक) que sont le jaïnisme, le bouddhisme et le "Cārvāka", qui les rejettent. Pour ces dernières, on se reportera aux articles qui les concernent.On distingue traditionnellement six écoles orthodoxes que sont le Mīmāṃsā, le Nyāya, le Sāṃkhya, le Vaiśeṣika, le Vedānta et le Yoga de Patañjali. Ces écoles sont aussi connues sous le terme sanskrit "darśana" qui signifie « point de vue doctrinal ».On distingue traditionnellement trois écoles non orthodoxes que sont le jaïnisme, le bouddhisme et le Cārvāka.Il existe d'antiques relations entre les "Veda" indiennes et les "Avesta" mèdes. Les deux principales familles philosophiques traditionnelles indo-iraniennes étaient déterminées par deux différences fondamentales : dans leurs implications sur la position de l'être humain dansS'il faut dire que l'expression a posé un problème du même acabit que celui constaté avec l'expression « philosophie chinoise », il faut reconnaître que le débat sur la philosophie africaine a beaucoup évolué ces dernières décennies. Le terme de « philosophie africaine » est donc utilisé de différentes manières par différents philosophes. Bien qu'une majorité de philosophes africains étudient dans des domaines tels que la métaphysique, l'épistémologie, la morale et la philosophie politique, une question qui accapare nombre d'entre eux se situe sur la nature de la philosophie africaine elle-même. Un des points centraux du désaccord est sur le terme « africain » : désigne-t-il le contenu de la philosophie ou l'identité des philosophes? La philosophie africaine puise à la fois dans l'héritage traditionnel du continent, notamment dans l'enseignement de l'Égypte pharaonique, et dans l’héritage de la philosophie occidentale.
La philosophie, du grec ancien "φιλοσοφία" (composé de "φιλεῖν", "philein" : « aimer » ; et de "σοφία", "sophia" : « sagesse » ou « savoir »), signifiant littéralement « amour de la sagesse », est une démarche de réflexion critique et de questionnement sur le monde, la connaissance et l'existence humaine. Elle existe depuis l'Antiquité en Occident et en Orient, à travers la figure du philosophe, non seulement en tant qu'activité rationnelle mais aussi comme mode de vie. L'histoire de la philosophie permet d'appréhender son évolution.
xwikis
Le terme biologie est formé par la composition des deux mots grecs "bios" (βιος) en français « vie » et "logos" (λογος) qui signifie « discours, parole ». Ce néologisme est créé à la fin du et au début du et de façon indépendante : Tout ce qui est généralement commun aux végétaux et aux animaux comme toutes les facultés qui sont propres à chacun de ces êtres sans exception, doit constituer l'unique et vaste objet d'une science particulière qui n'est pas encore fondée, qui n'a même pas de nom, et à laquelle je donnerai le nom de biologie. Chez Lamarck on trouve, pour la première fois, une conception de l'être vivant qui reconnaît son originalité comparativement aux objets inanimés sans pour autant la faire déroger aux lois de la physique, contrairement à ce qu'avaient tendance à faire les vitalistes et les fixistes. Le même Lamarck, bien avant de donner des cours de biologie en 1819, sépare dans son ouvrage "Hydrogéologie", paru également en 1802, la physique terrestre en trois parties : Les savants allemands, à l'appel de Treviranus, lancent les méticuleux inventaires de la flore et de la faune, réalisés par ceux qui, respectivement, se nommeront botanistes et zoologistes. Vers le milieu du, un intérêt pour les fonctions du vivant oriente la recherche biologique vers la physiologie.L'objet de la biologie est l'être vivant et la vie dans son ensemble et son fonctionnement. Mais qu'est-ce qu'un être vivant? En quoi se différencie-t-il des objets inanimés et des machines? Et qu'est-ce que la vie? À ces questions, les biologistes n'ont actuellement pas de réponse précise qui fasse l'unanimité dans la communauté scientifique. Certains d'entre eux, et non des moindres, pensent même que ces questions sont sans objet. Ainsi Claude Bernard, dans la première des "Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux" (1878), déclare explicitement que l'on n'a pas à définir a priori la notion de vie, car la biologie doit être une science expérimentale ; ce serait là une définition a priori et. En conséquence, et. La biologie semble être restée fidèle à cette conception, puisqu'elle continue à ne pas précisément définir la notion de vie pour se limiter à l'analyse de « choses naturelles » ou parfois en partie créées par l'humain (via la sélection puis le génie génétique) que le sens commun lui désigne comme vivants. Cette analyse permet de mettre en évidence un certain nombre de caractères communs à ces objets d'étude, et ainsi d'appliquer ce qualificatif de vivant à d'autres objets présentant les mêmes caractères. Cette méthode, exclusivement analytique et expérimentale, a considérablement renforcé l'efficacité et la scientificité du travail du biologiste, comparativement aux conceptions souvent spéculatives d'avant Claude Bernard. Elle a cependant amené une « physicalisation » telle que l'on a parfois l'impression que, pour rendre scientifique la biologie, il a fallu nier toute spécificité à son objet. De fait, certains biologistes en viennent à déclarer que, ou plus exactement qu'elle serait un processus physico-chimique parmi d'autres. Le premier d’entre eux est probablement Albert Szent-Györgyi, prix Nobel de médecine en 1937, qui a déclaré : Le plus connu est François Jacob : Plus récemment, c'est aussi la position d'Henri Atlan : Cette dernière citation illustre la confusion entre l"'étude de la vie" et celle de la "matière des êtres vivants", où transparaît la tentation de réduire la biologie à la seule biologie moléculaire en niant au vivant, grâce au nivellement que permet la chimie, toute spécificité qui ne soit pas une simple différence physico-chimique. Autrement dit, il est tentant, en réduisant la biologie à la biologie moléculaire, de ne différencier le vivant de l'inanimé que par les critères par lesquels la biologie moléculaire se différencie du reste de la chimie. Cette négation de la spécificité du vivant vient d'une conception où l'on n'admet aucune discontinuité entre vivant et inanimé pour conserver un univers cohérent et unifié. On y admet donc une gradation progressive entre l'inanimé et le vivant, tant dans les formes actuelles (les virus, censés être à la limite du vivant et de l'inanimé) que dans l'apparition de la vie sur Terre (cette apparition y est comprise comme une phase prébiotique progressive sans discontinuité marquée). En fait, cette négation de la spécificité du vivant, qui se veut matérialiste, confond simplement le matérialisme épistémologique et les sciences de la matière. Les sciences, y compris la biologie, se doivent d'être matérialistes, personne ne dira le contraire. Mais doivent-elles pour autant n'être que des sciences de la matière? La physique est depuis longtemps la science modèle pour toutes les autres, à tel point qu'on a fini par la confondre avec l'idéal du matérialisme épistémologique. Parler de la notion de vie, de la spécificité de l'être vivant, c'est, en biologie, s'exposer à se voir qualifier de vitaliste, voire d'animiste, car qui s'écarte un peu de la physico-chimie est censé sortir du matérialisme épistémologique. Si bien qu'aujourd'hui on a l'impression que ce que vise la biologie n'est pas tant l'étude de la vie (ou de l'être vivant dans ce qu'il a de spécifique relativement à l'objet inanimé) que sa pure et simple négation, le nivellement et l'unification de l'univers par la physico-chimie. Comme si, pour unifier, il valait mieux nier les solutions de continuité que les comprendre. Une autre approche est plus "systémique" ainsi résumée par Jacob (1970) : ; c'est une des base de l'écologie scientifique et de son « approche écosystémique ». Le problème de la spécificité de l'être vivant n'est donc pas encore réglé par la biologie moderne qui ainsi n'a donc aucune définition claire et explicite de son objet. Ce problème est seulement occulté de diverses manières, qui toutes tendent à ramener, faute de mieux, la conception de Descartes de l'être vivant comme plus ou moins semblable à une machine très complexe. Rares sont les biologistes qui s'inscrivent en faux contre cette approximation en avançant une conception du vivant plus précise et proche de la réalité. Un certain nombre de travaux en biologie théorique visent cependant à dépasser ces limitations, tels que ceux de Francisco Varela, Robert Rosen ou Stuart Kauffman. L'enjeu est alors souvent la différence entre biologie et physique.La première théorie de l'évolution du vivant a été avancée par Jean-Baptiste Lamarck dans son ouvrage "Philosophie Zoologique" en 1809. Comme son titre l'indique, elle se présente sous la forme d'un système philosophique, bien qu'elle pose les bases essentielles pour la compréhension des êtres vivants et de leur évolution. Cinquante ans plus tard, en 1859, avec la parution de "L'Origine des espèces", Charles Darwin propose une explication scientifique de l'évolution, sous la forme d'un mécanisme simple, avec le principe de sélection naturelle. Avec le temps, la théorie originelle de Darwin a été affinée avec les résultats des expériences et observations que les biologistes ont effectuées. La théorie faisant actuellement consensus est celle de la théorie synthétique de l'évolution, appelée aussi néo-darwinisme. Le caractère évolutionniste de la vie a pendant très longtemps été discuté et est même encore mis en doute par certaines personnes en dehors de la communauté scientifique, mais aucune de ces objections à la théorie de l'évolution n'est scientifiquement fondée. La communauté scientifique a depuis très largement admis l'évolutionnisme de la vie comme un fait démontré par l'expérience et l'observation à maintes reprises notamment par :Si la biologie est si vaste, c'est en raison de l'extrême diversité du vivant qui se présente sous tellement de formes que l'on peut avoir du mal à discerner des points communs. Une hiérarchisation du vivant a tout de même été réalisée, qui est le domaine de la systématique et de la taxinomie. Tous les êtres vivants sont classés en trois domaines :Bien qu'étant différentes, toutes les formes de vie partagent des caractères communs. Ce qui porte à croire que la vie sur Terre a pour origine une seule et même forme de vie, désignée sous l'acronyme de LUCA (pour l'), qui serait apparue sur Terre il y a au moins 2,5 milliards d'années. Les principaux caractères universels du vivant sont :En raison du caractère extrêmement vaste du sujet, l'étude de la biologie nécessite un morcellement en domaines d'études. Une approche un peu « réductrice » mais ayant l'avantage de clarifier les thèmes consiste à définir des niveaux d'organisation. Dans un souci de parvenir à une compréhension plus globale de la biologie, des ponts se sont naturellement créés entre les différentes disciplines. Permet l'exploration de différents sujets originaux comme la biologie moléculaire, la biotechnologie, la toxicologie, la science biomédicale, etc.Les domaines étudiant la structure du vivant sont à l'échelle de l'atome pour la biologie moléculaire et de la cellule pour la biologie cellulaire. Le domaine de la biologie moléculaire étudie les composés de bases du vivant, comme l'ADN et les protéines. Pendant longtemps, on a cru que les lois de la chimie régissant le vivant étaient différentes de celles pour la matière inanimée. Mais depuis la synthèse de nombreux composés organiques, il est clairement admis que les lois chimiques sont les mêmes que pour la matière inorganique. Aucune force vitale n'insuffle la vie à la matière comme on le pensait avant avec la théorie vitaliste. La mise au point du microscope avec lequel Robert Hooke a découvert les cellules en 1665 a marqué la naissance de la biologie cellulaire et celle d'un monde alors insoupçonné. Cette découverte et les nombreuses qui ont suivi ont permis d'expliquer certains phénomènes comme ce que l'on qualifiait à l'époque de génération spontanée. C'est à cette échelle que l'on rencontre les premiers organismes vivants.Prise au sens structurelle et fonctionnelle, la biologie recouvre également l'ensemble des disciplines, classiques et modernes, qui étudient des structures comme les tissus avec l'histologie ou les organes avec l'anatomie. La physiologie quant à elle étudie les principes mécaniques, physiques et biochimiques des organismes vivants et est séparée en deux branches : la physiologie végétale et la physiologie animale.L'extrême diversité du vivant n'empêche en rien le groupement en entités ou taxons (Taxinomie), leurs relations les uns par rapport aux autres et leur classement (systématique).Les interactions des êtres vivants entre eux et les liens les unissant avec leur environnement est le domaine de l'écologie. L'éthologie quant à elle étudie le comportement animal dans le milieu naturel.Les Sciences de la Vie comprennent de nombreuses disciplines et sous-disciplines plus ou moins reliées entre elles et parfois imbriquées. Ces disciplines sont organisées soit par niveau d'observation, soit par approche méthodologique, soit par type d'organisme étudié.Les applications des découvertes en biologie sont nombreuses et très présentes dans le quotidien de l'être humain. Les avancées importantes de ces dernières décennies en médecine ont principalement pour origine les découvertes sur le fonctionnement du corps humain. Le domaine pharmaceutique profite également des avancées en chimie organique. Plus récemment, la découverte de la structure de l'ADN et une meilleure compréhension de l'hérédité ont permis de modifier finement les êtres vivants et trouvent des applications dans les domaines agricole et agro-alimentaire. La biologie peut également avoir des applications en criminologie. Dans la Revue française de criminologie et de droit pénal, Laurent Lemasson présente trois corrélations entre biologie et criminalité mises en évidence par différents chercheurs: la présence des gènes MAOA et HTR2B chez une part importante de criminels ; un fonctionnement anormal des régions frontales et temporales du cerveau ; enfin un état de sous-excitation physiologique chez les criminels multirécidivistes.Depuis le développement de la biologie moléculaire et de la physiologie cellulaire dans la seconde partie du, les progrès de la biologie sont devenus quotidiens et ont un impact énorme sur la société : compréhension des mécanismes moléculaires de plusieurs centaines de maladies, amélioration des traitements contre le cancer, compréhension des mécanismes neurologiques, amélioration des traitements des maladies mentales et dépistage de tares génétiques "in utero". Une meilleure compréhension de l'évolution moléculaire, substrat physique à l'évolution des espèces, permet de transposer aux humains les découvertes faites sur les animaux, y compris des vers comme "C. elegans" ou la mouche drosophile, dont on a montré que les mécanismes moléculaires de segmentation du corps au cours de l'embryogenèse sont identiques à ceux de l'humain, et, de manière générale, à tout le vivant métazoaire. Toutefois, les progrès très rapides de la biologie suscitent parfois des interrogations philosophiques, de vives inquiétudes, voire une forte opposition de certaines associations ou organisations non gouvernementales (ONG). Citons notamment : le clonage, les organismes génétiquement modifiés (OGM), le séquençage, et les problèmes de propriété intellectuelle qui en découlent.
La biologie (du grec "bios" « la vie » et "logos", « discours ») est la science du vivant. Elle recouvre une partie des sciences de la nature et de l'histoire naturelle des êtres vivants.
xwikis
Trois étymologies sont fréquemment citées, maisL'art d'employer ou de trier, préparer, purifier, de transformer les substances séchées mises sous forme de poudres, qu'elles proviennent du désert ou de vallées sèches, a donné naissance à des codifications savantes. Initialement d'abord essentiellement minérales. Mais les plantes éphémères et les arbres pérennes du désert, et leurs extraits gommeux ou liquides nécessaires aux onguents, ont été très vite assimilés à celles-ci, par reconnaissance de l'influence des terres et des roches. Outre la connaissance du cycle de l'eau et des transports sédimentaires, la maîtrise progressive des métaux et des terres, les Égyptiens de l'Antiquité connaissent beaucoup de choses. Parmi elles, le plâtre, le verre, la potasse, les vernis, le papier (papyrus durci à l'amidon), l'encens, une vaste gamme de couleurs minérales ou pigments, de remèdes et de produits cosmétiques Plus encore que les huiles à onction ou les bains d'eaux ou de boues relaxants ou guérisseurs, la chimie se présente comme un savoir sacré qui permet la survie. Par exemple par l'art sophistiqué d'embaumer ou par le placement des corps des plus humbles dans un endroit sec. L"'artAu cours des siècles, ce savoir empirique oscille entre art sacré et pratique profane. Il s'est préservé comme l'atteste le vocable "chimia" des scolastiques en 1356, mais savoir et savoir-faire sont souvent segmentés à l'extrême. Parfois, il est amélioré dans le monde paysan, artisan ou minier avant de devenir une science expérimentale, la chimie, au cours des troisième et quatrième décennies du. Au même titre que la physique, le prodigieux essor de la pensée et de la modélisation mécanistes, font naître la chimie sous forme de science expérimentale et descriptive. Riche de promesses, la chimie reste essentiellement qualitative et bute sur le retourL'étude de la matière a naturellement conduit les premiers chimistes des années 1620-1650 à modéliser sa composition, puisant librement, mais non sans méfiance dans une abondante tradition antique. À la suite de Van Helmont, ces adeptes mécanistes de la contingence maîtrisent déjà la notion de gaz, tiennent compte du facteur de la température et parviennent à expliquer sommairement la pression de vapeur d'un corps et les mélanges miscibles des fluides. John Dalton, persévérant expérimentateur, continuateur de la première lignée mécaniste partiellement abandonnée, a le premier essayé de donner une définition moderne de la notion d'atome. L'atome constitue une particule fondamentale ou une combinaison de plusieurs d'entre elles. En 1811, Amedeo Avogadro affirme que le volume d'un gaz quelconque à pression et température constante contient le même nombre de particules, qu'il dénomme molécules intégrantes ou constituantes. L'obstination de nombreux chimistes souvent incompris, tel Berzelius en pionnier de l'électrovalence dès 1812, a servi pour réaffirmer la possibilité d'une modélisation à la fois mécaniste et géométrique par le biais d'une architecture atomique. Auguste Laurent, proposant pour des séries homologues de molécules organiques un même squelette constituéAu, l'essor des mesures physiques a facilité aux chimistes la caractérisation des composés avec lesquels ils travaillent. Auparavant, la réaction chimique et un nombre restreint de techniques physico-chimiques s'imposaient en ultime recours pour détecter ou caractériser une molécule. Maintenant, il existe diverses méthodes de mesures. Parmi elles, la chromatographie, la spectrométrie électromagnétique (infrarouge, lumière visible ou UV), la masse, de résonance magnétique nucléaire. Sans oublier aussi d'inclure les microscopies électroniques et autresLa chimie est divisée en plusieurs spécialités expérimentales et théoriques à l'instar de la physique et de la biologie, avec lesquelles elle partage parfois des espaces d'investigations communs ou proches. La recherche et l'enseignement en chimie sont organisés en disciplines qui peuvent partager des domaines communs : Liste d'autres domaines spécialisés ou d'interface : Ces interfaces mouvantes ne facilitent pas la délimitation de la chimie. L'évolution de laUn élément est une entité immatérielle dénuée de propriétés physiques ou chimiques. Il constitue un couple formé d'un symbole et d'un numéro atomique (numéro d'ordre dans le tableau périodique des éléments) qui caractérise les atomes, molécules, ions, nucléides isotopes d'une espèce chimique donnée.L'atome d'une espèce chimique représente une entité matérielle. L'atome est formé d'un noyau atomique contenant des nucléons, en particulier d'un nombre Z de charge électrique élémentaire positive du noyau qui maintient autour de lui un nombre d'électrons, charge négative équilibrant la charge positive du noyau. Il possède un rayon, une structure géométrique, ainsi que des propriétés chimiques et physico-chimiques spécifiques relevant de ce cortège électronique. Un atome constitue la plus petite partie d'un corps simple pouvant se combiner chimiquement avec une autre. Généralement constitué d'un noyau composé de protons et de neutrons autour desquels orbitent des électrons, sa taille caractéristique se compte en dixième de nanomètre (nm), soit 10 m. La théorie atomiste, qui soutient l'idée d'une matière composée de « grains » indivisibles (contre l'idée d'une matière indéfiniment sécable), est connue depuis l'antiquité, et fut en particulier défendue par Démocrite, philosophe de la Grèce antique. ElleUne molécule constitue un assemblage précis d'atomes, domaine défini et structuré dans l'espace et le temps par des liaisons chimiques fortes. Une molécule polyatomique se comporte essentiellementLa liaison chimique impliquant la présence d'électrons liés à un ou plusieurs noyaux explique la réalité moléculaire. Plus précisément, elle assure la stabilité des molécules et, dans le cas d'un assemblage complexe, la cohésionUn corps pur incarne un corps généralement macroscopique constitué au niveau moléculaire d'une seule espèce chimique. Sa composition chimique, son organisation sous forme de gaz, liquide, solide amorphe ou réseaux cristallins, et sesUn composé chimique désigne l'espèce chimique d'un corps composé. Un corps pur est caractérisé par sa formule chimique, écriture symbolique plus ou moins complexe et détaillée, de sa composition chimique. La masseUn ion représente un atome qui a perdu ou gagné un ou plusieurs électrons. Il s'agit un cation simple lorsque son cortège électronique a été privéLes complexes sont des édifices formés par un élément central et des ligands. L'élément central, souvent un ion métallique avec un complexe pouvant être chargé. L'étude des complexes métalliques relève de la chimie organométallique ou de la chimie de coordination suivant la nature de l'atome lié au métal (respectivement, un carbone, ou un autre atome). Les complexes revêtent une grande importance en chimie des solutions, en catalyse et en chimie bioinorganique.Dans les conditions habituelles au laboratoire, le nombre d'entités chimiques participant à une réaction est très élevé : pour une masse de l'ordre de la dizaine de grammes de matière, Il se rapproche de 10. Les chimistes utilisent communément une unité numérique, la mole, qui est représentée par la lettre minuscule « "n" ». La grandeur associée à la mole constitue la quantité de matière. Une mole d'une entitéL'aspect expérimental reste central en chimie, ceci aussi bien du point de vue historique que pour la pratique actuelle de cette science ainsi que deUne réaction chimique constitue la transformation d’une ou de plusieurs espèces chimiques en d'autres espèces chimiques. Elle implique l'apparition ou la disparition d'au moins une liaison chimique ou un échange d'électron. La réaction qui possède des caractéristiques thermiques nécessite ou fait apparaître différentes formes d’énergie en rapport avec l'énergie de liaison chimique.Une solution se présente par un mélange homogène formé par un solvant en proportion majoritaire et d'un ou plusieurs solutés dans une phase homogène. Les réactions chimiques ont souvent lieu en solution. La solubilité représente la capacité d'un corps à entrer en solution dans un milieu donné. Par exemple, un sel cristallin comme le chlorure de sodium NaCl ou sel de cuisine possède une limite de solubilité dans l'eau : d'eau à et à. Cela signifie qu'à partir de cette teneur limite, le sel précipite ou se dépose sous forme solide. Il y a alors de séparation de phase. La miscibilité constitue la capacité d'un corps à se mélanger avec un autre en formant une seule phase. Le gaz ammoniac se mélange facilement àUne réaction d'oxydoréduction constitue un échange d’électrons entre différentes espèces chimiques.Les réactions acides-bases en solution sont basées aussi sur des couples d'espèces chimiques. L'acidité et la basicité peuvent être calculées ou mesurées par la concentration des espèces chimiques en solution, qui prend une forme acide ou basique. SvanteUne synthèse chimique se décrit comme un enchaînement de réactions chimiques mis en œuvre de façon volontaire par un chimiste pour l'obtention d'un ou de plusieurs produits, parfois avec isolation de composés intermédiaires. Réaliser la synthèse d’un composé chimique, permet d'obtenir ce composé à partir d’autres composés chimiques grâce à des réactions chimiques. La planification de l'enchaînement des réactions afin de maximiser l'efficacité de la synthèse (nombre d'étapes, rendement, simplicité des réactions, considérations toxicologiques et environnementales) se nomme la stratégie de synthèse. La chimie organique représente principalement une chimie de synthèse, on parle alors de synthèse organique. Des aspects synthétiques importants se retrouvent également en chimie inorganique et en chimie des polymères.La chimie, science expérimentale et descriptive, prenant un essor remarquable à l'époque industrielle tout enLe laboratoire, souvent le meilleur endroit de formation à cette science expérimentale, nécessite des moyens coûteux, une lourde surveillance et une organisation souvent disproportionnée pour un usage souvent trivial.La chimie est introduite dès le Cycle 3 primaire (CE2, CM1, CM2) dans le cadre de l'enseignement des Sciences expérimentales et Technologies (B.O. 2011). Ces premières notions (par exemple unités de mesure, mélanges, solutions, les différents états de la matière et les changements d'états...) sont introduites dans le cadre d'activités essentiellement expérimentales et de résolution de problèmes concrets, issus pour la plupart de la vie quotidienne, en lien avec les autres matières de la formation (Sciences de la Vie et de la Terre, Physique, Technologie, Informatique...). Ici le but n'est pas forcément l'accumulation de connaissances, mais plutôt l'initiation à la résolution de problèmes et l'éveil de la curiosité de l'élève, celui-ci étant en général confronté à une situation concrète, en autonomie, à partir de supports variésEn 2009 au Québec, les cours de chimie et de physique constituent des options que peut prendre l'élève de cinquième secondaire. Cela pousse plus loin le cours de « sciences et technologie » qu'il a été obligé de suivre durant les dernières années de son secondaire. EnEn 2009 en Suisse, la chimie est enseignée au gymnase dès la dixième année de scolarité. Les universités deL'industrie chimique se développe continûment à la fin du Siècle des Lumières. Si la métallurgie n'est pas oubliée, le progrès reste partout observable. Le fer-blanc devient un produit commun entre 1770 et 1780. Après 1780, en plus des métaux, elle mêle des fabrications millénaires à des innovations récentes. Ces fabrications constituent les acides et la « soude », l'ammoniac, le dichlore et les chlorures décolorants, le phosphore et ses dérivés, les savons et acides gras, le dihydrogène, l'« éther », l'éthylène, l'alcool de vin, l'acide acétique. À tout cela s'ajoute surtout de nombreux sels et une multitude de dérivés organiques et minéraux préparés ou recueillis dans un cadre traditionnel. Elle prend un essor prodigieux au et participe pleinement aux fortes mutations de la révolution industrielle. Le gaz d'éclairage, produit de la distillation de la houille ou charbon gras, lance l'immense essor de la carbochimie. La découverte de métaux, leurs préparations au laboratoire, puis au stade industriel, comme l'aluminium et les métaux alcalins et alcalino-terreux, témoignent de la vigueur de la science très proche de l'industrie. En 1981,La chimie œuvre partout dans la nature, les corps vivants, les choses de la vie quotidienne sans que l'observateur attentif et disposant de puissants multiplicateurs sensoriels puisse correctement l'imaginer ou le modéliser. Un chimiste représente dès l'origine un expert des bilans matière et énergie et il sait intuitivement qu'il devrait prendre en compte tous les milieux et les acteurs microbiologiques, végétaux, animaux et humains. Lui en laisse-t-on les moyens?Citons quelques applications. D'abord la mesure. L'analyse précise de solutions diluées dans un solvant, contenant des molécules solubles plus ou moins complexes, constitue le fruit de longues mises au point analytiques, aujourd'hui très vite réalisées et banales, comme en chimie des solutions aqueuses. Pensons aux analyses banalisées de l'eau du robinet reconnue potable ou des eaux minérales du commerce. Les (bio)chimistes spécialistes des eaux présente un rôle de surveillance des eaux naturelles et de leurs qualités ou toxicités éventuelles. Le recours à la désinfection chimique de l'eau du robinet avant consommation pourrait être modéré en réalisant des progrès substantiels. En fin d'usage, la maîtrise des procédés chimiques et biologiques permet le traitement des eaux usées dans les stations d'épuration. Ensuite l'usage. La chimie la plus simple peutLa découverte et la synthèse de médicaments qui contribuent à l'augmentation de l'espérance de vie enregistrée depuis la fin de la révolution industrielle dans les pays développés sont aussi à l'actif des techniques de la chimie. Mais la médicalisation massive d'une population entraîne d'irréductibles problèmes de pollutions, car les molécules ou leurs produits sommaires de dégradations se retrouvent dans les eaux usées. Dans le domaine « Santé-environnement », la chimie constitue une source de problème par certains polluants qu'elle crée ou contribue à diffuser dans l'environnement, en particulier les produits chimiquesAu niveau international, la convention de Rotterdam, administrée par l'ONU (PNUD, FAO) a été adoptée par 165 pays en 1998 pour mieux assurer la santé des personnes etLe chimiste apparaît souvent en personnage caricatural de la littérature, de la bande dessinée et surtout du cinéma. Ces savants échevelés ou docteurs désopilants, à la fois et confusément biologistes, chimistes et physiciens, constituent des êtres sourds au monde vrai ou perdus hors du laboratoire et de l'étude ; à moins de remonter le temps, d'aller dans un autre monde ou sur la Lune, à l'image du professeur Tournesol. Ils interviennent surtout de façon intermittente, par leur action, tantôt décisive tantôt inquiétante, car elle oriente la fiction. Dans un registre comique, alliant de façon classique la chimie et l'amour, citons le film "Docteur Jerry et Mister Love" avec Jerry Lewis (1963), et Jean Lefebvre jouant le rôle d'Eugène Ballanchon dans "Le Fou du labo 4" de Jacques Besnard (1967).La représentation littéraire du chimiste dans de nombreuses œuvres constitue une grande différente de la réalité. Il est considéré comme un savant venu d'ailleurs qui vit hors du temps. Le chimiste se présente alors en demi-sorcier, image issue de l'ancien alchimiste, qui joue avec des forces obscures qu'il ne maîtrise pas afin de rivaliser avec la nature. La chimie est souvent associée avec l'occulte alors qu'elle représente une
La chimie est une science de la nature qui étudie la matière et ses transformations, et plus précisément : La taille des entités chimiques varie de simples atomes ou molécules nanométriques aux édifices moléculaires de plusieurs dizaines de milliers d'atomes dans les macromolécules, l'ADN ou protéine de la matière vivante ("infra")micrométrique, jusqu'à des dimensions parfois macroscopiques des cristaux. En incluant l'électron libre (qui intervient dans les réactions radicalaires), les dimensions de principaux domaines d'application se situent dans son ensemble entre le femtomètre () et le micromètre ().
xwikis
Le mot fut introduit par IBM France en 1955 après que François Girard, alors responsable du service publicité de l'entreprise, eut l'idée de consulter son ancien professeur de lettres à Paris, Jacques Perret. Avec Christian de Waldner, alors président d'IBM France, ils demandèrent au professeur Perret, de suggérer un. En 1911, une description de la machine analytique de Babbage utilisait le mot ordonnateur pour en décrire son organe moteur:. Le professeur proposa un mot composé centré autour d'ordonnateur : celui qui met en ordre et qui avait aussi la notion d'ordre ecclésiastique dans l'église catholique (ordinant). Il suggéra plus précisément « ordinatrice électronique », le féminin ayant pu permettre, selon lui, de mieux distinguer l'usage religieux de l'usage comptable du mot.Selon Bernard Cohen, auteur de l'ouvrage intitulé "Howard Aiken: Portrait of a computer pioneer",Sans une définition stricte il est impossible d'identifier la machine qui devint le premier ordinateur, mais il faut remarquer certaines des étapes fondamentales qui vont du développement du concept de la machine à calculer programmable par Charles Babbage en 1837 au premier développement de l'ère de l'informatique cent ans plus tard. En 1834, Charles Babbage commence à développer une machine à calculer programmable, sa machine analytique. Il pense la programmer grâce à un cylindre à picots comme dans les automates de Vaucanson, mais, deux ans plus tard, il remplace ce cylindre par la lecture de cartes Jacquard, et ainsi crée une machine à calculer infiniment programmable. En 1843, Ada Lovelace écrit le premier programme informatique pour calculer les nombres de Bernoulli, pour la machine analytique qui ne sera jamais construite. Henry Babbage construit une version extrêmement simplifiée de "l'unité centrale" de la « machine analytique » de son père et l'utilise en 1906, pour calculer et imprimer automatiquement les quarante premiers multiples du nombre Pi avec une précision de vingt-neuf décimales, démontrant sans ambiguïté que le principe de la machine analytique était viable et réalisable. En 1886, sa plus grande contribution fut de donner un ensemble mécanique de démonstration d'une des machines de son père à l'université Harvard. C'est cinquante ans plus tard, après avoir entendu la présentation de Howard Aiken sur son super calculateur, qu'un technicien de Harvard, Carmello Lanza, lui fit savoir qu'une machine similaire avait déjà été développée et qu'il lui montra l'ensemble mécanique de démonstration donné par Henry Babbage qui se trouvait dans un des greniers de l'université ; c'est ainsi qu'il découvrit les travaux de Babbage et qu'il les incorpora dans la machine qu'il présenta à IBM en 1937. C'était la troisième fois qu'il essayait de trouver un sponsor pour le développement de sa machine car son projet avait déjà été rejeté deux fois avant l'intégration des travaux de Babbage dans l'architecture de sa machine (une fois par la "Monroe Calculating Company" et une fois par l'université Harvard). Leonardo Torres Quevedo remplaça toutes les fonctions mécaniques de Babbage par des fonctions électromécaniques (addition, soustraction, multiplication et division mais aussi la lecture de cartes et les mémoires). En 1914 et en 1920, Il construisit deux "machines analytiques", non programmable, extrêmement simplifiées mais qui montraient que des relais électromécaniques pouvaient être utilisés dans une machine à calculer qu'elle soit programmable ou non. Sa machine de 1914 avait une petite mémoire électromécanique et son arithmomètre de 1920, qu'il développa pour célébrer le centième anniversaire de l'invention de l'arithmomètre, était commandé par une machine à écrire qui était aussi utilisée pour imprimer ses résultats. Percy Ludgate améliora et simplifia les fonctions mécaniques de Babbage mais ne construisit pas de machine. Et enfin, Louis Couffignal essaya au début des années 1930, de construire une machine analytique, mais sans succès. C'est cent ans après la conceptualisation de l'ordinateur par Charles Babbage que le premier projet basé sur l'architecture de sa machine analytique aboutira. En effet, c'est en 1937 qu'Howard Aiken présenta à IBM un projet de machine à calculer programmable qui sera le premier projet qui finira par une machine qui puisse être, et qui sera utilisée, et dont les caractéristiques en font presque un ordinateur moderne. Et donc, bien que le premier ordinateur ne sera jamais déterminé à l’unanimité, "le début de l'ère de l'informatique moderne" peut être considéré comme la présentation d'Aiken à IBM, en 1937, qui aboutira par l'ASCC.Les machines à calculer jouèrent un rôle primordial dans le développement des ordinateurs pour deux raisons tout à fait indépendantes. D'une part, pour leurs origines : c'est pendant le développement d'une "machine à calculer automatique" à imprimante qu'en 1834 Charles Babbage commença à imaginer sa machine analytique, l’ancêtre des ordinateurs. C’était une machine à calculer programmée par la lecture de cartes perforées (inspirées du Métier Jacquard), avec un lecteur de cartes pour les données et un pour les programmes, avec des mémoires, un calculateur central et des imprimantes et qui inspirera le développement des premiers ordinateurs à partir de 1937 ; ce qui nous amènera aux "mainframes" des années 1960. D'autre part, leur propagation se fit grâce à la commercialisation en 1971 du premier microprocesseur, l'Intel 4004, qui fut inventé pendant le développement d'une machine à calculer électronique pour la compagnie japonaise Busicom, qui est à l'origine de l'explosion de la micro-informatique à partir de 1975 et qui réside au cœur de tous les ordinateurs actuels quelles que soient leurs tailles ou fonctions (bien que seulement 2 % des microprocesseurs produits chaque année soient utilisés comme unités centrales d'ordinateur, les 98 % restant sont utilisés dans la construction de voitures, de robots ménagers, de montres, de caméras de surveillance...).Outre les avancées observées dans l'industrie du textile et celles de l'électronique, les avancées de la mécanographie à la fin du, pour achever les recensements aux États-Unis, la mécanisation de la cryptographie au début du, pour chiffrer puis déchiffrer automatiquement des messages, le développement des réseaux téléphoniques (à base de relais électromécaniques), sont aussi à prendre en compte pour comprendre l'avènement de ce nouveau genre de machine qui ne calculent pas (comme font/faisaient les calculatrices), mais lisent et interprètent des programmes qui -eux- calculent. Pour le monde des idées, avant l'invention de ces nouvelles machines, l'élément fondateur de la science informatique est en 1936, la publication de l'article "On Computable Numbers with an Application to the Entscheidungsproblem" par Alan Turing qui allait déplacer le centre de préoccupation de certains scientifiques (mathématiciens et logiciens) de l'époque, du sujet de la calculabilité (ou décidabilité) ouvert par Hilbert, malmené par Godël, éclairci par Church, vers le sujet de la mécanisation du calcul (ou calculabilité effective). Dans ce texte de 36 pages, Turing expose une machine théorique capable d'effectuer tout calcul ; il démontre que cette machine est aussi puissante, au niveau du calcul, que tout être humain. Autrement dit, un problème mathématique possède une solution, si et seulement si, il existe une machine de Turing capable de résoudre ce problème. Par la suite, il expose une machine de Turing universelle apte à reproduire toute machine de Turing, il s'agit des concepts d'ordinateur, de programmation et de programme. Il termine en démontrant qu'il existe au moins un problème mathématique formellement insoluble, le problème de l'arrêt. Peu avant la Seconde Guerre mondiale, apparurent les premières calculatrices électromécaniques, construites selon les idées d'Alan Turing. Les machines furent vite supplantées par les premiers calculateurs électroniques, nettement plus performants.La fin des années 1930 virent, pour la première fois dans l'histoire de l'informatique, le début de la construction de deux "machines à calculer programmables". Elles utilisaient des relais et étaient programmées par la lecture de rouleaux perforés et donc, pour certains, étaient déjà des ordinateurs. Elles ne furent mises en service qu'au début des années 1940, faisant ainsi de 1940 la première décennie dans laquelle on trouve des ordinateurs et des machines à calculer programmables totalement fonctionnels. C'est d'abord en 1937 que Howard Aiken, qui avait réalisé que la machine analytique de Babbage était le type de machine à calculer qu'il voulait développer, proposa à IBM de la créer et de la construire ; après une étude de faisabilité, Thomas J. Watson accepta de la construire en 1939 ; elle fut testée en 1943 dans les locaux d'IBM et fut donnée et déménagée à l'université Harvard en 1944, changeant son nom de ASCC à Harvard Mark I ou Mark I. Mais c'est aussi Konrad Zuse qui commença le développement de son Zuse 3, en secret, en 1939, et qui le finira en 1941. Parce que le Zuse 3 resta inconnu du grand public jusqu’après la fin de la Seconde Guerre mondiale (sauf des services secrets américains qui le détruisirent dans un bombardement en 1943), ses solutions très inventives ne furent pas utilisées dans les efforts communs mondiaux de développement de l’ordinateur.Six machines furent construites durant ces. Elles furent toutes décrites, au moins une fois, dans la multitude de livres de l'histoire de l'informatique, comme étant le premier ordinateur ; aucune autre machine, construite ultérieurement, ne fut décrit comme telle. Ces six "précurseurs" peuvent être divisées en trois groupes bien spécifiques : De ces six machines, seulement quatre furent connues de leurs contemporains, les deux autres, le Colosse et le Z3, utilisées dans l'effort de guerre, ne furent découvertes qu'après la fin de la Seconde Guerre mondiale, et donc ne participèrent pas au développement communautaire mondial des ordinateurs. Seulement deux de ces machines furent utilisées dans les années 1950, l'ASCC/Mark I et l'ENIAC, et chacune fut éventuellement modifiée pour en faire une machine Turing-complet. En est publié un article fondateur de John von Neumann donnant les bases de l'architecture utilisée dans la quasi-totalité des ordinateurs depuis lors. Dans cet article, von Neumann veut concevoir un programme enregistré et programmé dans la machine. La première machine correspondant à cette architecture, dite depuis architecture de von Neumann est une machine expérimentale la Small-Scale Experimental Machine (SSEM ou "baby") construite à Manchester en juillet 1948. En août 1949 la première machine fonctionnelle, fondée sur les bases de von Neumann fut l'EDVAC.Cette chronologie demande qu'un ordinateur soit électronique et donc elle commence, en 1946, avec l'ENIAC qui, au départ, était programmé avec des interrupteurs et par le positionnement de fils sur un commutateur, comme sur un ancien standard téléphonique. Les ordinateurs de cette période sont énormes avec des dizaines de milliers de tubes à vide. L'ENIAC faisait de long, de haut et pesait. Ces machines n’étaient pas du tout fiables, par exemple, en 1952, dix-neuf mille tubes furent remplacés sur l'ENIAC, soit plus de tubes qu'il n'en contient. De nouveau, le titre de premier ordinateur commercialisé dépend de la définition utilisée ; trois ordinateurs sont souvent cités. En premier, le BINAC, conçu par la Eckert–Mauchly Computer Corporation et livré à la Northrop Corporation en 1949 qui, après sa livraison, ne fut jamais fonctionnel. En deuxième, le Ferranti Mark I, dont le prototype avait été développé par l'université de Manchester, fut amélioré et construit en un exemplaire par la société Ferranti et revendu à l'université de Manchester en. Et en dernier, UNIVAC I, conçu par la « Eckert–Mauchly Computer Corporation », dont le premier fut vendu à l'United States Census Bureau le. Une vingtaine de machines furent produites et vendues entre 1951 et 1954.Les circuits intégrés réduisirent la taille et le prix des ordinateurs considérablement. Les moyennes entreprises pouvaient maintenant acheter ce genre de machines. Les circuits intégrés permettent de concevoir une informatique plus décentralisée les constructeurs souhaitant concurrencer le géant IBM. Le microprocesseur fut inventé en 1969 par Ted Hoff d'Intel pendant le développement d'une calculatrice pour la firme japonaise Busicom. Intel commercialisera le 4004 fin 1971. Ted Hoff avait copié l'architecture du PDP-8, le premier mini-ordinateur, et c'est grâce à la technologie de circuits intégrés LSI "(large scale integration)", qui permettait de mettre quelques milliers de transistors sur une puce qu'il put miniaturiser les fonctions d'un ordinateur en un seul circuit intégré. La fonction première du microprocesseur était de contrôler son environnement. Il lisait des interrupteurs, les touches d'un clavier et il agissait en exécutant les opérations requises (addition, multiplication, etc.) et en affichant les résultats. Le premier ordinateur personnel fut décrit dans le livre d'Edmund Berkeley, "Giant brain, or machines that think", en 1949, et sa construction fut décrite dans une série d'articles du magazine "Radio-Electronics" à partir du numéro d'. En 1972, une société française développe le "Micral", premier micro-ordinateur à être basé sur le microprocesseur 8008. Mais l’ordinateur qui créa l'industrie de l'ordinateur personnel est l'Altair 8800 qui fut décrit pour la première fois dans le magazine "Radio-Electronics" de. Bill Gates, Paul Allen, Steve Wozniak et Steve Jobs (ordre chronologique) firent tous leurs débuts dans la micro-informatique sur ce produit moins de six mois après son introduction.Les ordinateurs furent d'abord utilisés pour le calcul (en nombres entiers d'abord, puis flottants). On ne peut cependant les assimiler à de simples calculateurs, du fait de la possibilité quasi infinie de lancer d'autres programmes en fonction du résultat de calculs, ou de capteurs internes ou externes (température, inclinaison, orientation), ou de toute action de l'opérateur ou de son environnement. Cette création d'un néologisme fut à l'origine de traductions multiples des expressions "supercomputer", superordinateur ou supercalculateur. L'expérience a appris à distinguer dans un ordinateur deux aspects, dont le second avait été au départ sous-estimé : Le logiciel - et son complément les "services" (formation, maintenance...) - forme depuis le milieu des années 1980 l’essentiel des coûts d'équipement informatique, le matériel n’y ayant qu'une part minoritaire.Parmi toutes les machines inventées par l'Homme, l'ordinateur est celle qui se rapproche le plus du concept anthropologique suivant : Organe d'entrée, organe de traitement de l'information et organe de sortie. Chez l'humain, les organes d'entrée sont les organes sensoriels, l'organe de traitement est le cerveau dont les logiciels sont l'apprentissage avec des mises à jour constantes en cours de vie, puis les organes de sortie sont les muscles. Pour les ordinateurs modernes, les organes d'entrée sont le clavier et la souris et les organes de sortie, l'écran, l'imprimante, le graveur de DVD Les techniques utilisées pour fabriquer ces machines ont énormément changé depuis les années 1940 et sont devenues une technologie (c’est-à-dire un ensemble industriel organisé autour de techniques) à part entière depuis les années 1970. Beaucoup utilisent encore les concepts définis par John von Neumann, bien que cette architecture soit en régression : les programmes ne se modifient plus guère eux-mêmes (ce qui serait considéré comme une mauvaise pratique de programmation), et le matériel prend en compte cette nouvelle donne en séparant aujourd'hui nettement le stockage des instructions et des données, y compris dans les caches. L’architecture de von Neumann décomposait l’ordinateur en quatre parties distinctes :L’unité arithmétique et logique ou UAL est l’élément qui réalise les opérations élémentaires (additions, soustractions...), les opérateurs logiques (ET, OU, NI, etc.) et les opérations de comparaison (par exemple la comparaison d’égalité entre deux zones de mémoire). C’est l’UAL qui effectue les "calculs" de l’ordinateur. L’unité de contrôle prend ses instructions dans la mémoire. Celles-ci lui indiquent ce qu’elle doit ordonner à l’UAL et, comment elle devra éventuellement agir selon les résultats que celle-ci lui fournira. Une fois l’opération terminée, l’unité de contrôle passe soit à l’instruction suivante, soit à une autre instruction à laquelle le programme lui ordonne de se brancher. L'unité de contrôle facilite la communication entre l'unité arithmétique et logique, la mémoire ainsi que les périphériques. Elle gère la plupart des exécutions des instructions dans l'ordinateur.Au sein du système, la mémoire peut être décrite comme une suite de cellules numérotées contenant chacune une petite quantité d’informations. Cette information peut servir à indiquer à l’ordinateur ce qu’il doit faire (instructions) ou contenir des données à traiter. Dans la plupart des architectures, c'est la même mémoire qui est utilisée pour les deux fonctions. Dans les calculateurs massivement parallèles, on admet même que des instructions de programmes soient substituées à d’autres en cours d’opération lorsque cela se traduit par une plus grande efficacité. Cette pratique était jadis courante, mais les impératifs de lisibilité du génie logiciel l'ont fait régresser, hormis dans ce cas particulier, depuis plusieurs décennies. Cette mémoire peut être réécrite autant de fois que nécessaire. La taille de chacun des blocs de mémoire ainsi que la technologie utilisée ont varié selon les coûts et les besoins : 8 bits pour les télécommunications, 12 bits pour l’instrumentation (DEC) et 60 bits pour de gros calculateurs scientifiques (Control Data). Un consensus a fini par être trouvé autour de l’octet comme unité adressable et d’instructions sur format de 4 ou. Dans tous les cas de figure, l'octet reste adressable, ce qui simplifie l'écriture des programmes. Les techniques utilisées pour la réalisation des mémoires ont compris des relais électromécaniques, des tubes au mercure au sein desquels étaient générées des ondes acoustiques, des transistors individuels, des tores de ferrite et enfin des circuits intégrés incluant des millions de transistors.Les dispositifs d’entrée/sortie permettent à l’ordinateur de communiquer avec l’extérieur. Ces dispositifs sont très importants, du clavier à l’écran. La carte réseau permet par exemple de relier les ordinateurs en réseau informatique, dont le plus grand est Internet. Le point commun entre tous les périphériques d’entrée est qu’ils convertissent l’information qu’ils récupèrent de l’extérieur en données compréhensibles par l’ordinateur. À l’inverse, les périphériques de sortie décodent l’information fournie par l’ordinateur afin de la rendre compréhensible par l’utilisateur.Ces différentes parties sont reliées par trois bus, le bus d'adresse, le bus de données et le bus de commande. Un bus est un groupement d'un certain nombre de fils électriques réalisant une liaison pour transporter des informations binaires codées sur plusieurs bits. Le bus d'adresse transporte les adresses générées par l'UCT (Unité Centrale de Traitement) pour sélectionner une case mémoire ou un registre interne de l'un des blocs. Le nombre de bits véhiculés par ce bus dépend de la quantité de mémoire qui doit être adressée. Le bus de données transporte les données échangées entre les différents éléments du système. Le bus de contrôle transporte les différents signaux de synchronisation nécessaires au fonctionnement du système : signal de lecture (RD), signal d'écriture (WR), signal de sélection (CS : Chip Select).La miniaturisation permet d’intégrer l’UAL et l’unité de contrôle au sein d’un même circuit intégré connu sous le nom de microprocesseur. Typiquement, la mémoire est située sur des circuits intégrés "proches" du processeur, une partie de cette mémoire, la mémoire cache, pouvant être située sur le même circuit intégré que l’UAL. L’ensemble est, sur la plupart des architectures, complété d’une horloge qui cadence le processeur. Bien sûr, on souhaite qu'elle soit le plus rapide possible, mais on ne peut pas augmenter sans limites sa vitesse pour deux raisons : La tendance a été à partir de 2004 de regrouper plusieurs UAL dans le même processeur, voire plusieurs processeurs dans la même puce. En effet, la miniaturisation progressive (voir Loi de Moore) le permet sans grand changement de coût. Une autre tendance, depuis 2006 chez ARM, est aux microprocesseurs sans horloge : la moitié de la dissipation thermique est en effet due aux signaux d'horloge quand le microprocesseur fonctionne ; de plus, un microprocesseur sans horloge a une consommation presque nulle quand il ne fonctionne pas : le seul signal d'horloge nécessaire est alors celui destiné au rafraîchissement des mémoires. Cet atout est important pour les modèles portables. Le principal écart fonctionnel aujourd’hui par rapport au modèle de von Neumann est la présence sur certaines architectures de deux antémémoires différentes : une pour les instructions et une pour les données (alors que le modèle de von Neumann spécifiait une mémoire commune pour les deux). La raison de cet écart est que la modification par un programme de ses propres instructions est aujourd’hui considérée (sauf sur les machines hautement parallèles) comme une pratique à proscrire. Dès lors, si le contenu du cache de données doit être récrit en mémoire principale quand il est modifié, on sait que celui du cache d’instructions n’aura jamais à l’être, d’où simplification des circuits et gain de performance.Les instructions que l’ordinateur peut comprendre ne sont pas celles du langage humain. Le matériel sait juste exécuter un nombre limité d’instructions bien définies. Des instructions typiques comprises par un ordinateur sont par exemple : La plupart des instructions se composent de deux zones : l’une indiquant quoi faire, nommée code opération, et l’autre indiquant où le faire, nommée "opérande". Au sein de l’ordinateur, les instructions correspondent à des codes - le code pour une copie étant par exemple 001. L’ensemble d’instructions qu’un ordinateur supporte se nomme son "langage machine", langage qui est une succession de chiffres binaires, car les instructions et données qui sont comprises par le processeur ("CPU") sont constituées uniquement de et de : En général, ce type de langage n'est pas utilisé car on lui préfère ce que l’on appelle un langage de haut niveau qui est ensuite transformé en langage binaire par un programme spécial (interpréteur ou compilateur selon les besoins). Les programmes ainsi obtenus sont des programmes compilés compréhensibles par l'ordinateur dans son langage natif. Certains langages de programmation, comme l’assembleur sont dits langages de bas niveau car les instructions qu’ils utilisent sont très proches de celles de l’ordinateur. Les programmes écrits dans ces langages sont ainsi très dépendants de la plate-forme pour laquelle ils ont été développés. Le langage C, beaucoup plus facile à relire que l’assembleur, permet de produire plus facilement des programmes..Les logiciels informatiques sont des listes (généralement longues) d’instructions exécutables par un ordinateur. De nombreux programmes contiennent des millions d’instructions, effectuées pour certaines de manière répétitive. De nos jours, un ordinateur personnel exécute plusieurs milliards d’instructions par seconde. Depuis le milieu des années 1960, des ordinateurs exécutent plusieurs programmes simultanément. Cette possibilité est appelée multitâche. C’est le cas de tous les ordinateurs aujourd’hui. En réalité, chaque cœur de processeur n’exécute qu’un programme à la fois, passant d’un programme à l’autre chaque fois que nécessaire. Si la rapidité du processeur est suffisamment grande par rapport au nombre de tâches à exécuter, l’utilisateur aura l’impression d’une exécution simultanée des programmes. Les priorités associées aux différents programmes sont, en général, gérées par le système d'exploitation. Le système d’exploitation est le programme central qui contient les programmes de base nécessaires au bon fonctionnement des applications de l’ordinateur. Le système d’exploitation alloue les ressources physiques de l’ordinateur (temps processeur, mémoire...) aux différents programmes en cours d’exécution. Il fournit aussi des outils aux logiciels (comme les pilotes) afin de leur faciliter l’utilisation des différents périphériques sans avoir à en connaître les détails physiques.
Un ordinateur est un système de traitement de l'information programmable tel que défini par Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires. Dès sa mise sous tension, un ordinateur exécute, l'une après l'autre, des instructions qui lui font lire, manipuler, puis réécrire un ensemble de données déterminées par une mémoire morte d'amorçage. Des tests et des sauts conditionnels permettent de passer à l'instruction suivante et donc d'agir différemment en fonction des données ou des nécessités du moment ou de l'environnement.
xwikis
Le terme « physique » vient du grec ("ê physikê") adopté dans le monde gréco-romain, signifiant « connaissance de la nature ». La "physika" ou "physica" gréco-romaine est étymologiquement ce qui se rapporte à la nature ou précisément le savoir harmonieux et cyclique sur la nature dénommée. Dans un sens général et ancien, la physique désigne la connaissance de la nature qui se perpétue en restant essentiellement la même avec le retour des saisons ou des générations vivantes. L'ouvrage "Physica" d'Aristote (384-322) reprend cette terminologie. Le terme ancien est perpétué par la tradition de la philosophie antique. Selon Platon, la physique est l'une des trois parties de l'enseignement de la philosophie, aux côtés de l'éthique et de la logique. Selon son élève Aristote, la philosophie se divise en philosophie théorétique, philosophie pratique et philosophie poétique ; la physique est une des trois parties de la philosophie théorétique, aux côtés de la mathématique et de la théologie. Aristote écrit un livre sur "La Physique". Ce qui échappe à la triple catégorisation et ne peut être catalogué dans la physique est dévolu à la métaphysique, c'est-à-dire ce qui va au-delà de la physique. Au, le mot savant physique est attesté en ancien français sous la double forme "fusique" dès 1130 ou "fisique". Il a un double sens : À la fin du "quattrocento" (ou ), il apparaît en tant qu'adjectif. Loys Garbin le cite dans son vocabulaire latin-français publié à Genève en 1487, où il désigne « ce qui se rapporte à la nature » mais le substantif s'affirme comme "science des choses naturelles". L'adjectif reste d'emploi rare avant le. Le mot physique désigne alors les « connaissances concernant les causes naturelles », son étude apporte l'expression « philosophie naturelle » selon un corpus universitaire gardé par Isaac Newton, auteur des "principes mathématiques de philosophie naturelle". C'est le sens de René Descartes et de ses élèves Jacques Rohault et Régis. Elle correspond alors aux sciences naturelles ou encore à la philosophie naturelle. Des chaires de philosophie naturelle sont établies dans certaines universités, notamment au Royaume-Uni (Oxford, Édimbourg, etc.). À Paris, on compte par exemple une chaire de philosophie naturelle au collège de Clermont, occupée notamment par Ignace-Gaston Pardies. Maxwell occupe quelque temps une semblable chaire à Édimbourg où l'enseignement reste un fourre-tout indigeste. Au, la physique désigne clairement en français la science expérimentale. La signification ancienne de cette physique ne convient plus aux actuelles sciences exactes que sont la physique, la chimie et la biologie, cette dernière étant la plus tardive héritière directe des sciences naturelles.Le mot physique prend son sens moderne, plus restreint et mieux défini que le sens originel, au début du avec Galilée. Selon lui, les lois de la nature s'écrivent en langage mathématique. Les principes d'inertie et de relativité ainsi que les lois découvertes semblent contredire le sens commun. L'élève de Galilée, Evangelista Torricelli, montre que la science ne se contente pas de calculer des trajectoires balistiques, mais elle peut aussi expliquer des phénomènes singuliers qu'on lui soumet et mettre au point des techniques. Les fontainiers de Florence ne parvenaient pas à hisser par une seule puissante pompe aspirante l'eau de l'Arno à des hauteurs dépassant trente-deux pieds, soit une dizaine de mètres. Torricelli, consulté par ses maîtres artisans dépités, constate avec eux le fait troublant, mais en procédant par expérience, il découvre le vide et détermine les capacités maximales d'élévation d'une batterie de pompes. À l'université de Paris, l'aristotélisme fournit un classement des natures et causes des phénomènes observés, et ordonne la Nature de manière rigoureuse dans les cours de philosophie naturelle jusque dans les années 1690, à partir desquelles il est progressivement remplacé par un cartésianisme sophistiqué, notamment grâce à l'ouverture du collège des Quatre-Nations et les cours d'Edme Pourchot. Les pionniers de la modélisation scientifique parmi lesquels le Français Descartes et nombre d'hydrauliciens et savants expérimentateurs des Pays-Bas ou d'Angleterre contribuent à diffuser les bases de cette physique mathématisée qui atteint son apogée en Angleterre avec Isaac Newton. Dans la première édition du "Dictionnaire de l'Académie française", datant de 1694, le nom « physique » est désigné comme la « science qui a pour objet la connaissance des choses naturelles, ex : "La physique fait partie de la philosophie";"la physique est nécessaire à un médecin" ». L'adjectif « physique » est défini, en outre, comme signifiant « naturel, ex : "l'impossibilité physique s'oppose à l'impossibilité morale" ». Ce n'est que dans sa sixième édition (1832-1835) que le sens moderne de « physique » apparaît, le terme est défini comme la « science qui a pour objet les propriétés accidentelles ou permanentes des corps matériels, lorsqu'on les étudie sans les décomposer chimiquement. ». Enfin dans sa huitième édition (1932-1935), la physique est définie comme la « science qui observe et groupe les phénomènes du monde matériel, en vue de dégager les lois qui les régissent.» "Le Littré" donne des définitions apparemment précises. En tant qu'adjectif, il définit les phénomènes physiques comme « ceux qui ont lieu entre les corps visibles, à des distances appréciables, et qui n'en changent pas les caractères » et les propriétés physiques, comme « qualités naturelles des corps qui sont perceptibles aux sens, telles que l'état solide ou gazeux, la forme, la couleur, l'odeur, la saveur, la densité, etc. ». Les sciences physiques sont définies comme « celles qui étudient les caractères naturels des corps, les forces qui agissent sur eux et les phénomènes qui en résultent ». En tant que nom, la physique est définie comme « science du mouvement et des actions réciproques des corps, en tant que ces actions ne sont pas de composition et de décomposition, ce qui est le propre de la chimie ». La notion actuelle de science en tant qu'« ensemble ou système de connaissances sur une matière » date seulement du. Avant cette époque, le mot « science » signifiait simplement (science et savoir ont la même étymologie) et la notion de scientifique n'existait pas. À l'inverse, le terme désigne dans son sens ancien « l'étude des principes et des causes, ou le système des notions générales sur l'ensemble des choses », les sciences naturelles étaient donc le résultat de la philosophie naturelle (voir l'exemple du titre de la revue "Philosophical Transactions"). L'expression « sciences physiques » désigne actuellement l'ensemble formé par la physique (dans son sens moderne) et la chimie, cette expression prend son sens actuel en France au début du, en même temps que le mot « science » prend le sens d'« ensemble formé par les sciences mathématiques, physiques et naturelles ». Auparavant, l’expression « sciences physiques » était un simple synonyme de l'expression « sciences naturelles ».La recherche en physique contemporaine se divise en diverses disciplines qui étudient différents aspects du monde physique.Bien que la physique s'intéresse à une grande variété de systèmes, certaines théories ne peuvent être rattachées qu'à la physique dans son ensemble et non à l'un de ses domaines. Chacune est supposée juste, dans un certain domaine de validité ou d'applicabilité. Par exemple, la théorie de la mécanique classique décrit fidèlement le mouvement d'un objet, pourvu que Les théories anciennes, comme la mécanique newtonienne, ont évolué engendrant des sujets de recherche originaux notamment dans l'étude des phénomènes complexes (exemple : la théorie du chaos). Leurs principes fondamentaux constituent la base de toute recherche en physique et tout étudiant en physique, quelle que soit sa spécialité, est censé acquérir les bases de chacune d'entre elles.Les physiciens observent, mesurent et modélisent le comportement et les interactions de la matière à travers l'espace et le temps de façon à faire émerger des lois générales quantitatives. Le temps — défini par la durée, l'intervalle et la construction corrélative d'échelles — et l'espace — ensemble des lieux où s'opère le mouvement et où l'être ou l'amas matériel, c'est-à-dire la particule, la molécule ou le grain, le corps de matière... ou encore l'opérateur se positionnent à un instant donné — sont des faits réels constatés, transformés en entités mathématiques abstraites et physiques mesurables pour être intégrées logiquement dans le schéma scientifique. Ce n'est qu'à partir de ces constructions qu'il est possible d'élaborer des notions secondaires à valeurs explicatives. Ainsi l'énergie, une description d'états abstraite, un champ de force ou une dimension fractale peuvent caractériser des « phénomènes physiques » variés. La métrologie est ainsi une branche intermédiaire capitale de la physique. Une théorie ou un modèle — appelé schéma une fois patiemment étayé par de solides expériences et vérifié jusqu'en ses ultimes conséquences logiques est un ensemble conceptuel formalisé mathématiquement, dans lequel des paramètres physiques qu'on suppose indépendants (charge, énergie et temps, par exemple) sont exprimés sous forme de variables ("q", "E" et "t") et mesurés avec des unités appropriées (coulomb, joule et seconde). La théorie relie ces variables par une ou plusieurs équations (par exemple, E=mc). Ces relations permettent de prédire de façon quantitative le résultat d'expériences. Une expérience est un protocole matériel permettant de mesurer certains phénomènes dont la théorie donne une représentation conceptuelle. Il est illusoire d'isoler une expérience de la théorie associée. Le physicien ne mesure évidemment pas des choses au hasard ; il faut qu'il ait à l'esprit l'univers conceptuel d'une théorie. Aristote n'a jamais pensé calculer le temps que met une pierre lâchée pour atteindre le sol, simplement parce que sa conception du monde sublunaire n'envisageait pas une telle quantification. Cette expérience a dû attendre Galilée pour être faite. Un autre exemple d'expérience dictée nettement par un cadre conceptuel théorique est la découverte des quarks dans le cadre de la physique des particules. Le physicien des particules Gell-Mann a remarqué que les particules soumises à la force forte se répartissaient suivant une structure mathématique élégante, mais que trois positions fondamentales (au sens mathématique de la théorie des représentations) de cette structure n'étaient pas réalisées. Il postula donc l'existence de particules plus fondamentales (au sens physique) que les protons et les neutrons. Des expériences permirent par la suite, en suivant cette théorie, de mettre en évidence leur existence. Inversement, des expériences fines ou nouvelles ne coïncident pas ou se heurtent avec la théorie. Elles peuvent :La culture de la recherche en physique présente une différence notable avec celle des autres sciences en ce qui concerne la séparation entre théorie et expérience. Depuis le, la majorité des physiciens sont spécialisés soit en physique théorique, soit en physique expérimentale. En revanche, presque tous les théoriciens renommés en chimie ou en biologie sont également des expérimentateurs. La simulation numérique occupe une place très importante dans la recherche en physique et ce depuis les débuts de l'informatique. Elle permet en effet la résolution approchée de problèmes mathématiques qui ne peuvent pas être traités analytiquement. Beaucoup de théoriciens sont aussi des numériciens.L'histoire de la physique semble montrer qu'il est illusoire de penser que l'on finira par trouver un corpus fini d'équations qu'on ne pourra jamais contredire par expérience. Chaque théorie acceptée à une époque finit par révéler ses limites, et est intégrée dans une théorie plus large. La théorie newtonienne de la gravitation est valide dans des conditions où les vitesses sont petites et que les masses mises en jeu sont faibles, mais lorsque les vitesses approchent la vitesse de la lumière ou que les masses (ou de façon équivalente en relativité, les énergies) deviennent importantes, elle doit céder la place à la relativité générale. Par ailleurs, celle-ci est incompatible avec la mécanique quantique lorsque l'échelle d'étude est microscopique et dans des conditions d'énergie très grande (par exemple au moment du Big Bang ou au voisinage d'une singularité à l'intérieur d'un trou noir). La physique théorique trouve donc ses limites dans la mesure où son renouveau permanent vient de l'impossibilité d'atteindre un état de connaissance parfait et sans faille du réel. De nombreux philosophes, dont Emmanuel Kant, ont mis en garde contre toute croyance qui viserait à penser que la connaissance humaine des phénomènes peut coïncider avec le réel, s'il existe. La physique ne décrit pas le monde, ses conclusions ne portent pas sur le monde lui-même, mais sur le modèle qu'on déduit des quelques paramètres étudiés. Elle est une science exacte en ce que la base des hypothèses et des paramètres considérés conduisent de façon exacte aux conclusions tirées. La conception moderne de la physique, en particulier depuis la découverte de la mécanique quantique, ne se donne généralement plus comme objectif ultime de déterminer les causes premières des lois physiques, mais seulement d'en expliquer le "comment" dans une approche positiviste. On pourra aussi retenir l'idée d'Albert Einstein sur le travail du physicien : faire de la physique, c'est comme émettre des théories sur le fonctionnement d'une montre sans jamais pouvoir l'ouvrir.La physique possède une dimension esthétique. En effet, les théoriciens recherchent presque systématiquement à simplifier, unifier et symétriser les théories. Cela se fait par la réduction du nombre de constantes fondamentales (la constante G de la gravitation a intégré sous un même univers gravitationnel les mondes sublunaire et supralunaire), par la réunion de cadres conceptuels auparavant distincts (la théorie de Maxwell a unifié magnétisme et électricité, l'interaction électrofaible a unifié l'électrodynamique quantique avec l'interaction faible et ainsi de suite jusqu’à la construction du modèle standard de la physique des particules). La recherche des symétries dans la théorie, outre le fait que par le théorème de Noether elles produisent spontanément des constantes du mouvement, est des équations et de motivation des physiciens et, depuis le,. Du point de vue expérimental, la simplification est un principe de pragmatisme. La mise au point d'une expérience requiert la maîtrise d'un grand nombre de paramètres physiques afin de créer des conditions expérimentales précises et reproductibles. La plupart des situations dans la nature se présentent spontanément comme confuses et irrégulières. Ainsi, l'arc-en-ciel, (qui cause un fort étonnement chez le profane), ne peut s'expliquer que par la compréhension de nombreux phénomènes appartenant à des domaines disjoints du corpus physique. Les concepts de la physique sont longs à acquérir, même pour les physiciens. Une préparation du dispositif expérimental permet donc la manifestation d'un phénomène aussi simple et reproductible que possible. Cette exigence expérimentale donne parfois un aspect artificiel à la physique, ce qui peut nuire, malheureusement, à son enseignement auprès du jeune public. Paradoxalement rien ne semble aussi éloigné du cours de la nature qu'une expérience de physique, et pourtant seule la simplification est recherchée. Au cours de l'histoire, des théories complexes et peu élégantes d'un point de vue mathématique peuvent être très efficaces et dominer des théories beaucoup plus simples. L"'Almageste "de Ptolémée, basé sur une figure géométrique simple, le cercle, comportait un grand nombre de constantes dont dépendait la théorie, tout en ayant permis avec peu d'erreur de comprendre le ciel pendant plus de mille ans. Le modèle standard décrivant les particules élémentaires comporte également une trentaine de paramètres arbitraires, et pourtant. Pourtant les physiciens s'accorde à penser que cette théorie sera sublimée et intégrée un jour dans une théorie plus simple et plus élégante, de la même manière que le système ptoléméen a disparu au profit de la théorie képlérienne, puis newtonienne.La physique moderne est écrite en termes mathématiques, elle a depuis sa naissance eu des relations de couple intense avec les sciences mathématiques. Jusqu'au, les mathématiciens étaient d'ailleurs la plupart du temps physiciens et souvent philosophes naturalistes après la refondation kantienne. De ce fait la physique a très souvent été la source de développements profonds en mathématiques. Par exemple, le calcul infinitésimal a été inventé indépendamment par Leibniz et Newton pour comprendre la dynamique en général, et la gravitation universelle en ce qui concerne le second. Le développement en série de Fourier, qui est devenu une branche à part entière de l'analyse, a été inventé par Joseph Fourier pour comprendre la diffusion de la chaleur. Les sciences physiques sont en relation avec d'autres sciences, en particulier la chimie, science des molécules et des composés chimiques. Ils partagent de nombreux domaines, tels que la mécanique quantique, la thermochimie et l'électromagnétisme. L'étude des bases physiques des systèmes chimique, domaine interdisciplinaire est appelé la chimie physique. Toutefois, les phénomènes chimiques sont suffisamment vastes et variés pour que la chimie reste considérée comme une discipline à part entière. De nombreux autres domaines interdisciplinaires existent en physique. L'astrophysique est à la frontière avec l'astronomie, la biophysique est à l'interface avec la biologie. La physique statistique, les microtechnologies et les nanotechnologies fortement multidisciplinaires comme les MOEMS sont également interdisciplinaires.L'histoire de l'humanité montre que la pensée technique s'est développée bien avant les théories physiques. La roue et le levier, le travail des matériaux, en particulier la métallurgie, ont pu être réalisés sans ce qu'on appelle la physique. L'effort de rationalité des penseurs grecs puis arabes, le lent perfectionnement des mathématiques du au, et le moindre poids de la scolastique ont permis les avancées remarquables du. La physique a pu. Les théories physiques ont alors souvent permis le perfectionnement d'outils et de machines, ainsi que leur mise en œuvre. Le voit la multiplication de technologies directement issues de concepts théoriques développés à partir des avancées de la physique de leur époque. Le cas du laser est exemplaire : son invention repose fondamentalement sur la compréhension, par la mécanique quantique, des ondes lumineuses et de la linéarité de leurs équations. La découverte de "l'équation d'équivalence masse énergie" ouvre la voie au développement des bombes A et H, ainsi qu'à l’énergie nucléaire civile. De même L'électronique en tant que science appliquée modifie profondément le visage de nos sociétés modernes à travers la révolution numérique et l'avènement de produits comme le téléviseur, le téléphone portable et les ordinateurs. Elle s'appuie sur l'électromagnétisme, l'électrostatique ou la physique des semi-conducteurs et la technique d'imagerie médicale IRM s'appuie sur la découverte des propriétés quantiques des noyaux atomiques.Le monde de la physique a longtemps été dominé par des hommes, et au début du, malgré quelques incitations et messages montrant que les filles ont autant leur place que les garçons dans ce domaine, la désaffection des filles pour les études de physique semble persister dans de nombreux pays. En outre, selon une étude récente aux États-Unis, la plupart des étudiantes en physique subissent diverses formes de harcèlement sexuel (allant de blagues inappropriées jusqu'à une attention sexuelle non-souhaitée). Près de 75% des diplômées en physique disent en avoir été victimes au travail ou en étudiant sur le terrain. Une enquête faite auprès d'étudiantes participant à une série de conférences américaines pour les femmes étudiant la physique (en premier cycle) a révélé que, sur 455 répondantes, 338 disent avoir subi une forme de harcèlement sexuel. En France, les filles sont nombreuses (70 %) à s’engager vers la classe préparatoire scientifique "Biologie, Chimie, Physique, Sciences de la Terre (BCPST)" en restant minoritaires dans les autres préparations scientifiques (Pons, 2007). Leur attrait pour le « bio-véto » reste bien plus marqué que pour la physique, probablement en raison d'une transmission sociale des stéréotypes de genre. en 1989, Archer et Freedman ont montré que du point de vue scolaire pour les parents et enseignants les matières telles que la mécanique, la physique, la chimie et les mathématiques étaient encore considérées comme "masculines", pendant que l’anglais, la biologie, la psychologie, le français et la sociologie étaient jugées être des matières "féminines".La vulgarisation en physique cherche à faire comprendre les principes et objets physiques sans utiliser de termes ou concepts non expliqué préalablement. De nombreuses équipes participent régulièrement à des rencontres entre le grand public et les chercheurs, où différents sujets et résultats scientifiques sont expliqués. Elle est devenue en Europe un enjeu sociopoligique important au moment de la révolution française et plus encore avec la révolution industrielle. Les chercheurs en physiques ont aussi une mission de vulgarisation, dont au CNRS en France par exemple mais l'essentiel de la vulgarisation se fait progressivement via l'école et l'enseignement pour l'acquisition des savoirs de base (qui ont beaucoup évolué depuis deux siècles) puis via les médias tout au long de la vie. En complément de la littérature de vulgarisation scientifique et du travail (publications, conférences...) de certaines sociétés savantes puis des expositions universelles ; après que la radio puis la télévision aient participé à cette vulgarisation ; à partir des années 1990 les NTIC puis le WEB 2.0 ont bouleversé la vulgarisation scientifique (et de la physique en particulier). Aujourd'hui de nombreux sites internets (Wikipédia...) permettent de trouver toutes les informations utiles, du niveau basique à celui de l'expertise et la visualisation de données ("data visualisation") a beaucoup progressé. Certains musées se sont spécialisés dans le domaine de la physique, avec par exemple en France le Palais de la Découverte Dans la sphère de l'éducation universitaire Richard Feynman a permis par ses ouvrages de construire "ex nihilo", une expérience empirique de la physique moderne.Notons que la "Physique" d'Aristote n'a rien à voir avec la science moderne dénommée la physique. La taxonomie aristotélicienne, d'essence philosophique, a même été le plus farouche adversaire de la science moderne.De nombreux domaines de recherche combinent la physique avec d'autres disciplines.
La physique est la science qui essaie de comprendre, de modéliser et d'expliquer les phénomènes naturels de l'univers. Elle correspond à l'étude du monde qui nous entoure sous toutes ses formes, des lois de sa variation et de son évolution.
xwikis
La linguistique théorique est souvent divisée en domaines séparés et plus ou moins indépendants :Alors que la linguistique synchronique s'attache à décrire les langues à un moment donné de leur histoire (le plus souvent le présent), la linguistique diachronique examine comment les langues évoluent au cours du temps — que ces changements concernent la prononciation (on parle alors de phonétique historique), le sens et l'histoire des mots (c'est là l'étymologie qui est concernée), voire plusieurs aspects — parfois à travers plusieurs siècles. Le premier à avoir distingué ces deux types d'études est Ferdinand de Saussure. La linguistique historique jouit d'une longue et riche histoire. C'est d'ailleurs de cette branche de la linguistique que sont nées les autres approches. Elle repose sur des postulats théoriques jugés solides (comme les lois phonétiques). Une discipline comme la linguistique comparée repose principalement sur une optique historique.La linguistique peut évidemment s'attacher à une langue en particulier (par exemple au français, et on parle alors de linguistique française) ou à un groupe de langues (exemples : linguistique romane, linguistique germanique, linguistique finno-ougrienne, linguistique indo-européenne) ou à des langues géographiquement groupées (exemples : linguistique balkanique, linguistique africaine). Au contraire de la linguistique théorique, qui cherche à décrire, de manière générale, une langue donnée ou le langage humain, la linguistique appliquée se sert de ces recherches pour les appliquer à d'autres domaines comme la didactique des langues, la pathologie du langage, la lexicographie (ou dictionnairique), la synthèse ou la reconnaissance vocale (ces deux dernières approches étant ensuite utilisées en informatique pour fournir des interfaces vocales, par exemple), l'intelligence artificielle.La linguistique contextuelle est un domaine dans lequel la linguistique interagit avec d'autres disciplines. Elle étudie par exemple comment le langage interagit avec le reste du monde. La sociolinguistique, la linguistique anthropologique et l'anthropologie linguistique sont des domaines ressortissant à la linguistique contextuelle dans lesquels on étudie les liens entre le langage et la société. Dans le contexte juridique, la jurilinguistique examine les signes et énoncés linguistiques que le droit emploie et produit. De même, l'analyse critique du discours est un point de rencontre entre la rhétorique, la philosophie et la linguistique. Il est ainsi possible de parler d'une philosophie du langage. D'autre part, l'étude médicale du langage conduit à des approches psycholinguistique et neurolinguistique. Enfin, appartiennent aussi à la linguistique contextuelle des domaines de recherches comme l'acquisition du langage, la linguistique évolutionniste, la linguistique stratificationnelle ainsi que les sciences cognitives.Plusieurs approches linguistiques sont possibles selon l'étendue de l'objet d'étude : certains analysent la langue d'un locuteur donné, d'autres des développements généraux sur la langue. On peut aussi étudier la langue d'une communauté bien précise, comme l'argot des banlieues ou bien rechercher les caractéristiques universelles du langage partagées par tous les hommes. C'est cette dernière approche, la linguistique générale, dont le pionnier a été Ferdinand de Saussure, qui a été retenue par Noam Chomsky et qui trouve des échos en psycholinguistique et dans les sciences cognitives. On peut penser que ces caractéristiques universelles sont susceptibles de révéler des éléments importants concernant la pensée humaine en général. Voir par exemple les fonctions du langage.Les linguistes utilisent une démarche purement descriptive lors de leurs recherches. Ceux-ci cherchent à décrire la langue telle qu’elle est utilisée et expliquer la nature du langage, sans porter de jugements. Les dimensions pour décrire la linguistique incluent la phonétique, la phonologie, la syntaxe, la lexicologie et la sémantique. C’est ce qui est utilisé pour déterminer les différences entre les accents et dialectes régionaux d’une même langue. La démarche prescriptive ou normative cherche à décrire comment une langue doit être utilisée. Cela inclut l’application des règles et conventions linguistiques et grammaticales pour déterminer si une langue est bien utilisée ou non. La linguistique prescriptive/normative est la langue qui est enseignée lorsqu’une personne apprend une langue, c'est considéré comme le « standard » de la langue. La prescription est souvent appliquée à l’écriture, mais peut aussi être utilisée pour la parole. La linguistique prescriptive pourrait aussi analyser un accent ou dialecte régional et le comparer à la langue « standard », pour déterminer ce que le locuteur fait d’incorrect dans la parole. Lorsqu’il y a une correction d’un texte écrit, ces corrections sont aussi un exemple de linguistique prescriptive. Par exemple, avec la phrase "« il veux pas que tu va rendre visite lui »,"la linguistique descriptive décrira cette phrase avec les sons utilisés, les terminaisons utilisées, les mots utilisés et la structure de la phrase utilisée. Les grammairiens descriptifs décriront la démarche mentale lorsqu’une personne a écrit cette phrase. La linguistique prescriptive aurait plus de jugements, en décrivant qu'il y a plusieurs erreurs grammaticales et syntaxiques présentes. Les grammairiens prescriptifs diraient que la phrase est agrammaticale et donneraient probablement la version corrigée de la phrase "« il ne veut pas que tu ailles lui rendre visite »". La plus grande différence entre les deux démarches est que l’une observe une langue de façon objective et sans jugements pendant que l’autre observe une langue de façon subjective, en déterminant ce qui est bien écrit ou non.La plupart des travaux en linguistique, à l'heure actuelle, partent du principe que la langue parlée est première, et que la langue écrite n'en est qu'un reflet secondaire. Plusieurs raisons sont évoquées : Bien sûr, les linguistes reconnaissent que l'étude de la langue écrite est loin d'être inutile. L'étude de corpus écrits, à cet égard, est primordiale en linguistique informatique, les corpus oraux étant difficiles à créer et à trouver. D'autre part, l'étude des systèmes d'écriture, ou grammatologie, ressortit pleinement à la linguistique. Enfin, les langues dotées d'une tradition écrite ancienne ne sont pas imperméables à des effets rétroactifs de l'écrit sur l'oral : le mot français "legs", par exemple, dans lequel le "g" n'est pas étymologique, est le plus souvent prononcé /lεg/, par influence de la graphie, alors qu'à l'origine on disait /le/.Phonétique, phonologie, diglossie, syntaxe, sémantique, pragmatique, étymologie, lexicologie, lexicographie, linguistique théorique, linguistique comparée, sociolinguistique, dialectologie, linguistique descriptive, psycholinguistique, typologie des langues, linguistique informatique, sémiotique, écriture, cohérence du langage naturel, etc., sont parmi les domaines les plus courants.Linguistique appliquée, linguistique cognitive, linguistique historique, orthographe, grammatologie, cryptanalyse, déchiffrement, anthropologie linguistique, linguistique anthropologique, analyse critique du discours, psycholinguistique, acquisition du langage, traitement automatique des langues, reconnaissance vocale, reconnaissance du locuteur, synthèse vocale et, plus généralement, traitement de la parole, sont de telles disciplines. Il est visible que la linguistique comprend de divers chantiers de recherche. La créolistique qui s’est donné la tâche d’étudier les langues issues du colonialisme (exemples : papiamentu de Curazao, la langue de Cabo Verde) devient de plus en plus importante.Les recherches linguistiques sur le genre recouvrent une grande diversité de travaux en sciences humaines et sociales et en sciences du langage. Le foisonnement des travaux sur le langage, la langue, le discours, le genre, le sexe et les sexualités donne une visibilité et une légitimité à ce champ de recherche : langage et genre. Les études sur le genre et le langage se sont développés dans le sillage des sociolinguistiques américaines. Les premiers travaux étudient la pratique de la langue par les femmes ; leur vocabulaire serait moins important que celui des hommes, les hommes et les femmes ne parleraient pas la même langue. La langue des hommes serait la langue de référence et celle des femmes la langue dite «faible», les femmes présentant un déficit cognitif et linguistique. Ce paradigme sexiste perdure jusque dans les années 1970. Il est remis en cause par l'anthropologie linguistique et culturelle qui s'intéresse à la domination exercée par les hommes sur les femmes à travers le langage. L'étude des genres et des styles discursifs dans des sociétés non occidentales permet de souligner que les parlers masculin et féminin relèvent de stéréotype sexistes. De même, dès les années 1940, des recherches ont tenté d'identifier un parler gai et lesbien. Ces recherches présupposaient l'existence d'une identité homosexuelle universelle. Déborah Cameron et Don Kulick en font une critique sévère dans leur ouvrage "The language and sexuality reader" publié en 2006. C'est finalement l'ouvrage de Robin Lakoff, "Language and women's place", publié en 1975 qui marque la naissance des études sur le genre et le langage aux États-Unis. Il appréhende les pratiques linguistiques des femmes comme effets de la domination masculine. Les recherches linguistiques sur les styles de communication et interactionnels attribuent les différences à des socialisations différenciées. Les compétences communicationnelles féminines sont valorisées. Ce paradigme rencontre un large public avec le succès de l'ouvrage "Décidément, tu ne me comprends pas!" de Déborah Tannen publié en 1993. Dans le même temps, de nombreux travaux francophones analysent le sexisme de la langue française. Des travaux féministes questionnent les liens entre langue, sexage, sexisme et sexualité. En 1978, Marina Yaguello étudie l'aliénation des femmes dans et par la langue, dans son essai "Essai d'approche sociolinguistique de la condition féminine". Au Québec, puis en Suisse et en Belgique les premières recommandations pour la féminisation des noms de métiers et fonctions sont publiées. En France, le débat se cristallise, dès les années 1980. "Parlers masculins, parlers féminins", publié en 1983, par Véréna Aebischer et Claire Forel interroge les stéréotypes linguistiques et les stratégies conversationnelles et propose de dépasser la perspective différentialiste. Des travaux de sémiologie, de sémantique, de lexicologie mettent au jour les dissymétries lexicales, les désignations péjorantes des femmes, l'occultation des femmes par le masculin dit «générique». Ces travaux font le parallèle entre la dévalorisation et l'invisibilisation du féminin dans la langue et les femmes dans la société. Trois ouvrages marquent une étape importante pour la recherche linguistique sur le genre en France. Il s'agit de "Langage, genre et sexualité" sous la direction d'Alexandre DuChêne et Claudine Moïse, publié en 2001, "Intersexion : langues romanes, langues et genre" de Fabienne Baider en 2011 et de "La face cachée du genre. Langage et pouvoir des normes" de Natacha Chetcuti et Luca Gréco en 2012. Ces recherches rejoignent parfois la linguistique queer qui remet en cause la binarité de sexe et les systèmes de catégorisations. Il ne s'agit plus d'étudier le parler des hommes, des femmes, des gays, des lesbiennes mais comment les normes sont construites et inscrites dans la langue et comment les personnes les construisent ou les déconstruisent dans le discours. La recherche linguistique sur le genre en montrant l'inscription des normes dans la langue et en remettant en cause leur immuabilité participent à la déstabilisation de ces normes.Parmi les premiers linguistes d'importance, il convient de compter Jacob Grimm, qui, en 1822, a compris et décrit la nature des modifications phonétiques touchant les consonnes dans les langues germaniques (modifications décrites dans la loi de Grimm). À sa suite, Karl Verner, inventeur de la loi portant son nom, August Schleicher, créateur de la "Stammbaumtheorie" et Johannes Schmidt, qui a développé la "Wellentheorie" (modèle par vagues) en 1872. Ferdinand de Saussure peut être considéré comme le fondateur de la linguistique structuraliste (ce terme lui étant postérieur) et, pendant longtemps, comme le père de la linguistique moderne. Il s'est opposé au behaviorisme. Edward Sapir, linguiste et anthropologue américain, contemporain de F. de Saussure, développa, au début du, sa théorie dite du relativisme linguistique. Celle-ci démontre que le langage n'est pas qu'un moyen de communication. Il peut aussi servir de représentation symbolique des objets. Sapir, par ce biais, donne au langage une fonction expressive et symbolique. Dans les années 1920, Roman Jakobson fut l'un des chefs de file du formalisme russe et du Cercle linguistique de Prague (invention de la phonologie). Gustave Guillaume, s'opposant à Saussure, étudie la langue d'un point de vue plus phénoménologique ("Temps et verbe", 1929). De nombreux adeptes perpétuent ou redécouvrent aujourd'hui sa théorie. Le modèle formel du langage développé par Noam Chomsky, ou grammaire générative et transformationnelle, s'est développé sous l'influence de son maître distributionnaliste, Zellig Harris, lequel suivait déjà fortement les préceptes distributionalistes de Leonard Bloomfield. Ce modèle s'est imposé depuis les années 1960 dans le domaine de la linguistique cognitive (compétence et performance). En France, les travaux du linguiste André Martinet, chef de file du fonctionnalisme, sont notables, ainsi que ceux de Gustave Guillaume, d'Antoine Culioli et de Lucien Tesnière. La linguistique n'exclut pas forcément le grand public, pas plus que la sémiotique : témoins les ouvrages de vulgarisation d'Henriette Walter, d'Umberto Eco ou de Jean-Marie Klinkeberg. Sur les applications en communication, il faut noter les travaux de Roman Jakobson, qui a établi un modèle linguistique de communication, composé de six fonctions associées à des agents de communication.Il existe de nombreuses méthodes utilisées pour transcrire par écrit la parole, comme l'Alphabet phonétique international de l'Association phonétique internationale, ou "API", méthode la plus commune actuellement. Celles-ci peuvent tendre à une extrême précision (on parle de "transcription fine") et tenter de représenter les particularités phonétiques d'un locuteur précis, ou bien ne décrire que très généralement les oppositions fondamentales entre phonèmes d'une langue ; il s'agit là de transcription phonologique (ou "phonétique large"). En France, d'autres systèmes existent, comme la notation de Bourciez, propre à la phonétique historique du français et, plus généralement, des langues romanes. Chaque pays doté d'une tradition linguistique a pu développer ses systèmes de transcription. C'est pourtant l'API qui, aujourd'hui, prédomine dans la recherche. Lorsqu'il n'est pas possible d'utiliser l'API pour des raisons techniques, il existe plusieurs méthodes permettant de transcrire l'API dans un système n'utilisant que des caractères présents dans tous les jeux de caractères, comme le SAMPA. Consulter aussi.Avec une approche sociologique de la discipline, les termes de "linguistique" et "linguiste" ne sont pas toujours appliqués de manière aussi large que vu plus haut. Dans certains contextes, principalement universitaires, de meilleures définitions pourraient être, respectivement, « discipline que l'on étudie dans les départements relevant de la section 07 du Conseil national des universités » et « enseignant-chercheur d'un tel département ». La linguistique ainsi considérée ne renvoie pas à l'apprentissage des langues étrangères (à moins que cet apprentissage ne permette de créer des modèles formels de description des langues). Elle n'inclut pas non plus l'étude littéraire. En règle générale, il convient de prendre conscience qu'un linguiste n'est pas forcément un polyglotte. En effet, la maîtrise complète d'une langue n'est pas une condition nécessaire (ni même suffisante) pour étudier et décrire certains aspects de son "fonctionnement" (c'est, par exemple, le cas en phonétique, où l'étude de la production des sons d'une langue n'implique pas la connaissance de sa syntaxe). Lorsqu'un linguiste s'intéresse à une langue dont il n'est pas particulièrement familier, il consulte généralement des locuteurs natifs, que l'on appelle des "informateurs".
La linguistique est une discipline scientifique s’intéressant à l’étude du langage. Elle se distingue de la grammaire, dans la mesure où elle n'est pas prescriptive mais descriptive. La prescription correspond à la norme, c'est-à-dire ce qui est jugé correct linguistiquement par les grammairiens. À l'inverse, la linguistique se contente de décrire la langue telle qu'elle est et non telle qu'elle devrait être.
xwikis
Les électrons des matériaux métalliques purs ou alliés se distribuent dans des niveaux d'énergie formant un continuum entre la bande de valence, occupée par les électrons de valence, et la bande de conduction, occupée par les électrons libres injectés thermiquement depuis la bande de valence par-delà le niveau de Fermi. Ces électrons libres forment une liaison métallique délocalisée dans tout le volume du matériau. On peut se représenter un métal comme un réseau tridimensionnel de cations métalliques baignant dans un fluide d'électrons très mobiles. Le modèle de l'électron libre permet de calculer la conductivité électrique ainsi que la contribution des électrons à la capacité calorifique et à la conductivité thermique des métaux, bien que ce modèle ne tienne pas compte de la structure du réseau cristallin du métal. Certains matériaux, comme les intermétalliques, présentent des liaisons partiellement métalliques et sont donc à la limite des céramiques. La nature électronique particulière d'une liaison métallique est responsable de plusieurs propriétés macroscopiques des métaux : le fluide d'électrons libres assure à la fois une conductivité électrique et une conductivité thermique élevées en permettant la circulation d'un courant électrique et en favorisant la propagation des phonons dans le matériau ; elle rend compte de la ductilité, de la malléabilité et de la plasticité des métaux en maintenantDans le tableau périodique des éléments, les métaux occupent la gauche, le centre et une partie de la droite du tableau, séparés des non-métaux par les métalloïdes. Parmi les dont les propriétés chimiques ont été un tant soit peu caractérisées, on dénombre environ et. La ligne de démarcation entre métaux et non-métaux du tableau ci-contre est conventionnelle : elle est arbitraire et ne marque pas une rupture nette des propriétés macroscopiques entre éléments, dont la transition entre métaux et non-métaux est relativement continue, donnant lieu à la superposition de propriétés métalliques et non métalliques chez certains métalloïdes. De plus, un même élément peut exister selon plusieurs variétés allotropiques aux propriétés davantage métalliques pour les unes et davantage non métalliques pour les autres : un bon exemple est l'étain, qui existe d'une part sous une grise de structure cubique de type diamant, stable aux basses températures, aux propriétés métalloïdes proches d'un non-métal, et, d'autre part, sous une blanche de structure tétragonale, dont les propriétés sont celles d'un métal pauvre. Les propriétés des métaux eux-mêmes ne sont pas uniformes, et l'on a coutume de les classer en familles plus ou moins informelles qui rendent compte des différences de propriétés entre ces éléments.Les métaux purs ont le plus souvent une conductivité électrique, une conductivité thermique et une masse volumique élevées. L'argent est ainsi le meilleur conducteur électrique (), suivi par le cuivre (), l'or () et l'aluminium (). La conductivité électrique du fer est de, tandis que celle de l'acier au carbone 1010 (fer à 0,10 % de carbone) est de seulement, ce qui illustre l'effet des impuretés sur la conductivité des métaux. Bien que la plupart des métaux aient une masse volumique supérieure à celle de la plupart des non-métaux, celle-ci est très variable selon les matériaux considérés. Parmi les corps simples métalliques, le lithium est le moins dense ( à ) tandis que l'osmium est le plus dense (). Les métaux alcalins (dont fait partie le lithium) et alcalino-terreux sont les moins denses des métaux ; ils sont également les moins durs, et les métaux alcalins ont un point de fusion particulièrement bas : hormis le lithium, ils sont tous liquides à. La densité élevée deLa déformation élastique des métaux peut être modélisée par la loi de Hooke lorsque la déformation est une fonction linéaire de la contrainte. L'application de forces supérieures à la limite d'élasticité ou le chauffage peuvent conduire à une déformation permanente de l'objet, ce qui correspond à une déformation plastique. Cette modification irréversible deQuelques métaux présentent des propriétés magnétiques remarquables comme le ferromagnétisme. Ce sont notamment, à température ambiante, le fer, le cobalt et le nickel. Certaines terres raresLes métaux ont tendance à former des cations en perdant des électrons. Le sodium peut ainsi perdre un électron pour former le cation Na, le calcium deux électrons pour former le cation Ca, le fer deux électrons pour former le cation ferreux Fe ou trois électrons pour former le cation ferrique Fe. Ces ions métalliques se retrouvent en solution ou dans des sels, comme le chlorure de lithium LiCl ou le sulfure d'argent. Les métaux réagissent avec l'oxygène de l'air pour former des oxydes de façon plus ou moins rapide : le fer forme de la rouille en plusieurs mois, voire années, tandis que le potassium brûle en quelques secondes. Les réactions suivantes sont des exemples d'oxydation de métaux : Les métaux de transition tels que leUn alliage est un mélange de deux éléments chimiques ou davantage dont le principal constituant est un métal. La plupart des métaux purs sont trop mous, trop fragiles ou trop réactifs pour pouvoir être utilisés tels quels. Il est possible de moduler les propriétés des alliages en faisant varier les proportions relatives de leurs différents constituants. Il s'agit généralement de les rendre moins fragiles, plus durs, plus résistants à la corrosion, ou encore de leur donner une couleur et un éclat plus attrayants. De tous les alliages métalliques utilisés de nos jours, ceux du fer — acier,, acier à outils, acier au carbone, acier inoxydable, fonte par exemple — en représentent l'essentiel de la production, aussi bien en valeur qu'en volume. Le fer allié au carbone donne des aciers de moins en moins ductiles et résistants à mesure que le taux de carbone augmente. L'addition de silicium donne du ferrosilicium, souvent allié à la fonte, tandis que l'addition de chrome, de nickel et de molybdène à des aciers au carbone (à plus de 10 %) donne de l'acier inoxydable. Outre les alliages de fer, ceux de cuivre, d'aluminium, de titane et de magnésium sont également importants d'un point de vue économique. Les alliages de cuivre sont connus sous forme de bronze depuis l'âge du bronze. Le billon était un alliage utilisé jusqu'au Moyen Âge pour faire des pièces de monnaie et constitué le plus souvent essentiellement deLes métaux présentent le plus souvent un état d'oxydation positif, c'est-à-dire qu'ils tendent naturellement à former des cations. Il existe cependant des anions métalliques, avec un état d'oxydation négatif, par exemple avec certains complexes carbonyles comme ou avec l'anion de sodium Na. Étymologiquement, un métal est une substance extraite d'une mine — μέταλλον en grec ancien. En pratique, les métaux sont généralement extraits sous forme de minerais contenant les éléments recherchés. Ces minerais peuvent chimiquement être de nature très diverse. Ce sont souvent des oxydes, comme la bauxite (minerai d'aluminium), l'ilménite (minerai de titane), l'hématite et la magnétite (minerais de fer), ou encore la pechblende (minerai d'uranium). Il peut également s'agir de sulfates, comme la chalcopyrite (minerai de cuivre), la sphalérite (minerai de zinc), la molybdénite (minerai de molybdène) ou encore le cinabre (minerai de mercure). Il existe par ailleurs des silicates, comme le béryl (minerai de béryllium), des carbonates comme la dolomite (minerai de magnésium), et bien d'autres types de composés. Une fois extraits des mines, les minerais sont traités pour isoler le métal recherché, le plus souvent par réduction chimique ouCertains métaux et alliages possèdent une résistance structurelle élevée par unité de masse, ce qui les rend utiles pour transporter des charges lourdes et résister à des chocs violents. Les alliages métalliques peuvent être conçus pour avoir une résistance élevée aux contraintes de cisaillement, de flexion et de déformation. Le même métal peut cependant être sujet à la fatigue à la suite de contraintes répétées ou d'un dépassement de la contrainte maximum. La résistance et la résilience des métaux a conduit à leur utilisation courante dans la construction des gratte-ciel et des ouvrages d'art ainsi que dans celle de tous types de véhicules, d'appareils et dispositifs, d'outils, de tuyaux, ou encore de voies ferrées. Les deux métaux les plus utilisés, le fer et l'aluminium, sont également les plus abondants dans l'écorce terrestre. Le fer est le plus utilisé des deux : il est à la base de toutes les grandes constructions métalliques (poutre, rail, coque de navire). L'aluminium est presque toujours utilisé allié à d'autres métaux afin d'en améliorer les propriétés mécaniques, dans des applications tirant profit du fait qu'il est moins dense que le fer ( contre ) et meilleur conducteur électrique ( contre ) ; l'aluminium est parLes différents états d'oxydation, conformations, complexes ou formes transitoires représentent des espèces chimiques distinctes d'un élément et jouent un rôle majeur dans l'élaboration, la corrosion, ainsi que sur leur biodisponibilité et leur toxicité ou écotoxicité. Certaines espèces d'éléments traces métalliques (ÉTM) sont plus facilement assimilables par les organismes que d'autres, ce qui engendre des effets bénéfiques ou néfastes selon la nature et la concentration du métal (élément essentiel ou non). Il ne faut pas confondre la spéciation chimique d'un élément avec son fractionnement ou sa partition. La littérature scientifique confond quelquefois ces concepts ce qui complexifie les recherches dans ces domaines. Cette section décrit donc les principales catégories d'espèces chimiques relatives aux ÉTM et présente des exemples d'espèces chimiques de niveau toxique varié.Comme indiqué précédemment, les métaux se trouvent en général naturellement dans des minerais ; ils sont à l'état oxydé. Par exemple, le fer se trouve à l'état Fe(III) dans l'hématite, à l'état Fe(II) et Fe(III) dans la magnétite, l'aluminium dans l'état Al(III) dans la bauxite... La métallurgie primaire consiste essentiellement en la réduction du minerai pour obtenir un état d'oxydation (0). À l'inverse, en réagissant avec l'environnement, le métal va s'oxyder et se dissoudreLa composition isotopique de quelques éléments influence leur abondance ou leur toxicité dans l'environnement. Par exemple, le plomb comporte une vingtaine d'isotopes dont quatre sont stables : Pb, Pb, Pb et Pb. Les Pb et Pb proviennent de la dégradation de l'uranium et le Pb résulte de la dégradation du thorium, deux éléments radioactifs ; ainsi, l'abondance de ces isotopes s’accroît dans le temps, et la composition isotopique du plomb évolue donc selon les sources d'émission stimulées. Un autre exemple intéressant de variation de la toxicitéLes métaux s'allient souvent à des ligands inorganiques pour former des composés ou complexes inorganiques possédant des propriétés physico-chimiques différentes. Par exemple, la charge, la solubilité, le coefficient de diffusion ou la force de liaison de cesLes composés organiques tel les sucres, acides organiques, lipides ou autres composés organiques de faible poids moléculaire ont des affinités plus ou moins importantes avec les métaux. Certains d'entre eux, des acides organiques comme l'acide citrique et l'acide malique, contiennent un groupement fonctionnel (l'hydroxylcarboxyle) qui se lie facilement aux métaux et qui diminuent leur biodisponibilité; ces composés sont très étudiés enLes composés organométalliques contiennent une liaison entre le carbone et le métal. Cette liaison peut être de nature covalente ou ionique; par exemple, les liaisons carbone-sodium et carbone-potassium sont fortement ioniques, les liaisons carbone-étain, carbone-plomb et carbone-mercure sont fortement covalentes et les liens carbone-lithium et carbone magnésium se situent entre la liaison ionique et la liaison covalente. Par exemple, la bioalkylation, c'est-à-dire laLes composés ou complexes macromoléculaires sont à la limite de représentation des espèces chimiques. Ils forment malgré tout une catégorie distincte car ils jouent un rôle particulièrement important dans la biodisponibilité des métaux pour les organismes vivants. En effet, les acides humiques et fulviques résultant de la biodégradation de la matière organique sont des anions mobilisant lesLa spéciation des métaux dans les phases aqueuses et solides est influencée par plusieurs paramètres (Voir aussi section Environnement de cette page) : Cette spéciation implique que l'équilibre chimique est atteint. Or, la complexation des métaux avec les ligands inorganiques est très rapide car ils sont nombreux dans la phase aqueuse, mais la complexation des métaux avec les ligands organiques nécessite plus de temps car les sites d'adsorption ou d'attachement sont moins accessibles.Le développement de nombreuses industries telles que l'électronique, les technologies de l'information et de la communication, et l'aéronautique, et le pari du « tout technologique » dans la recherche du rendement et de l'efficacité, ont conduit à une augmentation sans précédent de la production et de la consommation de métaux. La période de croissance de 1990 à 2010 a conduit à un doublementDepuis très longtemps les mines de certains métaux (précieux ou communs mais indispensables à l'industrie), les installations de raffinage, voire certains secrets de fabrication étaient considérés comme d'intérêt stratégique par les États. Les raisons militaires et l'avènement des armes et munitions métalliques puis de l'énergie et de l'arme nucléaire ont accru l'importance de certains métaux. Même pour des métaux géologiquement non rares comme le cuivre, mais faisant l'objet d'un marché fluctuant, de fortes hausses de cuivre se traduisent aussi par l'accroissement de vols de métaux (à titre d'exemple, en France, en 2010, RFF et la SNCF ont subi de cuivre (quatre fois plus qu'en 2009) qui ont causé des dysfonctionnements et "plusieurs dizaines de millions d'euros de préjudiceContrairement aux composés organiques, les métaux ne sont pas biodégradables par les micro-organismes. Cette caractéristique engendre certains problèmes de gestion de la contamination métallique. En effet, le sort des métaux dans l’environnement pose de grands défis analytiques ; les métaux se retrouvent sous plusieurs formes dans le sol et dans l'eau (complexe avec la matière organique du sol, avec les minéraux, précipitation, ions libres) complexifiant les prédictions de toxicité et d'écotoxicité.La toxicité et l'écotoxicité des métaux dans les sols sont étroitement liées à leurs caractéristiques propres (radioactivité éventuelle et type de radioactivité, métal lourd, toxicité chimique, micro ou nanoparticules), spéciation chimique et biodisponibilité ; plus l'espèce métallique est libre et mobile, plus elle est biodisponible et plus il y a un risque de toxicité sur les organismes vivants. En général,Pour aller de la mine à un objet façonné, il faut passer par de nombreuses étapes et utiliser beaucoup d'équipements qui consomment de l'énergie. Les métaux étant pratiquement tous sous forme d'oxydes ou de sulfures dans la nature, il faut, pour les obtenir sous forme métallique, fournir l'énergie nécessaire à casser les liaisons chimiques correspondantes. L'empreinte énergétique d'un métal est la quantité d'énergie nécessaire pour obtenir du métal pur. Dans ce qui suit, la quantité d'énergie est mesurée en tep (tonne équivalent pétrole), pour une tonne de métal pur. Pour obtenir l'énergie « contenue » dans un métal « neuf », issu de la première transformation du minerai, ilEn planétologie, les métaux sont les matériaux les plus, comme le fer ou le nickel, qui composent le cœur des planètesEn cosmologie, on appelle métaux tous les éléments autres que l'hydrogène et l'hélium.
En chimie, les métaux sont des matériaux dont les atomes sont unis par des liaisons métalliques. Il s'agit de corps simples ou d'alliages le plus souvent durs, opaques, brillants, bons conducteurs de la chaleur et de l'électricité. Ils sont généralement malléables, c'est-à-dire qu'ils peuvent être martelés ou pressés pour leur faire changer de forme sans les fissurer, ni les briser. De nombreuses substances qui ne sont pas classées comme métalliques à pression atmosphérique peuvent acquérir des propriétés métalliques lorsqu'elles sont soumises à des pressions élevées. Les métaux possèdent de nombreuses applications courantes, et leur consommation s'est très fortement accrue depuis les années 1980, au point que certains d'entre eux sont devenus des matières premières minérales critiques.
xwikis
"Le mot « mathématique » vient du grec par l'intermédiaire du latin. Le mot () est dérivé du v(...TRUNCATED)
"Les mathématiques (ou la mathématique) sont un ensemble de connaissances abstraites résultant de(...TRUNCATED)
xwikis
End of preview. Expand in Data Studio

Dataset information

Dataset concatenating Summarization datasets available in French and open-source.
There are a total of 841,673 rows, of which 788,358 are for training, 26,935 for validation and 26,380 for testing.

Usage

from datasets import load_dataset
dataset = load_dataset("CATIE-AQ/frenchSUM")

Dataset

Details of rows

Dataset Original Splits Note
GEM/xwikis 323,726 train / 7,339 validation / 6,992 test We only keep the French split
maurya/alpaca_motivations_sommaires 7,801 train
csebuetnlp/CrossSum 8,648 train / 1,083 validation / 1,083 test We only keep the French split
Perhaps not a great dataset
(there's information in the summary that isn't in the original text)
csebuetnlp/xlsum 8,697 train / 1,086 validation / 1,086 test We only keep the French split
orange_sum 21,401 train / 1,500 validation / 1,500 test We use the abstract split
mlsum 392,017 train / 16,059 validation / 15,820 test We only keep the French split
fr_covid_news_8k 8,084 train
FakeNewsDetectionFr 1,260 train
MassiveSumm_short 2,500 train We only keep the French split
MassiveSumm_long 684 train We only keep the French split
wikinews 22,463 train We only keep the French split

Removing duplicate data and leaks

The sum of the values of the datasets listed here gives the following result:

DatasetDict({
    train: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 797281
    })
    validation: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 27067
    })
    test: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 26481
    })
})

However, a data item in training split A may not be in A's test split, but may be present in B's test set, creating a leak when we create the A+B dataset.
The same logic applies to duplicate data. So we need to make sure we remove them.
After our clean-up, we finally have the following numbers:

DatasetDict({
    train: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 788358
    })
    validation: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 26935
    })
    test: Dataset({
        features: ['text', 'summary', 'dataset'],
        num_rows: 26380
    })
})

Note that an additional cleanup has been applied to all rows, removing all URLs and emojis present in the articles.

Columns

dataset_train = dataset['train'].to_pandas()
dataset_train.head()

    text                                                   summary                                             dataset
0 	L'astronomie est considérée comme la plus anci... 	L’astronomie est la science de l’observation d...   xwikis
1 	L'origine du mot est anglaise, "tourist", qui ... 	Le mot tourisme désigne le fait de voyager pou...   xwikis
2 	Étymologiquement, le mot français "philosophie... 	La philosophie, du grec ancien "φιλοσοφία" (com...   xwikis
3 	Le terme biologie est formé par la composition... 	La biologie (du grec "bios" « la vie » et "log...   xwikis
4 	Trois étymologies sont fréquemment citées, mai... 	La chimie est une science de la nature qui étu...   xwikis
  • the text column contains the text
  • the summary column contains text summary
  • the dataset column identifies the row's original dataset (if you wish to apply filters to it)

Split

  • train corresponds to the concatenation of xwikis + alpaca_motivations_sommaires + cross_sum + xlsum + orange_sum + mlsum + fr_covid_news_8k + FakeNewsDetectionFr + MassiveSumm_short+ MassiveSumm_long + wikinews
  • validation corresponds to the concatenation of xwikis + cross_sum + xlsum + orange_sum + mlsum
  • test corresponds to the concatenation of xwikis + cross_sum + xlsum + orange_sum + mlsum

Citations

alpaca_motivations_sommaires

Dataset by Amaury FOURET (2023) 
Hugging Face repository: https://huggingface.co/datasets/maurya/alpaca_motivations_sommaires

FakeNewsDetectionFr

Dataset by Gregory LANG (2019) 
Hugging Face repository: https://github.com/jeugregg/FakeNewsDetectionFr

fr_covid_news_8k

@dataset{covidfrenchnews,  
  author = {Gustave Cortal},  
  year = {2021},  
  month = {03},  
  title = {COVID-19: French news dataset},  
  url = {https://www.gustavecortal.com}}

CrossSum

@misc{bhattacharjee2023crosssum,  
      title={CrossSum: Beyond English-Centric Cross-Lingual Summarization for 1,500+ Language Pairs},  
      author={Abhik Bhattacharjee and Tahmid Hasan and Wasi Uddin Ahmad and Yuan-Fang Li and Yong-Bin Kang and Rifat Shahriyar},  
      year={2023},  
      eprint={2112.08804},  
      archivePrefix={arXiv},  
      primaryClass={cs.CL}}

mlsum

@inproceedings{scialom-etal-2020-mlsum,  
    title = "{MLSUM}: The Multilingual Summarization Corpus",   
    author = "Scialom, Thomas and Dray, Paul-Alexis  and Lamprier, Sylvain and Piwowarski, Benjamin and Staiano, Jacopo",
    editor = "Webber, Bonnie and Cohn, Trevor and He, Yulan and Liu, Yang",  
    booktitle = "Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP)",  
    month = nov,  
    year = "2020",  
    address = "Online",  
    publisher = "Association for Computational Linguistics",  
    url = "https://aclanthology.org/2020.emnlp-main.647",  
    doi = "10.18653/v1/2020.emnlp-main.647",  
    pages = "8051--8067"}

orange_sum

@article{eddine2020barthez,  
  title={BARThez: a Skilled Pretrained French Sequence-to-Sequence Model},  
  author={Eddine, Moussa Kamal and Tixier, Antoine J-P and Vazirgiannis, Michalis},  
  journal={arXiv preprint arXiv:2010.12321},  
  year={2020}}

xlsum

@inproceedings{hasan-etal-2021-xl,  
    title = "{XL}-Sum: Large-Scale Multilingual Abstractive Summarization for 44 Languages",  
    author = "Hasan, Tahmid and Bhattacharjee, Abhik and Islam, Md. Saiful  and Mubasshir, Kazi and Li, Yuan-Fang and Kang, Yong-Bin and Rahman, M. Sohel and Shahriyar, Rifat",  
    editor = "Zong, Chengqing  and Xia, Fei and Li, Wenjie and Navigli, Roberto",  
    booktitle = "Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021",  
    month = aug,  
    year = "2021",  
    address = "Online",  
    publisher = "Association for Computational Linguistics",  
    url = "https://aclanthology.org/2021.findings-acl.413",  
    doi = "10.18653/v1/2021.findings-acl.413",  
    pages = "4693--4703"}

xwikis

@misc{perezbeltrachini2022models,  
      title={Models and Datasets for Cross-Lingual Summarisation},  
      author={Laura Perez-Beltrachini and Mirella Lapata},  
      year={2022},  
      eprint={2202.09583},  
      archivePrefix={arXiv},  
      primaryClass={cs.CL}}

MassiveSumm

@inproceedings{djamshidi-etal-2021-massivesumm,
title = "MassiveSumm: A Very Large-Scale, Very Multilingual News Summarisation Dataset",
author = "Djamshidi, Amir Abbas and Mehrabi, Pegah and Paun, Andrei and Sagot, Beno{^i}t",
booktitle = "Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing",
month = nov,
year = "2021",
address = "Online and Punta Cana, Dominican Republic",
publisher = "Association for Computational Linguistics",
url = "https://aclanthology.org/2021.emnlp-main.303",
pages = "3749--3765",
}

wikinews

Dataset by Malte OSTENDORFF (2024) 
Hugging Face repository: https://huggingface.co/datasets/malteos/wikinews

FrenchSUM

@misc {frenchSUM,   
    author       = { {BOURDOIS, Loïck} },  
    organization  = { {Centre Aquitain des Technologies de l'Information et Electroniques} },  
    title        = { frenchSUM (Revision 299b07c) },  
    year         = 2023,  
    url          = { https://huggingface.co/datasets/CATIE-AQ/frenchSUM },  
    doi          = { 10.57967/hf/6447 },  
    publisher    = { Hugging Face } }

License

cc-by-4.0

Downloads last month
215

Models trained or fine-tuned on CATIE-AQ/frenchSUM