Aller au contenu

Rechercher dans la communauté

Affichage des résultats pour les étiquettes 'ressources'.



Plus d’options de recherche

  • Rechercher par étiquettes

    Saisir les étiquettes en les séparant par une virgule.
  • Rechercher par auteur

Type du contenu


Forums

  • Le forum
    • Annonces
    • Accueil et présentations
    • Taverne du sacheur assoiffé
    • Propositions
    • Outils et ressources
  • Salons thématiques
    • Eléments à analyser
    • Actualité
    • Épistémologie
    • Général
    • Politique
    • Histoire
    • Médecine et santé
    • Espace et Terre
    • Sciences naturelles et technologie
    • Spiritualité

Rechercher les résultats dans…

Rechercher les résultats qui contiennent…


Date de création

  • Début

    Fin


Dernière mise à jour

  • Début

    Fin


Filtrer par nombre de…

Inscription

  • Début

    Fin


Groupe


À propos de moi

8 résultats trouvés

  1. Prédire l'avenir, quel rêve fantastique... C'est ce que la science s'efforce de faire, et elle le fait très bien, dans la mesure du possible. Prédire l'avenir, c'est prouver que l'on comprend les lois de la Nature, mais l'Univers est imprévisible et empreint de chaos. Quelle confiance doit-on alors placer dans les prédictions de la science ? Je vous propose une plongée (en surface néanmoins) dans la Théorie du Chaos, théorie aussi essentielle pour la Science qu'inspirante pour les Arts. La Théorie du Chaos "Donc, au commencement, fut Chaos" Hésiode, Théogonie ▲Scène de l'hélicoptère (rendu artistique) Ian Malcolm, chaotitcien, ne comprends pas qu'on n'aie jamais entendu parler de la théorie du chaos. Jurassic Park - Steven Spielberg (1993) Sommaire La Théorie du Chaos Introduction - Le déterminisme Le Chaos Première conclusion - Le Chaos Déterministe Quelques exemples concrets Théorie du Chaos L'Effet Papillon Introduction Le système de Lorenz Espace des phases Conclusion générale POUR ALLER PLUS LOIN Cet article a pour objectif de saisir les concepts majeurs de cette théorie, et comment elle ouvre des pistes de réflexion pour notre propre perception de la science. A travers cet article nous n’effleurerons qu'une toute partie des immenses travaux qu'on réalisé les scientifiques qui vont être cités ici. Le marquis Pierre-Simon de Laplace, gravure de James Posselwhite Introduction - Le déterminisme Prédire l'avenir nécessite de se placer dans un cadre déterministe, c'est à dire que la connaissance des propriétés (position, vitesse) d'un système à un instant donné et des lois physiques qui s'appliquent sur ce système permettent de prédire exactement l'état du système à n'importe quel instant futur. Pierre-Simon de Laplace décrit un "démon" qui est capable de connaître avec une précision infinie la position de chaque particule de l'univers ainsi que les lois qui le régissent avec exactitude ; ce démon est alors capable de prédire parfaitement l'Avenir. "Nous devons donc envisager l’état présent de l’Univers comme l’effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d’ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome : rien ne serait incertain pour elle et l’avenir, comme le passé serait présent à ses yeux." Laplace, Essai philosophique sur les probabilités L'entièreté de la physique repose sur ce principe, sauf que les conditions initiales sont toujours mesurées avec une certaine incertitude de mesure ; cela engendre une certaine erreur quand on calcule l'état futur. C'est ce qu'on appelle la propagation des incertitudes, c'est-à-dire que l'erreur de mesure se propage au sein des calculs et donne une erreur, ou "barre d'erreur" finale. (Attention ce n'est pas forcément une propagation temporelle, ça peut être aussi bien la propagation de l'incertitude quand on fait plusieurs calculs successifs, pour déduire plusieurs grandeurs physiques d'une même mesure). Exemple : Je mesure un objet qui est à 1 km de moi (plus ou moins 10 mètres) et qui décolle du sol à 20 km/h (plus ou moins 1 km/h) (parce que je le mesure avec une caméra qui a une certaine résolution etc...), donc je peux calculer que, disons, dans 20 secondes il retombera à tel ou tel endroit (plus ou moins quelque chose). Ensuite je peux mesurer si effectivement l'objet est retombé comme je l'avait prédit, si ou,i cela voudra dire que la théorie que j'ai utilisée pour décrire la physique de l'objet est correcte. On voit que c'est un problème propre à la physique appliquée. Evidemment en physique théorique cela n'intervient pas puisque les calculs sont exacts. Tout le travail de la physique expérimentale est d'utiliser des mesures qui, elles, ne seront jamais exactes, et donc de déterminer le niveau de confiance (si ça vous rappelle la météo ce n'est pas anodin) que l'on a dans les mesures. Si la taille d'un astéroïde est de10 mètres de diamètre, c'est bien, mais si l'imprécision est donnée à plus ou moins 1 km, la mesure va directement à la poubelle car elle est inexploitable. Les systèmes simples propagent les incertitudes de façon simple, si on mesure avec une erreur de 10% au début, alors on prédit un résultat qui sera exact avec une erreur elle aussi de 10% (propagation constante). En général quand on parle d'évolution temporelle, la propagation se fait au moins linéairement, c'est à dire que chaque unité de temps qui passe ajoute une barre d'erreur. Exemple : on mesure les paramètres du système avec une précision de 1% et on veut déterminer l'évolution de ce système dans le temps, et bien on prédira l'évolution au bout d'un heure avec une précision de 2%, au bout de 2h avec une précision de 3%, au bout de 3h avec une précision de 4% etc... L'explication, c'est que le niveau de confiance dans la prédiction qui diminue au cours du temps ; ceci permet de modéliser plusieurs choses : le fait que la mesure initiale n'est pas exacte, le fait que d'autres paramètres entrent en jeu dans l'expérience au cours du temps, le fait que la théorie avec laquelle on décrit le système est incomplète (et donc la mesure va s'écarter progressivement de la théorie) (par exemple pour calculer la lune autour de la terre on ne prend pas en compte l'influence de Jupiter, si on la prenait en compte on aurait déjà des calculs plus fiables, et encore plus si on prend toutes les planètes etc...) Exemple : Les deux trajectoires s'éloignent régulièrement l'une de l'autre à cause de l'écart initial dû à l'erreur de mesure. Le système est linéaire. Pour bien comprendre, prenons un objet qui est lancé dans l'espace, et qui décrit donc une ligne droite. Connaissant la vitesse de l'objet et l'angle avec lequel il a été lancé, on peut facilement déterminer l'endroit où il sera au cours du temps : il n'y a qu'a suivre la ligne droite. Maintenant, imaginons que la mesure de l'angle avec lequel l'objet est lancé soit imprécise : on le mesure au degré près. Disons qu'on mesure l'angle à 30° par rapport à une référence ; cela veut dire que la vraie valeur de l'angle se situe entre 29° et 31°. Imaginons que la vraie valeur de l'angle soit de 30,5°. Lorsque qu'on calcule la trajectoire, on utilise la mesure que l'on a : 30°. Disons qu'on calcule qu'au bout de 10 secondes l'objet devra se trouver à 10 mètres (il va à 10 m/s donc). Sauf que, comme la vraie valeur de l'angle est 30,5°, lorsqu'on mesurera la position de l'objet, il se trouvera 4 centimètres à côté de ce que l'on avait calculé avec une valeur de 30°. Au bout de 100 secondes, la vraie position de l'objet sera 40 cm à côté de la position calculée et ainsi de suite. Ici l'erreur de mesure initiale se propage linéairement au cours du temps : on ajoute 4 cm d'erreur toutes les 10 secondes. Le Chaos Un système est dit "chaotique" quand il propage les incertitudes de manière exponentielle. Si dans les exemples précédents on ajoutait simplement 1% toutes les heures, ou 4 cm toutes les dix (secondes (donc l'erreur croit proportionnellement avec le temps), ici l'erreur croît exponentiellement avec le temps. (Pour les informaticiens, on peut comparer ça à la complexité algorithmique). Pour chipoter, en réalité, on détermine si un système est chaotique si "l'exposant de Lyapunov" de ce système est positif (du nom du mathématicien du même nom), mais cela ne nous importe pas pour comprendre. Exemple : Les deux trajectoires s'éloignent radicalement l'une de l'autre. L'erreur de prédiction croît exponentiellement. Le système est chaotique, et sensible aux conditions initiales. Pour bien comprendre ce qu'est une propagation exponentielle, reprenons l'exemple de notre objet qui se déplace. Mais cette fois-ci il ne va plus en ligne droite, mais il est par exemple soumis à des forces physiques plus complexes, ou bien le modèle mathématique utilisé pour décrire le mouvement est moins complet. L'objet va toujours à 10 m/s et on fait toujours une erreur de 0,5° en mesurant l'angle, et on suppose aussi qu'au bout de 10 secondes l'erreur soit toujours de 4 cm comme avant. Voyons ce qu'il se passe : La différence ici c'est que si l'on a une propagation exponentielle, l'erreur au bout de 10 secondes est la même que pour une propagation linéaire, mais au bout de 20 seconde elle ne sera plus de 8 cm (puis-qu’avant on ajoutait 4 cm toutes les 10 secondes), mais elle sera de 24 cm. Continuons donc : au bout de 30 secondes, l'objet ne sera pas 12 cm à côté de la prédiction, mais à 124 cm, ça commence à se voir. Au bout de 100 secondes, si l'erreur était de 40 cm, elle est maintenant de 97 kilomètres ! On voit bien le problème que cela représente : l'objet n'a parcouru que 100 mètres et l'erreur de prédiction est de 97 kilomètres. Le calcul est donc inutilisable. Ian Malcolm expliquant à Ellie Sattler le concept de sensibilité aux conditions initiales dans Jurassic Park : "Disons qu'une goutte d'eau tombe sur votre main, dans quel sens va rouler cette goutte ?" C'est cela une propagation exponentielle des erreurs. Quand un système se comporte comme cela (et est donc chaotique) cela veut dire que la moindre erreur de mesure sur les conditions initiales (ici un demi degré sur la mesure d'un angle !) est fatale. C'est ce qu'on appelle, assez littéralement, le phénomène de sensibilité aux conditions initiales. Dit autrement, un même système chaotique, mis dans deux conditions initiales très légèrement différentes donnera des résultats qui divergeront exponentiellement l'un de l'autre. Le système est alors imprévisible du fait que l'on fera toujours une erreur entre la mesure de ces conditions initiales et la valeur réelle. La seule solution pour prédire l'état d'un système chaotique serait de pouvoir mesurer avec une précision parfaite ; à ce moment, la prédiction sera donc exacte (mais cela ne change pas la nature chaotique du système). Ce qui rend un système chaotique imprévisible, c'est le fait que l'erreur dépasse les 100% (ou un autre seuil), et ceci dans un temps relativement court. Dans notre exemple, c'est autour de 54 secondes, c'est-à-dire que en 54 secondes l'objet a parcouru 54 mètres, mais l'erreur de prédiction passe au dessus des 54 mètres elle-même ! Cependant il est à noter que ce temps peut varier selon l'échelle du système, les systèmes plus stables et/ou mieux décrits par la théorie (mais néanmoins chaotiques) vont pouvoir être prévisible sur une plus grande période. A l'inverse les systèmes moins stables seront bien moins prévisibles Cet instant au delà duquel l'erreur dans la prédiction dépasse le seuil qu'on s'est fixé, c'est ce qu'on appelle l'horizon des événements ou "horizon de Lyapunov". L'Univers entier est chaotique (L'Univers n'est que Chaos si vous vous sentez l'âme poétique). Ou alors il faudrait avoir accès à une théorie du Tout, d'avoir accès à la position et à la vitesse exactes de chaque particule de l'univers, et d'avoir une puissance de calcul infinie (en d'autres termes : être le Démon de Laplace) ; l'univers sera toujours chaotique, mais prévisible. De ce fait, l'Avenir ne pourra être prédit que localement et sur une durée relativement courte. Première conclusion - Le Chaos Déterministe Une chose importante à remarquer et à retenir, c'est la compatibilité entre la notion d'imprédictibilité, et donc de hasard avec la notion de déterminisme. Une erreur largement commise (et même par certains scientifiques !) est de penser que la mécanique quantique et son approche probabiliste est incompatible avec le déterminisme. En effet le principe de la mécanique quantique est de s'appuyer sur les probabilités : l'état d'une particule par exemple sera toujours aléatoire d'après la description quantique. En bref, une des bases de la mécanique quantique est de montrer qu'on ne pourra jamais, peut importe notre niveau technologique, faire de mesure exacte. Si vous avez bien suivi vous comprenez maintenant que la mécanique quantique ne fait que nous indiquer qu'une mesure exacte ne sera pas possible, mais ne contredit pas le fait que si on avait possibilité de faire cette mesure exacte on pourrait prédire exactement l'Avenir. Et la théorie du chaos nous le fait bien visualiser. On parle alors de "Chaos déterministe" Quelques exemples concrets Animation montrant le mouvement de deux pendules doubles. Les deux pendules sont lâchés simultanément avec une toute petite différence de position. Si au début, les pendules semblent synchronisés, remarquez que leur mouvement devient totalement différent au bout d'un moment. Le système chaotique le plus simple, c'est le double pendule. C'est très simple, seulement une barre qui pivote autour d'un axe, et une deuxième barre qui pivote par rapport à la première ; l'animation ci-contre devrait être suffisamment parlante. Le modèle mathématique qui décrit le mouvement de ce pendule est exact. Mais pour calculer le mouvement de ce pendule dans le temps, vous devez mesurer la position du pendule immobile à un instant donné (au début, avant de le lâcher), vous avez alors une valeur à rentrer dans les équations et donc vous avez l'évolution exacte du pendule au cours du temps. Maintenant vous lâchez le pendule et très rapidement ce que vous observez s'éloigne totalement du calcul que vous avez fait ; la différence (l'erreur) est tellement grande, et de manière tellement rapide, que vous pouvez jeter votre calcul théorique. Il ne sert à rien. Cela vient du fait que la position que vous avez mesurée au début, et donc celle que vous avez rentrée dans le calcul, n'était pas exactement la position réelle. Si vous aviez rentré la valeur strictement exacte dans le calcul, alors le pendule aurait suivi exactement votre prédiction. Le fait que ce soit chaotique, ce n'est pas que le mouvement fasse n'importe quoi (ce serait une signification commune du mot "chaotique" - synonyme de "erratique" - et bien sûr c'est de là que vient le nom de la théorie) ; ce qui fait que ce soit chaotique, c'est que pour arriver à rendre exacte la prédiction sur le long terme, il faut augmenter la précision de mesure de manière exponentielle. Si vous mesurez le pendule au millimètre près, les calculs ne collent plus au bout d'une demi-seconde. Pour que ça colle jusqu'à seulement une minute, il faudrait (ce ne sont pas les chiffres exacts, mais c'est l'idée) mesurer la position jusqu'à l'atome près. Et comme on est limité dans nos mesures de toutes façons par l'inégalité d'Heisenberg, on ne pourra pas dépasser les deux minutes en termes de prédiction. Un deuxième exemple que l'on peut citer est celui de notre système solaire. Le système solaire est chaotique lui aussi ! La différence, c'est que c'est un système beaucoup plus stable (dans le sens de moins erratique), autrement dit son échelle de temps d'évolution est beaucoup plus longue. En effet son horizon de Lyapunov est de 50 millions d'années. Si l'on fait une erreur sur la mesure de la position de Mars aujourd'hui, l'erreur se propagera toujours exponentiellement, mais notre prédiction sera juste pour les 50 prochains millions d'années avant que la réalité ne soit complètement différente de la prédiction. C'est donc amplement suffisant pour l'utilisation que l'on en fait. La météorologie , on y vient à la fin, est chaotique. Dans ce cas l'imprévisibilité n'est non pas causée par les erreurs de mesure (elles interviennent mais en partie seulement), mais majoritairement par les erreurs de calculs ! Un ordinateur n'a pas une précision infinie pour faire ses calculs et ses prédictions. C'est pour cela qu'avec les premiers modèles météorologiques on pouvait prédire le temps pour le lendemain. Aujourd'hui avec les supercalculateurs on a accès à beaucoup, beaucoup, beaucoup plus de précision disponibles pour nos calculs, et on peut avoir des prédictions qui peuvent rester justes jusqu'à... une semaine. Rappelez-vous, pour augmenter la justesse de la prédiction on doit augmenter exponentiellement la précision. C'est une des différences avec le climat. Pour le climat, le système étudié est l'atmosphère globale, qui se comporte différemment et est décrite par des modèles différents que pour l'atmosphère locale, qui est la météo. Dans l'optique de notre sujet, l'horizon des événements du climat est bien plus large que celui de la météo, c'est pourquoi on peut prédire l'état du climat à l'échelle des décennies et du siècle, mais pas la météo, ce sont deux systèmes chaotiques, mais deux systèmes différents. Théorie du Chaos On pourrait penser que jusqu'à présent on a juste décrit ce qu'était le chaos, et que nous n'avons pas parlé de la "théorie du chaos" en elle-même. C'est plus subtil que cela : la description de ce qu'est le chaos représente la majorité de la théorie. Nous allons ici expliquer ce que l'on peut faire face à l'imprédictibilité du chaos. Si vous avez tout compris jusqu'à présent c'est le principal, on va rentrer (un tout petit peu je rassure) dans plus de détails. Il nous faut préciser que dans tout ce qui précède, on a parlé de systèmes physiques. En réalité, l'aspect chaotique n'est propre qu'à des systèmes purement mathématiques. Un système physique qui est chaotique, est en réalité un système physique dont les mathématiques qui le décrivent sont, elles, chaotiques. C'est pour cela que la théorie du chaos est bien une théorie mathématique, plus que physique. La théorie du chaos en elle-même, consiste à trouver des aspects prévisibles aux systèmes chaotiques (trouver l'harmonie dans le chaos si vous avez toujours l'âme poétique, mais c'est la même chose au fond). Pour cela on utilise ce qu'on appelle en physique l'espace des phases. Version scientifique : on représente en deux ou trois dimensions (et donc sur des axes différents) certains paramètres du système en fonction d'autres paramètres du même système, et non plus simplement la position en fonction du temps par exemple. Si vous avez toujours l'âme poétique : on change simplement notre manière de voire les choses, on adopte un autre point de vue et le système parait beaucoup plus harmonieux. La même technique est utilisée par certains artistes en sculpture comme sur cette vidéo. On change ses axes et on voit mieux les choses. Il faut préciser que cette technique de changement d'espace mathématique n'est pas propre du tout à la théorie du chaos ("changer son point de vue" c'est ce qu'on fait pour la diagonalisation des matrices par exemple : on change de coordonnées/d'axes), mais elle y est utile. Pour bien comprendre, prenons une fois de plus un exemple, le plus célèbre, dans la partie suivante. L'Effet Papillon Edward N. Lorenz pour sa récompense au prix de Kyoto en 1991 Introduction Edward Lorenz est l'un des pères de la théorie du chaos. C'était un météorologue américain, né en 1917 et mort en 2008 pour situer l'époque (voir l'encart précédent). Avant les années 60, la météorologie se résumait à faire des prédictions purement qualitatives et basées sur l'expérience d'une part, et d'autre part d'essayer d'appliquer les équations de la mécanique des fluides à l'atmosphère locale (notez qu'on ne parle pas de climat ici, qui est un système global et dont l'étude se fait à long terme, nous y reviendrons dans cet article). Tout le problème des équations de la mécanique des fluides, c'est qu'elles sont très loin d'être simples. Aujourd'hui on arrive à faire des choses avancées avec nos ordinateurs, mais à l'époque l'enjeu était de simplifier ces équations pour les rendre utilisables par les ordinateurs de l'époque. Le système de Lorenz C'est ce que fait Lorenz. Il s'intéresse notamment au phénomène de convection de Rayleigh-Bénard, qui décrit (en partie seulement) les interactions entre l'océan et l'atmosphère (qui est vous l'aurez compris une petite partie simplifiée du modèle global que l'on pourrait obtenir avec la mécanique des fluides). On ne va bien entendu pas rentrer dans les détails de ce phénomène, ce n'est pas le sujet. Lorenz simplifie encore ces équations (pour donner une idée d'à quel point le système peut être simplifié sans pour autant qu'il soit réellement simple), et il obtient trois équations mathématiques, qui sont assez simples et qui ne comportent que trois paramètres (grossièrement un paramètre décrivant le mouvement des fluides, et deux décrivant la température). A l'aide d'un ordinateur et de quelques compétences algorithmiques, on peut calculer l'évolution des valeurs de ces paramètres en fonction du temps (par exemple la température en fonction du temps). C'est ce que faisait Lorenz avec son LGP-30, ordinateur conçu en 1956 (et avec évidemment beaucoup plus de patience). Une anecdote raconte qu'il faisait ses calculs avec 6 chiffres après la virgule, et qu'un jour pris de fainéantise, il fit ses calculs avec seulement trois chiffres après la virgule. Ce à quoi il s'attendait, c'est que les résultats soient certes différents, mais juste un peu moins précis. En réalité les calculs furent radicalement différents, et ce juste pour une imprécision sur plusieurs chiffres après la virgule. C'est ce dernier point qui nous intéresse, qu'une petite différence à peine 4 chiffres après la virgule donne des résultats complètement différents : la sensibilité aux conditions initiales. Et on voit par ailleurs qu'il n'y a rien de physique là dedans, le chaos est déjà présent juste dans les calculs mathématiques. Voyons cela concrètement. Comme on l'a dit plus haut l'un des paramètres est lié à la température : . Disons donc que représente la température au cours du temps : quand et par exemple, cela veut dire qu'au bout de 10 secondes, la température vaut 50 degrés (peut importe l'unité, vous l'aurez compris ce sont les écarts de valeurs qui vont nous intéresser). En exécutant le calcul, on peut alors tracer l'évolution de la température du système en fonction du temps. Résultat : Notez la pertinence du mot "chaos". Notez aussi que vous voyez la variation de température sur une durée totale de 2 minutes seulement. A titre d'information pour la suite : au début de l'expérience la température est de 20°, et au bout, par exemple de 20 secondes, elle est de 31°. Maintenant testons la nature chaotique de ce système : ne commençons plus avec 20°C au début, mais avec 20,001° et voyons ce que ce millième de degré en trop provoque. Après avoir lancé le calcul on obtient un graphique similaire, tout aussi immonde. En commençant à 20° la température affiche 31° au bout de 20 secondes comme on l'a dit. Mais en commençant 1 millième de degré au dessus, donc à 20,001°, la température affiche 59° au bout de 20 secondes. On voit ici que le résultat de l'évolution de la température au bout de 20 secondes est radicalement différent alors qu'on a changé une valeur trois chiffres après la virgule. Ici, prédire la température est équivalent à prédire le mouvement d'une balle très rebondissante dans une boîte fermée. Evidemment ici on le rappelle c'est purement mathématique, il est impensable de transposer cela en une quelconque prédiction physique. Avec ce système, Lorenz prouva au début des années 60 que la météorologie était bien un système chaotique, comme Poincaré l'avait envisagé quelques décennies auparavant. Il n'était donc pas étonnant alors que la météo soit si dure à prévoir, et le soit toujours aujourd'hui, malgré notre technologie. Espace des phases Appliquons maintenant la théorie du chaos. Au lieu de représenter sur un graphique le temps sur un axe et la température sur l'autre comme on l'a fait avant, utilisons l'espace des phases : on trace en 3D avec trois axes représentant les trois paramètres x, y et z. C'est pratique car ces trois paramètres peuvent s'assimiler par analogie à la position d'un objet : x, y et z (largeur, longueur, hauteur). Pour comprendre la suite, considérons que les équations données décrivent effectivement le mouvement d'un objet dans l'espace (x,y,z) en fonction du temps (t), sans se préoccuper alors des forces physiques qui pourraient provoquer un tel mouvement. (Pour mettre tout le monde au niveau si on a les valeurs des paramètres t=10, x=1, y=2 et z=3, cela veut dire qu'à 10 secondes à compter du début, l'objet se situe 1 mètre à droite, 2 mètres devant et 3 mètres en haut.) La courbe que l'on va obtenir par le calcul sera alors la trajectoire de cet objet dans l'espace. Comme on procède ici par analogie, et qu'en réalité ce n'est pas la position que l'on mesure mais des températures et des mouvements de fluides, cette trajectoire n'a rien de concrètement réel, mais on parle alors de trajectoire dans l'espace des phases. On place l'objet à 20 mètres à droite, 20 mètres devant, et à 20 mètres d'altitude (x=20, y=20, z=20) (remarquez qu'on garde z=20 comme avant, ici cela ne représente plus alors 20 degrés mais 20 mètres). Ensuite, on lâche cet objet et on trace sa trajectoire. Admirez le résultat : . Animation 3D du point se déplaçant le long de sa trajectoire dans l'espace des phases. On visualise bien qu'une petite différence de trajectoire peut faire passer le point d'une aile à l'autre. Voyez ces courbes harmonieuses et dansantes ; ne dirait-on pas une sorte de papillon, avec ses deux ailes rondes ? Si vous avez suivi, ceci ne rend pas le système prévisible, mais met en évidence une structure relativement régulière. Donc si l'on fait démarrer l'objet un millimètre à côté, les valeurs au cours du temps seront radicalement différentes ; mais même si les valeurs sont différentes et imprévisibles, l'objet décrira toujours ce même joli dessin de papillon. Arrêtons notre analogie, et revenons au système physique (avec les températures etc.). La température, on l'a vu, comme les deux autres paramètres, évolue, on peut le dire, n'importe comment (revoyez le premier graphique, on dirait juste du bruit), tout comme notre double pendule. Et là, par une simple technique mathématique qui est simplement de représenter, non pas la valeur du paramètre en fonction du temps (ce qui a une signification physique concrète), mais de représenter les paramètres sur différents axes, les uns en fonction des autres dans l'espace des phases, on obtient quelque chose d'harmonieux. L'Harmonie cachée dans le Chaos. C'est un très gros apport puisque sur le graphique au dessus, ou sur l'animation ci-contre, on peut au moins voir que les valeurs des 3 paramètres tendent à se concentrer, à s'enrouler dans deux zones bien visibles (les deux structures en tourbillon, les deux ailes du papillon), on peut alors, toujours dans l'idée, délimiter les valeurs de ces paramètres. Cependant on voit toujours, comme sur l'animation, que le point se déplace d'un tourbillon à l'autre (d'une aile du papillon à l'autre) de manière erratique et imprévisible. David Ruelle en 2009 Ce genre de structure graphique obtenue dans l'espace des phases des systèmes chaotiques est appelée attracteur étrange. C'est le nom que leur a donné David Ruelle mathématicien et physicien franco-belge, et père de la théorie du chaos lui aussi. "Attracteur", car le système (la trajectoire) semble être attiré, amené inévitablement à s'enrouler autour de cette structure, peu importe les conditions initiales (et vous l'aurez compris, c'est un bénéfice). "Étrange" car il dénote de cette harmonie, de cet ordre qui surgit au beau milieu du chaos. Pour expliquer le concept de sensibilité aux conditions initiales, Lorenz s'inspire de la forme de son attracteur étrange pour donner son nom à l'Effet Papillon. L'effet papillon devient célèbre en 1972 lorsque Lorenz donne une conférence devant l'Association Américaine pour le Progrès des Sciences. Cette conférence avait pour titre, maintenant devenu célèbre : Predictability: Does the Flap of a Butterfly's Wings in Brazil Set off a Tornado in Texas? Prédictibilité : le battement d'ailes d'un papillon au Brésil peut-il provoquer une tornade au Texas ? Vous l'aurez compris, la réponse à cette question est oui. L'Univers est chaotique, le papillon peut tout à fait provoquer une tornade, ou pas. David Ruelle aime prendre un autre exemple, encore pire : l'influence d'un électron à l'autre bout de l'univers observable ! Supposons que l'information se déplace instantanément : nous avons un certain mouvement dans l'atmosphère au dessus de nous (vent, température, etc.) qui influe sur la météo ; imaginons que l'on supprime cet électron ; Ruelle a calculé que l'influence de cette disparition donnerait une différence, certes négligeable, mais néanmoins mesurable en seulement quelques dizaines de minutes ! La métaphore du papillon est en réalité bien plus qu'une métaphore, c'est presque un euphémisme ! Conclusion générale Il est temps de conclure notre dossier. De manière générale, la théorie du chaos est l'un des trois piliers de la science de l'Univers (et indirectement toutes les autres sciences qui en découlent). Les deux autres piliers sont la Relativité Générale d'Einstein, qui décrit l'espace, le temps, et les mouvements dans l'Univers ; le Modèle Standard des Particules/La Mécanique Quantique qui décrit le reste, c'est-à-dire les interactions fondamentales et la dynamiques des objets dans l'univers. Ceci permet de rappeler la première conclusion importante que nous avons déjà évoqué plus haut, à savoir la compatibilité entre la nature déterministe de l'univers et l'approche strictement probabiliste de la mécanique quantique. De ces deux piliers découlent le reste des théories de la physique, de la chimie et du reste des sciences qui décrit alors tout ce qu'il se passe dans le monde (de manière de plus en plus implicite évidemment). La Théorie du Chaos, on l'a vu, propose surtout une description et un axe de réflexion sur notre propre perception de la science expérimentale par rapport à la science théorique. Autrement dit, l'écart qu'il y aura toujours entre la redoutable efficacité de nos théories scientifiques, et la raisonnable inefficacité de ces mêmes théories. La Théorie du Chaos nous indique ce qui fonctionnera, et ce qui ne fonctionnera pas. C'est le véritable moteur d'évolution de notre science : la connaissance ne peut être que croissante. Si vous avez toujours l'âme poétique, finissons sur une méta-analogie : L'ignorance est le Chaos, la Science consiste à y déterrer l'Harmonie, comme l'on déterre un fossile de dinosaure... POUR ALLER PLUS LOIN : Cet article ne serait rien sans David Ruelle, et son excellent travail de vulgarisation. Je recommande la lecture de son livre : "Hasard et Chaos" D. Ruelle. Paris, éd. Odile Jacob, 1991 Ce livre est extrêmement complet, et parmi les nombreux sujets abordés on y retrouve notamment notre première conclusion sur le rapport entre le probabilisme et le déterminisme. L'extrait dont on a parlé du film Jurassic Park où Ian Malcolm illustre très bien le phénomène de sensibilité aux conditions initiales : Dr Nozman nous parle du double pendule dans sa vidéo dédiée. Elle est pertinente pour voir l'expérience en vrai, et non plus via des simulations.
  2. Maxther

    Ondes et ionisation

    Ondes et Ionisation Une fois de plus on va démarquer le vrai du faux concernant les ions et l'ionisation, ainsi que leur lien avec les ondes électromagnétiques. Ici nous aborderons les principes physiques nécessaires pour comprendre des cas d'étude concrets comme la 5G, le four à micro-onde ou les compteurs Linky. Cet article prendra appui sur des notions fondamentales concernant les ondes. Il est donc recommandé de lire l'article ci-dessous avant : Sommaire Structures des atomes et molécules Transferts d'énergie Ionisation Conséquences et impacts* Conclusion Atomes et molécules - Structure Pour bien comprendre l'ionisation et ses effets, il est important de savoir déjà ce que c'est que l'ionisation. Voyons alors la structure d'un atome : Dans la vision populaire, un atome est composé d'un petit noyau, chargé positivement, et d'électrons qui tournent autour, à la manière des planètes autour du soleil. Bien que cette vision soit globalement fausse, elle est suffisante pour comprendre les principes que l'on veut aborder. Il faut juste préciser que la mécanique quantique interdit aux électrons de tourner n'importe où. Donc pour faire simple, les électrons tournent seulement à certains endroits, plus ou moins proche de leur noyau, mais à uniquement certaines distances du noyau. Grossièrement : un électron peu tourner à 1 cm de son noyau, ou à 2 cm de son noyau, mais pas à 1,5 ou 2,3 cm par exemple (bien entendu ces valeurs sont uniquement données à titre d'exemple.) On parle d'orbitales atomiques. Enfin le dernier principe à assimiler est que plus un électron gagne de l'énergie cinétique (donc de la vitesse), plus il s'éloignera du noyau. De la même manière que plus vous tirez fort dans un ballon, plus le ballon ira haut dans le ciel. Donc quand un électron gagne de l'énergie, il change d'orbitale et va sur une orbitale plus éloignée ; et inversement quand il perd de l'énergie il revient sur des orbitales plus proches du noyau. On dit que l'atome est excité ou qu'il se désexcite. Une molécule est simplement un agencement d'atomes liés entre eux. Les électrons, au lieu de tourner autour de leur noyau d'atome, vont tourner un peu autour de tous les noyaux d'atomes présents dans la molécule. De la même manière ils ne peuvent pas tourner n'importe où et occupent uniquement certaines trajectoires précises. Et de la même manière, il vont occuper des trajectoires plus éloignées de la molécule quand ils gagnent en énergie et inversement. Dans les deux cas on parle alors de niveaux d'énergie au sein des atomes ou des molécules. Quand un électron reçoit de l'énergie, il passe d'un niveau d'énergie bas à un niveau élevé. Ainsi il s'éloigne du centre. (Et inversement). Les transferts d'énergie Voyons maintenant rapidement comment un électron peut recevoir de l'énergie. L'énergie thermique est la première : Les atomes d'un gaz peuvent être excités quand on chauffe le gaz. Mais la forme d'énergie qui nous intéresse ici, c'est le rayonnement : les ondes électromagnétiques. Rappelons que pour une onde, l'énergie de cette onde correspond à la fréquence de cette onde. (Pour une onde électromagnétique, c'est donc la fréquence à laquelle varie la valeur du champ électromagnétique). Quand on envoie une onde électromagnétique sur un atome, alors l'électron peut absorber l'onde et donc son énergie. Inversement, lorsqu'un électron revient sur une orbitale plus basse, il libère de l'énergie (les différentes manières de libérer l'énergie seront abordées plus loin). Mais, de la même manière que les électrons ne peuvent pas être à n'importe quelle distance du noyau, leur énergie qu'ils peuvent emmagasiner ne peut pas être n'importe laquelle non plus. Un électron dans un atome ou une molécule ne peut absorber que certaines quantité d'énergie. Donc ce qu'il faut retenir c'est qu'une onde électromagnétique n'aura aucun effet sur l'électron et l'atome si elle n'a pas la bonne fréquence. Pour simplifier, on peut voir ça comme un message radio que l'on peut entendre uniquement si notre radio est réglée sur la bonne fréquence. En réalité c'est exactement le même effet commun qu'on appelle la résonance. Un atome ou une molécule ne pourra absorber ou émettre des ondes avec seulement certaines fréquences précises. Ionisation La question qu'on peut désormais se poser, c'est ce qu'il se passe lorsque l'on fourni trop d'énergie à un électron. Très simplement : si plus l'énergie de l'électron est haute, plus il s'éloigne du centre, il y a un niveau d'énergie à partir duquel l'électron sera trop loin du centre pour rester en rotation. L'électron s'échappe alors de l'atome ou de la molécule, on parle d'électron libre, contrairement à l'électron lié (quand il tourne autour du noyau). L'atome, ou la molécule, qui avait le même nombre de charges positives que de charges négative (électroniquement neutre), perd alors une charge négative. Il y a alors plus de charges positives que de charges négatives, et donc l'atome est globalement chargé positivement : l'atome est devenu un ion. (Inversement on peut avoir un électron qui vient se rajouter en plus, il a donc une charge négative en trop, mais ce cas de figure ne nous intéresse pas ici). C'est le phénomène d'ionisation. Bien sur, si l'on fourni à l'atome une énergie insuffisante, il ne sera pas ionisé. Il faut donc une énergie au moins supérieure à l'énergie d'ionisation de l'atome pour libérer un électron. (Cette énergie limite change selon si l'électron est le premier à devenir libre, ou le deuxième etc... Dit autrement, l'énergie nécessaire pour libérer deux électrons ne sera pas la même que pour n'en libérer qu'un, et encore différente que pour libérer le troisième.) Conséquences et impacts Première conclusion : On peut donc avoir tendance à penser que plus le rayonnement est énergétique, plus il aura un impact sur la matière (l'ionisation ou l'excitation des molécules peuvent changer par exemple les propriétés physico-chimique de ces molécules) ; mais c'est plus subtil que ça. A part donc, si on va chercher dans les très hautes énergies de rayonnement (rayons gamma, rayons X), on peut dire que l'énergie du rayonnement n'est pas directement reliée à l'impact de celui-ci, et même plus, un rayonnement n'aura d'impact que sur certains atomes et molécules. Maintenant comprenons les conséquences de ces phénomènes. Pour l'excitation : En général, sauf exceptions, l'atome ou la molécule est excité, gagne donc de l'énergie, et libère cette énergie presque aussitôt car les atomes vont toujours chercher à revenir dans leur état fondamental, c'est-à-dire l'état dans lequel ils ont le moins d'énergie. Ils peuvent libérer cette énergie sous forme de rayonnement (les molécules qui font les pigments colorés par exemple), ou sous forme de chaleur (principe du micro-onde). Il est très rare que les molécules demeurent dans un état excité, il faut des conditions spécifiques pour cela, c'est ce qui est fait par exemple dans les Lasers. Pour l'ionisation : quant à elle, permet par exemple le déclenchement de certaines réactions chimiques, car l'ionisation des molécules en particulier consiste à briser les liens qui lient les atomes entre eux au sein de la molécule, et ceci est le principe même d'une réaction chimique. Encore une fois, l'ionisation requiert bien plus d'énergie que la simple excitation, c'est pourquoi elle nécessite des ondes assez énergétiques comme les Ultra-Violets (et vous comprenez alors pourquoi les UV font bronzer). En cas d'ionisation totale, c'est-à-dire que tous les électrons se sont libérés (et on a vu que ça demandait d'autant plus d'énergie), alors la matière est devenue plasma. Enfin dernière chose à bien assimiler : on a vu que les bonnes quantités d'énergies, et donc les bonnes fréquences sont nécessaires pour avoir un impact sur différents atomes et molécules. Cependant c'est l'intensité de ces fréquences et le temps qui va donner plus ou moins d'impact. En fait, tout est question d'augmenter la probabilité d'interaction rayonnement-matière. Plus on attend longtemps plus les interactions vont se réaliser, et de même plus le rayonnement (à une fréquence donnée donc) est intense, plus les interactions vont s'effectuer. On comprend en plus pourquoi on dit qu'il ne faut pas s'exposer trop longtemps au UV. Ou encore pourquoi une seule radiographie médicale n'a pas d'effet, alors que les rayons X sont pourtant très énergétiques ; c'est que vous êtes exposés peu de temps a du rayonnement suffisamment peu intense ; et c'est pourquoi l'opérateur de la machine à rayons X (qui passe donc ses journées à faire des radios) doit être protégé. A la manière donc des produits, liquides et aliments : c'est la dose qui fait le poison ; ici c'est la dose qui fait l'impact. Conclusion Pour qu'une onde électromagnétique aie un impact sur la matière, il faut qu'elle aie premièrement la fréquence adéquate, et deuxièmement que l'onde soit suffisamment intense. A titre de rappel : une onde électromagnétique désigne aussi bien la lumière visible, que les ondes radios, les micros-ondes de votre four, ou les UV du soleil. Alors la bonne chose à faire quand on vous mentionne "une onde" est : déjà de vous demander de quelle type est cette onde si elle est électromagnétique de quel domaine de fréquence et enfin de vous demander de quelle intensité et de quel type d'exposition on parle.
  3. Voilou, si vous pouvez partager vos liens débunk, zet', fact-cheking et cie, avec une courte description, ça serait cool. Je les réunirais au fil du temps en catégories dans ce message. Histoire : https://scientos.wordpress.com/ En créant le site Scientos, moi, le Sapeur, je ne désire que dénoncer et pointer du doigt la propagande et la désinformation issue des milieux complotistes ou semi-complotistes, qui se répandent exponentiellement comme une maladie et qui gangrènent chaque jour un peu plus le grand public et la culture populaire. Sectes : http://info-sectes.org/ Site d'information sur les sectes et les mouvements de pensée Médecine : Collectif Fakemed : Blog : http://fakemedecine.blogspot.com Twitter : https://twitter.com/fakemedecine?lang=fr Nous sommes un groupe de professionnels de santé aux spécialités et aux modes d'exercice très divers. Notre point commun est de penser que la médecine doit adapter ses pratiques aux faits, et de chercher à diffuser ces faits en la vulgarisant via des vidéos Youtube, des blogs, ou encore par le biais des réseaux sociaux. Elections Européennes : https://www.mozilla.org/en-US/firefox/election/ Nouvelles en ligne, médias sociaux, publicités... L'Internet a changé les élections. Préparez-vous à voter aux élections du Parlement européen avec des outils qui vous aideront à en tirer le meilleur parti.
  4. Playlist youtube pour défendre la vaccination Ci-dessous une liste de vidéos concernant la vaccination. Bon visionnage.
  5. Maxther

    Les Ondes - Généralités

    Généralités et notions de base sur les ondes On entend évidemment beaucoup parler des ondes, de l'électromagnétisme, de l'ionisation, des radiations etc... Alors qu'est-ce que c'est que tout cela ? On verra dans cet article les notions de base à avoir sur ce domaine de la physique, pour pouvoir mieux comprendre les autres articles de ce site qui traitent de ce qui se dit sur les ondes, leur nature, leur bienfaits, leur reproches. Une onde qu'est-ce que c'est ? L'univers et l'espace sont décris par des grandeurs physiques. Par exemple la pièce d'une maison peut-être décrite par la température qui y règne. De manière générale on peut mesurer la température d'un gaz, la pression d'un gaz, la valeur d'une force etc... Lorsque l'on change la valeur d'une de ces grandeurs, on parle de perturbation. Par exemple, l'eau est plate et je lance un caillou dedans, je viens perturber la surface de l'eau. A l'endroit où le cailloux tombe, la pression de l'eau varie, son altitude aussi etc... Une perturbation c'est un apport brusque d'énergie pour faire varier les grandeurs. Lorsqu'une grandeur physique est perturbée, cette perturbation se propage de proche en proche. Pour comprendre on peut utiliser les dominos, au départ ils sont rangés bien droit de manière stable, puis on va faire tomber le premier, ce qui fait tomber le deuxième et ainsi de suite. Dans cet exemple la perturbation c'est le fait de faire tomber le premier domino, et cette perturbation se propage, jusqu'à ce qu'il n'y ai plus de domino. Alors voilà : prenons une grandeur physique, augmentons ou diminuons sa valeur d'un coup, voilà, nous avons une onde. Une onde c'est la propagation dans l'espace d'une perturbation. Une onde c'est un transport d'énergie. Exemple : Prenons l'air que nous respirons, augmentons un peu sa pression à un endroit donné, et cette surpression va se transmettre dans l'air de proche en proche. Nous avons un son, ou "onde sonore" ou encore "onde de pression". Prenons le champ électrique ambiant (voir partie 2), augmentons-le d'un coup, la variation va entraîner une variation de champ magnétique, et ces deux variations vont se propager dans l'espace. Voilà, nous avons une onde électromagnétique. Prenons un endroit vide dans l'espace, faisons entrer en collisions deux trous noirs, la gravité à l'endroit de la collision va devenir colossale d'un coup, et cette perturbation va se répandre dans l'espace comme une vague à la surface de l'eau. Voilà, nous avons une onde gravitationnelle. Les champs de force - Champs électromagnétiques Il y a 4 forces fondamentales dans l'univers : La force nucléaire faible qui est responsable de la radioactivité. La force nucléaire forte qui maintient soudé le noyau des atomes. La force électro-magnétique, qui maintient la cohésion de l'atome, qui maintient la cohésion des molécules, qui maintient la cohésion des objets solides, qui fait que l'on peut marcher que l'on peut pousser ou agripper des choses, elle permet l'existence de nos circuits électriques etc... etc... La force gravitationnelle, qui fait que l'on retombe quand on saute, qui fait que la lune tourne autour de la terre, elle fabrique les étoiles, les galaxies et régit l'univers dans son immensité. La force magnétique est en réalité l'effet de la variation de la force électrique. Cela n'empêche pas de parler de force magnétique et de force électrique comme deux forces distinctes. Lorsqu'on parle de force on peut interpréter la chose de deux manières : Soit en parlant d'interaction. Par exemple l'interaction entre deux aimants : l'un est attiré par l'autre et l'autre est attiré par le premier. Soit en parlant de champ de force. Le premier aimant génère un champ magnétique, et le deuxième réagit à ce champ magnétique, ou l'inverse suivant ce que l'on veut étudier. La notion de champ de force est pratique théoriquement car elle permet de traiter le cas d'un seul objet qui est alors plongé dans un champ de force. Par exemple pour étudier le saut d'un parachutiste, on ne va pas considérer l'interaction entre le parachutiste et la Terre, on va plutôt voir le problème comme le parachutiste qui est soumis au champ gravitationnel de la Terre. C'est une histoire de point de vue. Un champ est représenté par un vecteur : prenons une planète, en chaque endroit de l'espace on peut mesurer le champ gravitationnel il aura une certaine valeur, et une certaine direction ; ici il sera dirigé vers le centre de la planète. S'il y a deux planètes, les champs générés par les deux planètes s'additionnent. Ainsi en tout endroit de l'espace et à tout instant on peut mesurer un champ gravitationnel, un champ électrique, un champ magnétique, etc... et leur direction, tout comme à n'importe quel endroit d'un gaz on peut mesurer sa température ou sa pression (on parle par exemple de "champ de température"), ou comme sur l'ensemble d'un pays on peut mesurer la force et la direction du vent. Pour revenir à la fin de la première partie, si l'on prend un proton (qui a une certaine charge électrique), on se place à un endroit on peut mesurer le champ électrique généré par ce proton. Ensuite on déplace le proton, si le proton est plus loin de nous le champ électrique qu'on va mesurer va diminuer. Si on bouge ce proton brusquement la perturbation du champ va être forte, et va se propager, on a une onde électrique. C'est exactement le principe des antennes, on a un fil conducteur, dans lequel on fait circuler des charges électriques dans un sens, puis dans l'autre en alternant rapidement (courant alternatif), ce courant alternatif génère une onde électrique. Fréquence et Énergie Reprenons notre proton. A un mètre de lui il génère un certain champ électrique, si on l'éloigne d'un mètre son champ va diminuer, ok. Maintenant si on l'éloigne lentement, son champ va diminuer lentement et si on l'éloigne vite son champ va diminuer rapidement. Pour avoir une belle onde électrique avec des vaguelettes il faut faire comme dans une antenne et l'éloigner, puis le rapprocher, puis l'éloigner etc... Plus on fait ça vite plus notre fréquence augmente, plus la fréquence de l'onde augmente. Parallèlement plus on fait cela vite plus on dépense de l'énergie. On comprend alors pourquoi plus une onde à une fréquence élevée, plus l'énergie qu'elle transporte (l'énergie de la perturbation) est grande. C'est quelque chose de très visible avec un moteur de voiture. Pour comprendre rappelons rapidement les propriétés du son : le son c'est donc une onde de pression dans l'air, une variation,ou encore une vibration de l'air. Plus la fréquence de vibration est rapide, plus le son est aigu. On a tous ce son en tête d'un moteur qui monte dans les tours lorsque la voiture accélère. Plus le moteur fournis de l'énergie, plus il tourne vite, plus les variations de pression (des gaz) sont rapides au sein du moteur et plus le son produit est aigu (haute fréquence). Pour les ondes électromagnétiques (ou rayonnements électromagnétiques) c'est pareil. Reprenons notre antenne, qui on le rappelle va faire augmenter, puis diminuer, puis augmenter etc... le champ électrique. L'énergie de l'onde électromagnétique générée par l'antenne dépend pareillement de la fréquence de l'antenne. Si l'antenne fait varier le champ "lentement" (plusieurs milliers de fois par seconde tout de même) alors l'onde n'est pas très énergétique, on a des ondes radio. Si au contraire l'antenne fait varier le champ de plus en plus vite (donc sa fréquence augmente), l'énergie rayonnée va augmenter d'autant, en passant par différentes gammes de fréquences : les radios, les micros ondes, les infrarouges, etc... Si l'antenne se met à faire varier le champ 375 mille milliards de fois par seconde, l'onde se met à être visible : on a de la lumière. Au delà de 750 mille milliards de variations par seconde, on sort du domaine de fréquence de la lumière visible. (Précision : on ne possède pas des antennes aussi performantes, la lumière d'une ampoule est une onde électromagnétique, mais elle est générée de manière indirecte par d'autres procédés). Pour information, les différentes gammes d'énergies pour les ondes électromagnétiques sont, de la moins énergétique à la plus énergétique : Les ondes radios, les micro-ondes, les infrarouges, la lumière, les ultraviolets, les rayons X, les rayons gamma. L'énergie d'une onde est proportionnelle à sa fréquence. La résonance C'est une notion extrêmement importante pour comprendre les effets des ondes. Une onde transporte de l'énergie, l'énergie de la perturbation qui l'a fait naître ; mais elle peut aussi transmettre de l'énergie. Prenons deux exemples : Nous pouvons entendre les sons, car quand l'onde sonore arrive à notre tympan, la surpression fait bouger le tympan dans un sens, et la sous-pression qui s'en suit le fait bouger dans l'autre sens, et ainsi de suite au fil des variations de pression engendrée par l'onde. L'onde est entrain de transmettre son énergie au tympan en le faisant bouger. Autre exemple quand une onde électromagnétique arrive sur une charge électrique comme un électron, le champ électrique oscillant fait bouger l'électron dans un sens puis dans l'autre. En fait c'est le phénomène inverse de ce qui a créé l'onde : le son c'est une membrane que l'on fait vibrer (haut-parleur) et l'onde va faire vibrer une autre membrane (tympan) ; les ondes électromagnétiques ce sont des charges électriques que l'on fait vibrer (antenne) et l'onde va faire vibrer d'autres charges électriques (récepteur radio). Cependant l'énergie de l'onde peut être plus ou moins efficacement transmise à l'objet, et cela dépend de la fréquence de l'onde. C'est le principe de résonance. Il est très facile à comprendre : lorsque vous poussez un enfant sur une balançoire dans un parc, il faut pousser la balançoire au moment où elle est sur le point de repartir. Si vous agitez vos bras trop ou pas assez vite, vous allez manquer la balançoire. Dit autrement il faut que vous soyez synchronisé avec le mouvement de la balançoire. Cette synchronisation entre la fréquence du mouvement de la balançoire et la fréquence de vos bras permet tout simplement de maximiser l'énergie que vous transmettez à la balançoire. Pour les ondes, on l'a vu, parler d'énergie ou de fréquence revient au même. Pour qu'une onde puisse transmettre efficacement son énergie, elle faut qu'elle ai suffisamment d'énergie (fréquence suffisamment haute), mais aussi il faut pas qu'elle n'en ai trop (fréquence trop haute) ! Par contre si l'onde est beaucoup trop énergétique, l'objet auquel on veut transmettre l'énergie peut se casser (comme une molécule qui peut se rompre en présence d'une onde électromagnétique de trop haute fréquence). Ce phénomène est très important pour comprendre le principe d'ionisation par exemple. Pour qu'une onde ai un effet, il faut qu'elle ai une fréquence bien particulière, ni trop haute, ni trop basse. Conclusion La physique ondulatoire est un domaine très vaste. On l'a vu, cela peut toucher n'importe quelle grandeur physique mesurable. Néanmoins, les ondes électromagnétiques occupent une place à part, notamment concernant les phénomènes d'ionisation. Ceci se comprend car nous, et tout ce qui nous entoure, sommes composés de molécules qui sont composés d'atomes qui sont composés de charges électriques. L'électromagnétisme régit l'entièreté de la matière elle-même.
  6. Table des Matières Introduction PARTIE I : Les Fondements PARTIE II : La Logique PARTIE III : Le Raisonnement PARTIE IV : Exemples d'Application Introduction On part sur quelque chose de on-ne-peut-plus fondamental : La Vérité. Alors, plongée dans la mathématique et la logique fondamentale. Inutile d'accrocher sa ceinture, on part du postulat que vous êtes un être humain, avec un cerveau, donc que vous savez raisonner, c'est l'unique prérequis, aucune connaissance à avoir ! Il faut juste être concentré. On va retracer ici les différentes méthodes de raisonnement et les notions de logique, le tout illustré par des exemples simples. Ces exemples pourront paraître évidents mais il est important de garder à l'esprit que tout ce qui sera présenté est valable partout. Pour cela, la dernière partie présentera des exemples plus concrets, où la logique est plus dissimulée, et où il est beaucoup plus fréquent de faire des fautes de raisonnement appelées raisonnements fallacieux (raisonnements qui paraissent corrects mais qui ne le sont pas). Bonne lecture.
  7. Pour tous ceux qui veulent plus d'information sur l'acier utilisé pour le WTC, ainsi que des preuves que les poutres en acier ont fondu ce qui à entraîne la chute des deux tours, voici un site fait pour vous : https://twintowerstpedotcom.wordpress.com/ Et pour les plus curieux je rajoute RDM Lemans[1]: http://iut.univ-lemans.fr/ydlogi/rdm_version_7.html Un doc sur la résistance de l'acier a la température : https://be-steel.eu/fr/articles/resistance-feu-acier-leger Par @Dorylis Kaéna Footnotes ^ RDM Lemans est un logiciel pour les calculs de flexion des poutres il est utiliser pour l'apprentissage de de la Résistance Des Matériaux.
  8. Acermendax de la Tronche en Biais parlant du biais du survivant
×
×
  • Créer...

Information importante

Veuillez accepter les Conditions d’utilisation de notre forum avant son utilisation