Qu'est-ce que la Loi d'Ohm ?
La loi d'Ohm, découverte par le physicien allemand Georg Simon Ohm en 1827, est la relation la plus fondamentale en ingénierie électrique. Elle établit que le courant à travers un conducteur entre deux points est directement proportionnel à la tension entre ces deux points, exprimée par V = IR. Ici, V est la tension mesurée en volts (V), I est le courant en ampères (A) et R est la résistance en ohms (Ω). Cette équation simple forme la base de toute analyse et conception de circuits.
La Relation de Puissance
La puissance électrique (P), mesurée en watts (W), décrit le taux de transfert d'énergie dans un circuit. Trois formules équivalentes relient la puissance à la tension, au courant et à la résistance : P = V × I donne la puissance à partir de la tension et du courant ; P = I² × R donne la puissance à partir du courant et de la résistance ; P = V² / R donne la puissance à partir de la tension et de la résistance.
Applications Pratiques
La loi d'Ohm est utilisée quotidiennement dans la conception de circuits, du choix des valeurs de résistances pour les LED au dimensionnement des sections de câbles pour le câblage des bâtiments. Les ingénieurs en électronique l'utilisent pour calculer la consommation de courant, les chutes de tension aux bornes des composants et la dissipation de puissance. Les électriciens s'y fient pour les calculs de charge et la conformité aux normes de sécurité.
Limitations et Considérations Réelles
La loi d'Ohm suppose une relation linéaire (ohmique) entre tension et courant, qui est valable pour la plupart des conducteurs métalliques à température constante. Les dispositifs non ohmiques comme les diodes, transistors et thermistances ne suivent pas cette relation simple. Les changements de température affectent la résistance dans la plupart des matériaux. Dans les circuits CA, l'impédance remplace la résistance et inclut les effets de la capacitance et de l'inductance.





