Bragg's Law
La loi de Bragg décrit la diffraction des rayons X par un réseau cristallin:
nλ =2d sin θ
où:
* n est l'ordre de diffraction (1, 2, 3, etc.)
* λ est la longueur d'onde des rayons X (en mètres)
* d est l'espacement entre les couches atomiques (en mètres)
* θ est l'angle de diffraction (en radians)
résoudre le problème
1. Convertir les unités:
* Longueur d'onde (λ):0,090 nm =0,090 x 10⁻⁹ m
* Angle (θ):15,2 degrés =15,2 * (π / 180) Radians
2. Branchez les valeurs sur la loi de Bragg:
1 * (0,090 x 10⁻⁹ m) =2 * d * sin (15,2 * (π / 180))
3. Résoudre pour D:
d =(0,090 x 10⁻⁹ m) / (2 * sin (15,2 * (π / 180)))
D ≈ 1,72 x 10⁻¹⁰ M
Réponse: La distance entre les couches atomiques responsables de la diffraction du premier ordre est d'environ 1,72 mètres x 10⁻¹⁰ (ou 0,172 nm).