Diffraktion genom kristall
Uppgiften lyder:
Antag att vi har en kristall med avståndet 1,30 * 10-10 m mellan
atomlagren. Hur stor spänning ska vi accelerera elektroner med om vi vill
att det ska uppstå diffraktion när de passerar kristallen?
Först tänkte jag använda mig av Braggs lagMen sedan kom jag på att diffraktion uppstår när våglängden är lika stor som avståndet mellan kristallens atomer (1,30 * 10-10 m) vilket innebär att jag kan räkna ut spänningen genom att använda formeln för bromsstrålningens kortaste våglängd λmin=hc/eU
Det känns som att jag tänker lite fel. Kan man tänka så här?
Det är snarare frågan som är hemskt dåligt formulerat. Grammatiskt skulle man tro att det handlar om elektroner som passerar kristallen men det måste vara ett syftningsfel.
Ja, använd Braggs lag och formeln för gränsvåglängden.
Håller med, formuleringen är lite diffus.
Jag förstår inte riktigt, ska jag använda båda formlerna? Vad har braggs lag för syfte i uppgiften? Jag undrar om man bara kan använda sig av formeln för bromsstrålningens kortaste våglängd.
Försök bara, då ska du se!
Jag fick att U= 1,24 * 10-6 V, är det rimligt?
Pluggakontinuerligt skrev:Jag fick att U= 1,24 * 10-6 V, är det rimligt?
Självklart inte.