Ho un problema di cinematica che ho risolto, ma non ho le soluzioni.
Il testo dice: due persone A e B sono disposte lungo una strada rispettivamente a d(A)=10 km e a d{B)=30 m da un osservatore O fermo. All'istante t=0s A accende una luce e B emette un suono; sapendo che la velocità del suono nell'aria è v(s)=3,43•10^2 m/s e che la velocità della luce in aria è 2,99•10^8 m/s determinare la distanza percorsa dal suono prima di essere raggiunto dalla luce.
Io ho calcolato il tempo che la luce impiega per percorrere la distanza tra A e B, e cioè 10000-30=9970 m.
Dopodiché ho calcolato la distanza del suono , con la sua velocità, in quel lasso di tempo. Mi viene che la distanza percorsa dal suono prima di essere raggiunto dalla luce è di 0,01 metri. È giusto?