Home

Cosa significa Reiki ?
Vi lascio qui sotto il signficato da dizionario

reiki
re·ì·ki/
sostantivo maschile
Metodo di cura di origine giapponese, basato sulla convinzione che il corpo umano, attraverso vari livelli di attivazione e di concentrazione, possa incanalare e trasmettere l’energia cosmica, per poi utilizzarla a scopo terapeutico.