Was bedeutet Reiki? Das Wort „Reiki“ ist ein japanisches Wort und bedeutet „ universale Lebensenergie “. Reiki