Eine Krankenversicherung (KV) ist in Deutschland Pflicht. Sie erstattet dir voll oder teilweise die Kosten für ärztliche Behandlungen, wenn du krank bist oder einen Unfall hattest. Aber auch für Vorsorgeuntersuchungen oder die Behandlungen während und nach einer Schwangerschaft kommt die Krankenversicherung auf. In Deutschland gibt es zum einen die gesetzliche Krankenversicherung (GKV) und zum anderen die private Krankenversicherung (PKV).