Sollte man erst Deutschland kennenlernen, ehe man ins Ausland reist?
Sollte man erst Deutschland kennenlernen, ehe man ins Ausland reist?
Machen Sie doch auch mal in Deutschland Urlaub, raten Wirtschaftsminister gern. Hast du manchmal das Gefühl, du solltest unser Land besser kennenlernen?
peter-wagner
Teile diesen Beitrag mit Anderen:
Im Stillen bin ich ein Fan von Michael Glos, dem immer etwas topfig dreinschauenden CSU-Menschen, der vor Karl-Theodor zu Guttenberg und Rainer Brüderle Wirtschaftsminister war. Wenn er die Deutschen dazu aufforderte, doch bittschön auch mal in Deutschland Urlaub zu machen, geschah das mit einem schönen Maß an Authentizität. Über die Wirkung solcher Aufrufe darf man streiten, das geht in Ordnung. Manchmal machen sie mich ja sogar nachdenklich, weil ich überlege, ob es eigentlich so eine Art Pflicht gibt, erst das eigene Land kennenzulernen, ehe man sich ins Ausland begibt? Na gut, das Wort "Pflicht" ist schön übertrieben. Aber ich erwische mich immer wieder bei einer Art schlechtem Gewissen, wenn ich im Ausland durch Landschaften und Strassen streife. Oft entsteht erst dort eine rechte Lust, nach meiner Rückkehr die putzigen Städte an der romantischen Straße und die so supergrünen Ecken in der Eiffel kennenzulernen. Wenn ich dann daheim bin, ist der Impuls ratzefutz kaputt und ich kann meine Sehnsucht nach deutscher Heimeligkeit rückblickend als eine Form von Heimweh definieren. Wie geht es dir da mit Deutschland? Hast du auch manchmal das Gefühl, unsere Ecken besser kennenlernen zu müssen, um dann vielleicht im Ausland auch echter von zu Hause erzählen zu können? Und kannst du mir eine dreipunktige Liste machen, welche Orte man in Deutschland ganz unbedingt gesehen haben muss? Dann würde ich mir die für das kommende Jahr vornehmen.