“Der Arztberuf ist der Beruf mit dem höchsten Ansehen in Deutschland”, laut dem aktuellen Bericht des Allensbach-Instituts (siehe Deutsches Ärzteblatt). Und das schon seit 1966. Auf Platz 2 und 3 folgen Krankenschwestern (Pfleger?) und Lehrer. Abgeschlagen sind Politiker und Banker.
In den letzten 45 Jahren hat sich viel getan, doch die Dienstleister der Gesundheit sind nach wie vor beliebt und angesehen. Warum? Weil die Gesundheit das höchste Gut ist?
Wie seht ihr das? Genießen Ärzte bei euch ebenfalls ein hohes Ansehen? Oder ist das althergebrachte Image durch Pfuschen, Vertuschen und Jammern doch etwas angekratzt?
Artikel von: Monsterdoc