Polizei und Ärzten vertrauen die Deutschen am meisten

Das Vertrauen der Deutschen in die meisten nicht politischen, aber gesellschaftlich relevanten Institutionen hat gegenüber dem Vorjahr zugenommen. Manager und Werbeagenturen schneiden hingegen schlecht ab.

Dieser Beitrag wurde unter Vermischtes ( Quelle Welt Online ) veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar