So schlecht denken die Deutschen über ihre Unternehmen

Die Deutschen verlieren immer mehr Vertrauen in die Wirtschaftswelt. Nur noch jeder Vierte hält Unternehmen für verantwortungsbewusst, zeigt eine aktuelle Umfrage. Experten sehen den gesellschaftlichen Zusammenhalt in Gefahr.

Dieser Beitrag wurde unter Wirtschaft ( Quelle Welt Online ) veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar