26.01.2012, 15:37
Ich hab mir inzwischen einige Trailer angesehen und frag mich langsam was zur Zeit mit Hollywood los ist. Die Hälfte der Filme handeln von zerstörten Familienglück, entweder durch Fremdgehen, Todesfälle, Streit, etc... mal ganz davon abgesehen dass das nicht allzu originell wirkt, ist das nicht gerade das weswegen ich mir Filme ansehen will. Ne kaputte Familie hab ich selber, betrogen wurde ich auch schon oft genug und wenn ich mich deprimieren will brauch ich nur auf meinen Gehaltsscheck schauen. Was ist aus der Zeit geworden als Filme noch Spaß gemacht haben und nicht dazu geführt haben dass man sich nach dem Abspann am Liebsten eine Kugel in den Kopf jagen will?