Darkhorizon
Sehr aktives Mitglied
Krieg bringt Geld? Ja Deutschland war nach seinem Krieg ja soo reich.
wie naiv kann mein sein dies mit deutschland zu vergleichen...seit bestehen der usa gibt es nur krieg...ausgehend von den usa...erst im land und dann weitete sich alles aus...bis jetzt noch...wer immer noch glaubt das zb. der irak deshalb angegriffen worden ist was sie uns weiß machten ist mehr als naiv...solche kriege die die usa führt hat mit nichts anderem zu tun als geld und macht!