Anonym
Anonym fragte in Gesellschaft & KulturMultikulturBehinderte · vor 9 Monaten

Was bezeichnet man in Deutschland als "rechte Gewalt"?

5 Antworten

Bewertung
  • Anonym
    vor 9 Monaten
    Beste Antwort

    Wenn Rechts bedeutet, das Menschen im Osten

    + sich

    + gegen kriminelle Ausländer wehren

    + gegen terroristische Ausländer wehren

    + gegen das verdrecken ihrer Städte von Ausländern wehren (wie es im Westen der Fall ist)

    + gegen kriminelle Clans wehren

    Dann nennt mich RECHTS !!!!

  • jossip
    Lv 7
    vor 9 Monaten

    Alles, was vom politisch korrekten Mainstream abweicht, wird von Linkinnen und Grüninnen und deren verpeilten Gesinnungsgenossen als ""rechte Gewalt"" verunglimpft.

    • Astraea
      Lv 6
      vor 9 MonatenMelden

      DH.Jossip

      > Comona ist DER Schwachmat mit dem Mädels-AKA

    • Anmelden, um etwas auf Antworten zu erwidern
  • vor 9 Monaten

    Rechte Gewalt ist Gewalt, die von Rechten ausgeübt wird. Sie richtet sich typischerweise gegen Alles und Jeden, das/der kein rechtes Weltbild hat, da Toleranz nicht zu einer rechten Einstellung passt.

    • vor 9 MonatenMelden

      DH!

    • Anmelden, um etwas auf Antworten zu erwidern
  • Anonym
    vor 8 Monaten

    Im Grunde alles, was den Machthabern sowie den Grünen und Linken nicht in den Kram passt.

    • Anmelden, um etwas auf Antworten zu erwidern
  • Wie finden Sie die Antworten? Melden Sie sich an, um über die Antwort abzustimmen.
  • Anonym
    vor 9 Monaten

    Gewalt, die von Rechten ausgeübt wird. Tritt vorwiegend in Ostdeutschland auf. Also da, wo es prozentual die wenigsten Ausländer gibt.

Haben Sie noch Fragen? Jetzt beantworten lassen.