J'ai été en Allemagne, et bordel cette atmosphère particulièrement anxiogène qu'il y a en France m'est revenue en pleine tronche quand je suis rentré. Les gens sont hyper agressifs, j'ai vu des automobilistes en venir presque aux mains, j'ai entendu quelqu'un crier "salope" dans la rue, j'avais l'impression que les gens voulaient en découdre avec les autres passants à tous les coins de rue. Je suis rentré chez moi, j'ai eu des embrouilles avec des voisins pour des choses particulièrement bancales. J'ai reparlé à des amis, je me suis rendu compte à quel point les gens ici sont particulièrement hautains, individualistes, ne se prennent pas pour de la merde et ont un humour moqueur très cynique. J'ai appelé ma dentiste pour une urgence dentaire, elle a été antipathique avec moi et m'a quasiment dit d'aller me faire foutre, de me démerder. J'ai reparlé à une connaissance déprimée qui avait démissionné à cause de problèmes avec son employeur, et je me suis rendu compte à quel point le harcèlement moral est particulièrement répandu dans ce pays comme par exemple au travail. Franchement, j'ai l'impression que la France, c'est le pays où tu dois te confronter avec les autres sans arrêt, où tout le monde est odieux avec tout le monde. Je regrette très sincèrement d'être revenu d'Allemagne et je compte me rebarrer très vite...