Enfin plus personne pour la faire vivre, en tout cas chez le Français moyen. Je suis en école d'ingé, tout le monde en a rien à foutre de la France, personne n'a une vague idée de ce que c'est qu'être Français. Pour la plupart la France c'est juste un territoire. Qu'est ce qui les différencie d'un Allemand ? Eux mêmes ne le savent pas. Notre monde n'est plus du tout spirituel