Il mare ci rende felici e fa bene alla salute: lo dice la scienza
Andare al mare è sempre un’esperienza rilassante, sia per il corpo che per la mente. Da oggi a dirlo è la scienza: a seguito di numerose ricerche è stato dimostrato che tutti coloro che frequentano con costanza le spiagge sono più felici e in salute.