Giáo sư Stephen Hawking cho rằng nguyên nhân của thảm họa nghiêm trọng này đều do mặt trái của những thành tựu khoa học và kỹ thuật của con người.
Stephen Hawking là nhà vật lý lý thuyết, vũ trụ học - tác giả viết sách khoa học thường thức người Anh. Ông hiện là Giám đốc nghiên cứu tại Trung tâm Vũ trụ học lý thuyết thuộc Đại học Cambridge. Ông được biết đến với công trình nổi tiếng Lược sử thời gian và Thuyết vạn vật trong thế kỷ 21. Đáng nói hơn, Giáo sư Hawking đạt được những thành tựu khoa học to lớn như vậy trong hoàn cảnh mang trong mình căn bệnh về thần kinh vận động liên quan tới hội chứng teo cơ bên. Hawking hầu như bị liệt toàn thân và phải nói chuyện với mọi người qua một thiết bị hỗ trợ giọng nói.
|
Thảm họa của Trái đất sẽ do chính con người gây ra? |
“Hầu hết các mối đe dọa mà con người phải đối mặt đến từ chính các tiến bộ khoa học và kỹ thuật của nhân loại. Chúng ta sẽ gặp phải với những mối đe dọa nghiêm trọng như chiến tranh hạt nhân, sự nóng lên toàn cầu hay các loại virus biến đổi gene. Mặc dù khả năng xảy ra thảm họa trong ngắn hạn khá thấp, nhưng nguy cơ đó sẽ tăng dần lên theo thời gian và trở thành gần như chắc chắn trong 1.000 hay 10.000 năm nữa” - Giáo sư Hawking cho biết trên Radio Times.
Tuy nhiên, nhà khoa học này cho rằng nhân loại sẽ không vì thảm họa trên mà bị diệt vong bởi lúc đó, con người đã sinh sôi nảy nở ở nhiều nơi trong hệ Mặt trời.
“Đến thời điểm thảm họa xảy ra trên Trái đất, con người đã định cư ở nhiều ngôi sao, nhiều hành tinh trong vũ trụ. Thế nên thảm họa đó có lẽ sẽ không dẫn đến sự tuyệt diệt của loài người” - Giáo sư Stephen Hawking nói.
Tuy nhiên, Giáo sư cũng nhấn mạnh rằng con người không có khả năng di cư sang hành tinh khác trong vòng 100 năm tới, vì vậy cần hết sức thận trọng để không có điều kinh hoàng nào xảy ra với Trái đất trong khoảng thời gian này.
Trước đây, Giáo sư Hawking đã nhiều lần cảnh báo về mối nguy hiểm của trí thông minh nhân tạo đối với nhân loại và thường xuyên kêu gọi lập ra các thỏa thuận toàn cần để ngăn chặn viễn cảnh robot thoát ra khỏi tầm kiểm soát của con người.
Giờ đây, thêm một lần nữa ông lên tiếng về nguy cơ này này dù đã tỏ ra lạc quan hơn: “Chúng ta không thể dừng được quá trình này hay đảo ngược nó. Vì vậy, loài người phải nhận thức được mối nguy hiểm và kiểm soát được trí thông minh nhân tạo. Tôi là một người lạc quan, tôi hoàn toàn tin tưởng chúng ta có thể làm được điều này”.
Theo Ngày Nay