Home | Aktuelles |
Multimedia |
Service |
Themenarchiv |
Community |
Home>Kultur | Schriftgröße: klein mittel groß |
13. 02. 2015 | Druckversion | Artikel versenden| Kontakt |
Werden Maschinen bald intelligenter sein als der Mensch und die Kontrolle über die Menschheit erlangen oder sie gar vernichten? In einem offenen Brief warnen einige der klügsten Köpfe unserer Zeit vor den Gefahren der künstlichen Intelligenz.
Mehrere Persönlichkeiten, die zu den "intelligentesten Menschen" der Welt gezählt werden, haben Angst, dass die Erforschung der künstlichen Intelligenz außer Kontrolle geraten könnte. Einer von ihnen ist Bill Gates. In einem Interview sagte der Microsoft-Gründer: "Falls wir die Roboter sehr gut kontrollieren können, kommen sie uns zugute. Aber wenn die Roboter in einigen Jahren intelligent genug sind, können sie auch eine große Bedrohung für die Menschheit darstellen."
Bereits vor diesem Interview haben Dutzende von renommierten Wissenschaftlern, Unternehmern und Investoren einen gemeinsamen Brief veröffentlicht, in dem sie die Öffentlichkeit vor den Gefahren und dem Einfluss von künstlicher Intelligenz warnen. Der Brief wurde auch vom britischen Wissenschaftler Stephen Hawking und vom amerikanischen "Tech-Geek" Elon Musk unterzeichnet. Musk hält außer Kontrolle geratene künstliche Intelligenz sogar für noch gefährlicher als Atomwaffen.
In seinem Werk "Menschheit 2.0. Die Singularität naht" (The Singularity Is Near) schreibt der US-amerikanische Erfinder, Futurist und Leiter der technischen Entwicklung bei Google, Raymond Kurzweil, dass im Jahr 2029 ein Computer oder eine "maschinelle Intelligenz" den Turing-Test bestehen wird. Für das Jahr 2045 prognostiziert Kurzweil eine exponentielle Zunahme der informationstechnologischen Entwicklung: Eine Singularität, die eine künstliche Intelligenz ermöglicht, mit welcher die Menschheit Unsterblichkeit erlangen kann.
Quelle: people.cn
Druckversion | Artikel versenden | Kommentar | Leserbrief | zu Favoriten hinzufügen | Korrektur
Kommentar schreiben |
Kommentare |
Keine Kommentare.
|
mehr |