Pallade Veneta - KI-Entwickler bei Google warnt eindringlich vor Gefahren

KI-Entwickler bei Google warnt eindringlich vor Gefahren


KI-Entwickler bei Google warnt eindringlich vor Gefahren
KI-Entwickler bei Google warnt eindringlich vor Gefahren / Foto: Kirill KUDRYAVTSEV - AFP/Archiv

Erneut hat ein prominenter Experte vor einer unkontrollierbaren Entwicklung besonders fortgeschrittener Künstlicher Intelligenz (KI) gewarnt. Geoffrey Hinton, führender KI-Entwickler beim Internetriesen Google, kündigte seinen Job und mahnte in der "New York Times" vom Montag, die Fortschritte im Feld der KI bedeuteten "ernste Risiken für die Gesellschaft und für die Menschheit". Er verwies unter anderem auf die Verbreitung von Falschnachrichten und eine Gefährdung von Arbeitsplätzen.

Textgröße ändern:

"Schauen Sie, wie es vor fünf Jahren war und wie es jetzt ist", sagte der manchmal "Godfather" der Künstlichen Intelligenz genannte Hinton der "NYT" mit Blick auf die rasante technologische Entwicklung. "Nehmen Sie die Differenz und projizieren Sie das nach vorne. Das ist beängstigend."

Der Wettbewerb bringe die Technologieunternehmen dazu, "in einem gefährlichen Tempo" immer neue KI zu entwickeln, sagte Hinton weiter. "Es ist schwierig sich vorzustellen, wie man die Bösen daran hindert, KI für böse Dinge einzusetzen."

Google und das Unternehmen OpenAI - das Startup, das den bekannten Chatbot ChatGPT entwickelt hat - hatten im vergangenen Jahr damit begonnen, lernende Systeme zu entwickeln, die dafür eine sehr viel größere Datenmenge als zuvor nutzen. Hinton sagte der "New York Times", diese Systeme würden aufgrund der schieren Datenmenge die menschliche Intelligenz in mancher Hinsicht in den Schatten stellen.

"Vielleicht ist was in diesen Systemen vorgeht tatsächlich viel besser als das, was im Gehirn vorgeht", sagte Hinton. Mit Blick auf Arbeitsplätze sagte der Experte, Künstliche Intelligenz könne die "Sklavenarbeit" überflüssig machen. "Aber sie könnte noch viel mehr wegnehmen."

Hinton warnte außerdem vor einer massiven Verbreitung von Falschinformationen im Internet. Bei Fotos, Videos und Texten könnten Menschen künftig nicht mehr in der Lage sein "zu wissen, was wahr ist".

Der Zeitung zufolge kündigte der Entwickler seinen Job bei Google im vergangenen Monat. Sein Chef im Unternehmen, Jeff Dean, erklärte in einer Mitteilung an US-Medien, er danke Hinton für seine Arbeit. Dean betonte, Google habe als eines der ersten Unternehmen Leitsätze für die KI-Anwendung veröffentlicht. Google fühle sich auch weiterhin "zu einem verantwortungsvollen Umgang mit KI verpflichtet". Google lerne beim Verständnis der Risiken beständig dazu - und führe gleichzeitig weiterhin "kühn" Neuerungen ein.

Erst Ende März hatten der Technologie-Milliardär Elon Musk und zahlreiche Experten eine Pause bei der Entwicklung von besonders fortgeschrittener Künstlicher Intelligenz gefordert. "KI-Systeme mit einer Intelligenz, die Menschen Konkurrenz macht, können große Risiken für Gesellschaft und Menschheit bergen", warnten auch sie. "Mächtige KI-Systeme sollten erst dann entwickelt werden, wenn wir zuversichtlich sind, dass ihre Auswirkungen positiv und ihre Risiken kontrollierbar sind."

In einem offenen Brief zu einem Stopp der KI-Entwicklung verwiesen die Unterzeichner auf einen Satz von OpenAI-Gründer Sam Altman, demzufolge irgendwann eine "unabhängige" Überprüfung notwendig sei, bevor mit dem Training neuer Systeme begonnen werde. "Wir stimmen zu", schreiben die Verfasser des Briefes. "Der Zeitpunkt ist jetzt."

Am Dienstag untersagte der südkoreanische Elektronikriese Samsung seinen Beschäftigten in den Sparten Mobilfunk und Haushaltsgeräte die Nutzung des Chatbots ChatGPT. Grund seien "Fälle von Missbrauch" des Chatbots, teilte Samsung Electronics mit. In einem Schreiben an die Beschäftigten, das der Nachrichtenagentur AFP vorlag, heißt es, Samsung arbeitete daran, Wege zu finden, um KI-gestützte Systeme "in einer sicheren Umgebung für Beschäftigte" zu nutzen, so dass Arbeitseffizienz und Bequemlichkeit gesteigert werden könnten.

T.Galgano--PV

Empfohlen

Prince Kohli, CEO von Sauce Labs, sagt, die 1-Billionen-Dollar-Branche für Softwarequalität habe seit 20 Jahren auf dem „falschen Ansatz aufgebaut"

Die Einführung der neuen „Sauce AI for Test Authoring" zielt auf den arbeitsintensivsten Teil der 22 % der IT-Budgets ab, die für die Qualitätssicherung aufgewendet werden, indem sie die Entwicklungsteams dazu bringt, von der Erstellung von Testfällen zur Definition von Geschäftsabsichten überzugehen, die die Plattform autonom in sich selbst verbessernde Testsuiten umwandelt.

Maxon steigt mit neuer Echtzeit-Archviz-Lösung offiziell in den AEC-Markt ein

Redshift for Vectorworks jetzt verfügbar, Autodesk Revit® Beta offen für Anmeldungen und Graphisoft Archicad kommt im Laufe des Jahres 2026. Maxon gibt einen tieferen Einblick in seinen End-to-End-3D-Workflow für Architekten und Designer - für 2026 und darüber hinaus.

Datavault AI kündigt für Donnerstag, den 19. März 2026, eine Telefonkonferenz zur Erörterung der Finanzergebnisse für das vierte Quartal und das Gesamtjahr 2025 an

PHILADELPHIA, PA / ACCESS Newswire / 17. März 2026 / Datavault AI Inc. („Datavault AI" oder das „Unternehmen") (NASDAQ:DVLT), ein Anbieter von Technologien für Datenmonetarisierung, Authentifizierung, digitale Interaktion und die Tokenisierung realer Vermögenswerte, gab heute bekannt, dass es seine Finanzergebnisse für das vierte Quartal und das Gesamtjahr 2025 vor Börsenbeginn am Donnerstag, dem 19. März 2026, veröffentlichen wird.

Frühere Dombaumeisterin kritisiert geplantes Eintrittsgeld für Kölner Dom

Die ehemalige Kölner Dombaumeisterin Barbara Schock-Werner hat das geplante Eintrittsgeld für den Kölner Dom kritisiert. Solch ein Eintrittsgeld schrecke sicherlich Besucher ab, sagte Schock-Werner am Montag im Deutschlandfunk. Außerdem drohe es, den Charakter des Doms zu verändern. "In dem Moment, wo ich Geld erhebe, ist es mehr wie ein Museum", sagte Schock-Werner. Sie fände es "ganz schwierig", wenn der Dom nur noch von wohlhabenden Menschen besucht werden könne.

Textgröße ändern: