KI - schaffen wir uns ab?

Werbung:
OpenAI-Chef: KI braucht dringend Regulierung

OpenAI-CEO Sam Altman sieht die Superintelligenz als Gefahr und schlägt internationale Überwachung vor. Das ist auch Marketing.
...
Altman wies auf weitere Gefahren und Ungewissheiten hin: eine mögliche Super-KI in den Händen von Diktatoren, ein Missbrauch als Biowaffe mit der Schaffung ganz neuer Krankheitserreger oder neue Arten von Kriegen. Es müsse eine gesamtgesellschaftliche Debatte geben, „bevor wir alle überrascht werden“. Um KI zu missbrauchen bedarf es freilich nicht unbedingt einer Superintelligenz. Das geht auch mit weniger ausgereiften Systemen, die bereits die Forderung nach einer Aufsichtsbehörde rechtfertigen.
...
Gleichwohl ist Altman selbst daran interessiert, KI möglichst schnell und auch mit möglichst wenig Leitplanken auf den Markt zu bringen. Sicherheit ist bei seinem Unternehmen nachrangig. Das soll zu diversen Zerwürfnissen innerhalb von OpenAI geführt haben – und auch Abgängen.

... so krank, dass immer die Typen ohne soziales gesamtgesellschaftliches Gewissen solche Macht bekommen.
 
Werbung:
Dazu eine Organisation, die sich für ein "innehalten" einsetzt und dafür plädiert, erst einmal Rahmenbedingungen zu schaffen um solche "superintelligenten" KIs besser kontrollieren zu können.


We believe the current rate of AI progress is rapid, dangerous, and largely unregulated. We are on track to reach smarter-than-human intelligence well before we are capable of understanding or directing it. If this continues, AI will likely lead to total extinction of the human species. Let’s pause.

We call for an indefinite pause on colossal AI experiments. By “colossal AI experiments”, we mean any AI training runs that go beyond the current state-of-the-art (GPT-4, as released in March of 2023).
 
Zurück
Oben