Beim AI-Sicherheitsgipfel diskutierten Vertreter aus fast 30 Ländern und führende Technologiefirmen die Sicherheit von künstlicher Intelligenz (KI). Der deutsche Vizekanzler Robert Habeck betonte das transformative Potenzial von KI, warnte jedoch vor den damit verbundenen Risiken. Die Konferenz in Milton Keynes markierte den Beginn einer internationalen Abstimmung zur Regulierung dieses Sektors. Es gibt bereits Initiativen in den G7-Staaten, den USA und der EU. Der Premierminister Großbritanniens, Rishi Sunak, hat angekündigt, ein Institut für KI-Sicherheit zu gründen, das neue KI-Programme überprüfen wird.
Diese Initiative wurde in Zusammenarbeit mit der US-Vizepräsidentin Kamala Harris und wichtigen Vertretern der Branche ins Leben gerufen, wie von Heise berichtet. KI-Technologien werden bereits in vielen Bereichen wie Bildbearbeitung und medizinischer Diagnostik eingesetzt. Eine Herausforderung besteht darin, ihre Entwicklung sicher und gerecht zu gestalten. Eine Gruppe von wichtigen Entscheidungsträgern aus verschiedenen Ländern hat in einer Diskussionsrunde vier Hauptprobleme identifiziert: Die Folgen für den Arbeitsmarkt und die Gesellschaft, die Wichtigkeit, den Menschen in den Vordergrund zu stellen, das Gleichgewicht zwischen Innovation und Regulierung sowie die Gewährung von fairer Konkurrenz für kleinere Länder beim Zugang zu Künstlicher Intelligenz. Aktuell wird von der Europäischen Union ein KI-Gesetz diskutiert, welches Risikobewertungen zugrunde legt und Technologie nicht limitieren soll, wie von Tagesschau berichtet. Es wird überlegt, eine europäische KI-Behörde zu gründen, um Regeln in der EU durchzusetzen. Europol warnt vor KI-Missbrauch durch Phishing und Deepfakes. Der „AI Act“ der EU soll die Nutzung von KI regulieren und Risiken minimieren.
Die Debatte über den AI Act dreht sich darum, wer für die Verantwortung zuständig ist: die Entwickler von Basismodellen wie GPT-4 oder die Unternehmen, die diese Modelle anwenden. Einige Experten warnen davor, dass Regulierungen Innovationen einschränken könnten, während andere strenge Regulierungen für notwendig halten, um Missbrauch zu verhindern und die Sicherheit zu gewährleisten. Die Verhandlungen über den AI Act sollen bis zum Ende des Jahres abgeschlossen sein und Unternehmen haben dann zwei Jahre Zeit, sich anzupassen. Das Ziel ist es, eine Balance zu finden, die sowohl Sicherheit als auch Innovationskraft unterstützt.