


Die EU strebt eine Einigung über Regulierungsregeln für generative KI wie ChatGPT noch in diesem Jahr an und plant, KI-generierte Inhalte mit dem Label „AI-made' zu versehen
Nachrichten vom 25. April zufolge sagte die Exekutivvizepräsidentin der Europäischen Kommission und Wettbewerbskommissarin Margrethe Vestager in einem Interview mit Nikkei News am 24. April, dass die EU hofft, den Einsatz generativer KI wie ChatGPT noch in diesem Jahr zu regulieren . Regulierungsregeln werden vereinbart, „je früher, desto besser“.
Vestager sagte, dass die EU plant, von Unternehmen, die generative KI-Dienste anbieten, zu verlangen, die Gründe und ethischen Standards für ihre relevanten Entscheidungen zu erläutern. Darüber hinaus brachte Vestager die Idee ins Spiel, Inhalte wie KI-generierten Text mit dem Label „Made in AI“ zu versehen.
Generative KI ist eine Technologie der künstlichen Intelligenz, die aus Daten lernen und neue Inhalte erstellen kann, die in den letzten Jahren große Aufmerksamkeit und Diskussion erregt hat. Es birgt ein enormes Potenzial und große Herausforderungen und kann tiefgreifende Auswirkungen auf Bereiche wie die Kreativwirtschaft, die soziale Sicherheit und die Menschenrechte haben.
IT House erkundigte sich nach relevanten Berichten und erfuhr, dass das Europäische Parlament die Verabschiedung eines dreistufigen Regulierungsplans erwägt, der auf die Wertschöpfungskette, das Grundmodell und den spezifischen Inhalt generativer KI abzielt. Konkret gilt die erste Regelebene für alle Allzweck-KI (GPAI), unabhängig von Größe oder Modelltyp, und regelt hauptsächlich die Verantwortlichkeiten und Pflichten zwischen Anbietern und Nutzern generativer KI. Eine zweite Regelebene gilt für die zugrunde liegenden Modelle, also jene generativen KI-Modelle, die leistungsstark und vielseitig sind und von ihren Anbietern die Einhaltung bestimmter Transparenz-, Qualitäts- und Verantwortlichkeitsanforderungen vor der Einführung und während der Nutzung verlangen. Die dritte Regelebene gilt für bestimmte Arten generativer KI-Inhalte, wie etwa große Sprachmodelle oder KI, die Kunst und Musik generiert, und verlangt von ihren Anbietern, einige besondere Einschränkungen und Anforderungen bei der Inhaltsgenerierung einzuhalten, etwa die Verhinderung der Erstellung falscher Inhalte Informationen und Verleumdung oder Urheberrechtsverletzung und andere Probleme.
Das EU-Parlament erklärte, dass dieses mehrschichtige Regulierungssystem darauf abzielt, sicherzustellen, dass sich generative KI im Einklang mit menschlichen Werten, Sicherheit und Vertrauenswürdigkeit entwickeln kann und verhindert, dass man sich der Aufsicht entzieht oder unvorhergesehene Risiken verursacht. Gleichzeitig forderte das Europäische Parlament auch andere Länder und Regionen auf, sich der internationalen Zusammenarbeit anzuschließen und gemeinsam einige Grundprinzipien und Standards für die Steuerung der generativen KI zu entwickeln.
Generative KI ist eine der modernsten und umstrittensten Technologien im Bereich der künstlichen Intelligenz. Sie kann nicht nur die Effizienz und Produktivität verbessern, sondern auch Kreativität und Fantasie freisetzen. Es kann jedoch auch ethische, rechtliche und soziale Herausforderungen mit sich bringen und muss mit Vorsicht und Verantwortungsbewusstsein eingesetzt werden.
Das obige ist der detaillierte Inhalt vonDie EU strebt eine Einigung über Regulierungsregeln für generative KI wie ChatGPT noch in diesem Jahr an und plant, KI-generierte Inhalte mit dem Label „AI-made' zu versehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Die Installation von MySQL auf CentOS umfasst die folgenden Schritte: Hinzufügen der entsprechenden MySQL Yum -Quelle. Führen Sie den Befehl mySQL-server aus, um den MySQL-Server zu installieren. Verwenden Sie den Befehl mySQL_SECURE_INSTALLATION, um Sicherheitseinstellungen vorzunehmen, z. B. das Festlegen des Stammbenutzerkennworts. Passen Sie die MySQL -Konfigurationsdatei nach Bedarf an. Tune MySQL -Parameter und optimieren Sie Datenbanken für die Leistung.

Eine vollständige Anleitung zum Anzeigen von GitLab -Protokollen unter CentOS -System In diesem Artikel wird in diesem Artikel verschiedene GitLab -Protokolle im CentOS -System angezeigt, einschließlich Hauptprotokolle, Ausnahmebodi und anderen zugehörigen Protokollen. Bitte beachten Sie, dass der Log -Dateipfad je nach GitLab -Version und Installationsmethode variieren kann. Wenn der folgende Pfad nicht vorhanden ist, überprüfen Sie bitte das GitLab -Installationsverzeichnis und die Konfigurationsdateien. 1. Zeigen Sie das Hauptprotokoll an. Verwenden Sie den folgenden Befehl, um die Hauptprotokolldatei der GitLabRails-Anwendung anzuzeigen: Befehl: Sudocat/var/log/gitlab/gitlab-rails/production.log Dieser Befehl zeigt das Produkt an

Pytorch Distributed Training on CentOS -System erfordert die folgenden Schritte: Pytorch -Installation: Die Prämisse ist, dass Python und PIP im CentOS -System installiert sind. Nehmen Sie abhängig von Ihrer CUDA -Version den entsprechenden Installationsbefehl von der offiziellen Pytorch -Website ab. Für CPU-Schulungen können Sie den folgenden Befehl verwenden: PipinstallTorChTorChVisionTorChaudio Wenn Sie GPU-Unterstützung benötigen, stellen Sie sicher, dass die entsprechende Version von CUDA und CUDNN installiert ist und die entsprechende Pytorch-Version für die Installation verwenden. Konfiguration der verteilten Umgebung: Verteiltes Training erfordert in der Regel mehrere Maschinen oder mehrere Maschinen-Mehrfach-GPUs. Ort

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Docker verwendet Linux -Kernel -Funktionen, um eine effiziente und isolierte Anwendungsumgebung zu bieten. Sein Arbeitsprinzip lautet wie folgt: 1. Der Spiegel wird als schreibgeschützte Vorlage verwendet, die alles enthält, was Sie für die Ausführung der Anwendung benötigen. 2. Das Union File System (UnionFS) stapelt mehrere Dateisysteme, speichert nur die Unterschiede, speichert Platz und beschleunigt. 3. Der Daemon verwaltet die Spiegel und Container, und der Kunde verwendet sie für die Interaktion. 4. Namespaces und CGroups implementieren Container -Isolation und Ressourcenbeschränkungen; 5. Mehrere Netzwerkmodi unterstützen die Containerverbindung. Nur wenn Sie diese Kernkonzepte verstehen, können Sie Docker besser nutzen.

Bei der Installation von PyTorch am CentOS -System müssen Sie die entsprechende Version sorgfältig auswählen und die folgenden Schlüsselfaktoren berücksichtigen: 1. Kompatibilität der Systemumgebung: Betriebssystem: Es wird empfohlen, CentOS7 oder höher zu verwenden. CUDA und CUDNN: Pytorch -Version und CUDA -Version sind eng miteinander verbunden. Beispielsweise erfordert Pytorch1.9.0 CUDA11.1, während Pytorch2.0.1 CUDA11.3 erfordert. Die Cudnn -Version muss auch mit der CUDA -Version übereinstimmen. Bestimmen Sie vor der Auswahl der Pytorch -Version unbedingt, dass kompatible CUDA- und CUDNN -Versionen installiert wurden. Python -Version: Pytorch Official Branch
