Heim > Technologie-Peripheriegeräte > KI > Achten Sie auf die Unternehmenssicherheit: Samsung verbietet Mitarbeitern die Nutzung der generativen KI von ChatGPT und erinnert Unternehmen daran, auf Sicherheitsaspekte zu achten.

Achten Sie auf die Unternehmenssicherheit: Samsung verbietet Mitarbeitern die Nutzung der generativen KI von ChatGPT und erinnert Unternehmen daran, auf Sicherheitsaspekte zu achten.

WBOY
Freigeben: 2023-05-08 15:16:09
nach vorne
1566 Leute haben es durchsucht

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关

Der aktuelle Umfragebericht zeigt, dass sich mehr als 70 % der Unternehmen noch in der „Explorationsphase“ befinden, wenn es um den Einsatz generativer KI geht. Das bedeutet, dass KI-Entwickler, die große Sprachmodelle entwickeln, sicherstellen müssen, dass ihre Produkte über geeignete Datensicherheitsmechanismen verfügen, um Unternehmensbenutzer zufrieden zu stellen.

Vor kurzem haben große Unternehmen wie Samsung aufgrund von Bedenken hinsichtlich der Datensicherheit damit begonnen, Mitarbeitern die Nutzung von KI-Tools wie ChatGPT zu verbieten. Ein Analyst sagte, dass Anbieter wie Microsoft auf Unternehmen zugeschnittene Lösungen entwerfen und bereitstellen müssen, wenn sie wollen, dass die Technologie erfolgreich ist.

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关... Zuvor haben andere Technologieunternehmen ähnliche Erklärungen abgegeben, in denen sie Bedenken hinsichtlich der Datensicherheit beim Einsatz generativer KI geäußert haben.

OpenAI hat kürzlich bestätigt, dass es eine spezielle Version der ChatGPT-Plattform für Unternehmensbenutzer entwickelt. Die Plattform verbietet Unternehmensbenutzern standardmäßig die Verwendung von Konversationen in ChatGPT-Umschulungen. Es ist unklar, ob dies ausreicht, um die Sicherheitsbedenken großer Unternehmenskunden auszuräumen, aber die Führungskräfte dieser Unternehmen sind offensichtlich bestrebt, die Technologie einzuführen. Laut einer Gartner-Umfrage unter 2.500 Führungskräften der Branche glauben 45 % der Befragten, dass ChatGPT KI-Investitionen fördert, 70 % der Befragten gaben an, dass ihre Unternehmen nach Möglichkeiten suchen, generative KI einzusetzen, und 19 % der Befragten befinden sich bereits in der Pilot- oder Produktionsphase.

Frances Karamouzis, Vice President Analyst bei Gartner, sagte: „Die Besessenheit der Benutzer von der Einführung generativer KI lässt nicht nach. Viele Branchenorganisationen ringen darum, wie viel Geld sie in generative KI-Lösungen investieren sollen und in welche Produkte es sich lohnt zu investieren.“

Am bezeichnendsten ist, dass 68 % der Befragten glauben, dass die Vorteile der generativen KI die Risiken überwiegen, während nur 5 % glauben, dass die Verwendung dieser Technologie die Risiken von Technologie überwiegt die Vorteile.

Da die Investitionen in generative KI zunehmen und die Auswirkungen auf die Datensicherheit immer offensichtlicher werden, können sich diese Situationen ändern, wie beispielsweise das Sicherheitsdilemma von Samsung (das Unternehmen entwickelt seine eigenen KI-Modelle).

Der allgemeine Trend geht dahin, dass es möglicherweise schwieriger ist, generative KI zu vermeiden als sie einzusetzen.

Trotz der globalen Konjunkturabschwächung und Massenentlassungen in der Technologiebranche gaben nur 17 % der Befragten an, dass Kostenoptimierung der Hauptgrund für Investitionen in KI sei , wobei das Kundenerlebnis im Mittelpunkt steht.

Da Unternehmen wie Microsoft KI in ihren CRM- und Office 365-Suiten über Copilot einsetzen und Salesforce Chatbot-Technologie zu seiner gesamten Produktsuite hinzufügt, kann es schwieriger sein, generative KI zu vermeiden, als sie einzusetzen. Avivah Litan, Vizepräsidentin und Analystin bei Gartner, sagte, dass Unternehmen bei der Verwendung öffentlicher, groß angelegter Sprachmodelle mehreren Risiken ausgesetzt sind, es jedoch Möglichkeiten gibt, die Risiken zu mindern, einschließlich der Sicherstellung, dass sie die Ausgabe von Fehlinformationen automatisch filtern können , Halluzinationen und unerwünschte Fakteninformationen.

Sie sagte, dass Unternehmen auch sicherstellen müssen, dass große Anbieter von Sprachmodellen überprüfbare Datenverwaltungs- und Sicherheitsgarantien bieten, um sicherzustellen, dass vertrauliche Unternehmensinformationen, die an große Sprachmodelle übertragen werden, nicht gefährdet werden. Darüber hinaus ist Transparenz erforderlich, um sicherzustellen, dass jede Nutzung im Einklang mit Rechtsvorschriften wie den DSGVO-Vorschriften und dem EU-KI-Gesetz steht.

Sie erklärte: „Solange diese Anforderungen nicht erfüllt sind, sehen wir vorsichtige Unternehmen, die entweder den Zugriff ihrer Mitarbeiter auf den Chat einschränken (was aufgrund der Anwesenheit persönlicher Geräte nicht durchsetzbar ist) oder eine moderierte experimentelle Nutzung zulassen, um das Senden vertraulicher Daten an große Sprachen zu vermeiden.“ Modelle“

Das Interesse am Einsatz generativer KI als Technologie liegt in ihren potenziellen Vorteilen, insbesondere durch öffentliche Modelle, die auf teuren und umfangreichen Datensätzen trainiert werden. Litan sagte: „Der enorme Wert der großen Sprachmodelle, die von OpenAI und Dritten entwickelt wurden, liegt in den großen Datenmengen, um sie zu trainieren, und in der enormen und komplexen Supercomputerleistung, die für ihren Betrieb erforderlich ist. Unternehmen verfügen einfach nicht über die Ressourcen, um sie neu aufzubauen.“ Diese wertvollen Modelle.“

Die Lösung für OpenAI, Microsoft und jeden Anbieter, der diese Technologie einsetzen möchte, besteht darin, Technologietools durch eine Vereinbarung zur gemeinsamen Sicherheitsverantwortung zu erstellen. Anbieter sollten zur Verantwortung gezogen werden, wenn vertrauliche Daten durchsickern, und das ist der richtige Weg.

Das obige ist der detaillierte Inhalt vonAchten Sie auf die Unternehmenssicherheit: Samsung verbietet Mitarbeitern die Nutzung der generativen KI von ChatGPT und erinnert Unternehmen daran, auf Sicherheitsaspekte zu achten.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
ai
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage