Laut ITBEAR-Technologieinformationen hat Apple kürzlich eine Reihe restriktiver Maßnahmen zur Nutzung externer Tools für künstliche Intelligenz (KI) durch Mitarbeiter ergriffen und entwickelt unabhängige ähnliche Technologien, um die Sicherheit vertraulicher Daten zu schützen.
Apple befürchtet, dass die Nutzung von KI-Programmen wie ChatGPT durch Mitarbeiter zum Verlust vertraulicher Daten führen könnte, und hat daher beschlossen, die Nutzung einzuschränken, wie aus offengelegten Dokumenten und mit der Angelegenheit vertrauten Personen hervorgeht. Gleichzeitig wies Apple die Mitarbeiter auch klar darauf hin, die Copilot-Funktion von Microsofts Code-Hosting-Plattform GitHub nicht zu nutzen, die automatisch Softwarecode schreiben kann.
Apple ist seit jeher für seine strengen Sicherheitsmaßnahmen zum Schutz seiner zukünftigen Produkte und Verbraucherdaten bekannt. Mit der Weiterentwicklung der KI-Technologie werden viele Unternehmen misstrauisch gegenüber der Chatbot-Technologie, da Mitarbeiter begonnen haben, diese Tools in großem Umfang für alles zu nutzen, vom Schreiben von E-Mails und Marketingmaterialien bis hin zur Softwareentwicklung. Vor diesem Hintergrund wurde OpenAI an diesem Donnerstag in der Apple App gestartet Store hat die iOS-Version der ChatGPT-Anwendung offiziell eingeführt.
Apples KI-Bemühungen werden von John Giannandrea geleitet, einem Senior Vice President, den Apple 2018 von Google abgeworben hat und der direkt an CEO Tim Cook berichtet Cook) berichtete über die Arbeit. Unter seiner Führung hat Apple eine Reihe von KI-Startups übernommen, um seine Fähigkeiten im Bereich der künstlichen Intelligenz zu stärken.
In der jüngsten Telefonkonferenz zu den Quartalsergebnissen äußerte Cook einige Bedenken hinsichtlich der Entwicklung des Bereichs der generativen künstlichen Intelligenz. Er ist fest davon überzeugt, dass KI ein enormes Potenzial hat, aber bei der Anwendung muss es sorgfältig abgewogen und umfassend berücksichtigt werden, um sicherzustellen, dass Sicherheit und Privatsphäre vollständig geschützt sind. Dies kann auch erklären, warum Apple die Nutzung externer KI-Tools durch seine Mitarbeiter einschränkt und die unabhängige Technologieforschung und -entwicklung stärkt.
Zusammenfassend lässt sich sagen, dass Apple Maßnahmen ergreift, um die Nutzung externer KI-Tools durch Mitarbeiter einzuschränken, um die Sicherheit vertraulicher Daten zu gewährleisten, und um die Entwicklung unabhängiger Technologien zu fördern, um seine Führungsposition auf diesem Gebiet weiter zu festigen Künstliche Intelligenz. Wettbewerbsvorteil.
Das obige ist der detaillierte Inhalt vonApple schränkt die Nutzung externer KI-Tools durch seine Mitarbeiter ein und verstärkt die unabhängige Technologieforschung und -entwicklung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!