지난 몇 달 동안 인공지능은 모두의 화두였습니다. Silicon Valley 스타트업과 Fortune 500대 기업 모두 AI의 속도가 꾸준히 가속화됨에 따라 AI가 산업에 혁명을 일으키고 있음을 목격하고 있습니다. 그러나 AI 세척과 같은 흥분, 진전, 위험 신호는 같은 속도로 급증하고 있습니다. 일부 기업은 AI 채택이 거의 없거나 존재하지 않는다는 사실에도 불구하고 돈을 벌고 과대 광고에 돈을 벌고 싶어하기 때문에 AI 기능을 과장하고 있습니다.
이 마케팅 전략은 문제가 있지만 AI가 아닌 스타트업에 비해 더 큰 시드, 시리즈 A 및 시리즈 B 자금을 확보하는 데 도움이 될 수 있습니다. GlobalData에 따르면, AI 스타트업은 지난해에만 500억 달러 이상의 벤처 캐피털 자금을 조달했으며, ChatGPT 및 기타 기업을 둘러싼 열광을 감안할 때 올해 그 숫자는 더 늘어날 것으로 예상됩니다.
이런 스타트업에 쏟아지는 자본을 생각하면 AI 워싱 현상은 더욱 심해질 수밖에 없습니다. 미국 연방거래위원회(FTC)는 이러한 위험을 충분히 인식하고 있으며 공급업체에 AI 기능을 광고할 때 투명하고 정직해야 한다고 경고했습니다.
FTC 광고 실무 그룹의 변호사인 마이클 애틀슨(Michael Atleson)은 블로그 게시물에 다음과 같이 썼습니다. “인공 지능이 있다고 주장하는 일부 제품은 어떤 경우에는 제품이 어떤 원인이 되더라도 광고된 기능을 전혀 수행하지 못할 수도 있습니다. 해롭다, 그런 과장된 선전이 존재할 수 있다. 제품 효능에 대한 허위 주장이나 검증할 수 없는 주장이 이 업계에서 살아남는 길이라는 것을 마케터들은 알고 있고, 이것이 바로 FTC가 법을 집행하는 이유이다.”
이 복잡한 상황에서는 매우 어려울 수 있습니다. 합법적인 AI 솔루션과 마케팅 수법을 구별합니다.
Deloitte Global AI Institute의 전무이사인 Beena Ammanath는 다음과 같이 말했습니다. “기업은 AI 제품에 대한 공급업체의 주장에 직면할 때 건전한 회의론을 받아들일 필요가 있습니다. 사실이 아닐 수도 있습니다.
Donald Welch는 뉴욕대학교의 CIO입니다. 그는 CIO와 회사가 올바른 답을 찾지 못하면 프로젝트 실패 또는 지연, 재정적 손실, 법적 소송, 평판 위험, 궁극적으로는 해고 등의 결과에 직면할 수 있다고 말했습니다. "말 그대로 경영진이 이 문제로 해고되는 것을 본 적이 있는데 그것이 나쁜 결정이라고 말할 수도 없습니다."
다행히도 실수를 피하기 위해 사용할 수 있는 몇 가지 전략이 있습니다.
AI 기반 기업에는 숙련된 직원이 필요합니다.
AI를 사용한다고 주장하는 기업을 조사하는 것은 길고 시간이 많이 걸리는 프로세스일 수 있습니다. 그러나 비즈니스를 평가하는 데 유용한 정보를 검색하는 간단한 방법(예: LinkedIn 검색)이 있습니다.
Ammanath는 다음과 같이 말했습니다. “공급업체 직원의 AI 경험과 교육 수준을 검토하세요. AI 솔루션을 개발하는 회사는 이 분야에 재능이 있어야 합니다. 즉, 데이터 과학자와 데이터 엔지니어가 있어야 하며 이러한 엔지니어는 해당 분야에 대한 깊은 경험을 가지고 있어야 합니다. 인공지능, 머신러닝, 알고리즘 개발 등
CIO는 직원을 살펴보는 것 외에도 외부 인공지능 전문가 및 연구 기관과의 협업 증거를 찾을 수도 있습니다. 이 카테고리에는 대학과의 파트너십, 업계 컨퍼런스 및 이벤트 참여, 오픈 소스 AI 이니셔티브에 대한 기여가 포함됩니다. 벤더가 유사한 프로젝트나 애플리케이션에 대한 경험이 있다면 이는 좋은 신호이기도 합니다. 이는 고품질 결과를 제공할 수 있음을 시사하기 때문입니다.
우크라이나계 미국 스타트업 MacPaw의 최고 기술 및 혁신 책임자인 Vira Tkachenko는 "공급업체의 이력을 다시 확인하세요. 회사가 인공 지능 전문가라면, 이 분야 또는 기타 인공지능 제품에 대한 연구 논문 출판 이력."
잘 설계된 데이터 전략을 찾고 있습니다.
인공지능을 자사 제품에 진정으로 통합하는 회사에도 전략이 필요합니다. 잘 설계된 데이터 전략 왜냐하면 AI 알고리즘이 그것을 요구하기 때문입니다. 그들은 고품질 데이터로 작업해야 하며, 데이터가 더 관대하고 관련성이 높을수록 더 나은 결과를 얻을 수 있습니다.
Ammanath는 다음과 같이 말했습니다. "AI 시스템은 대량의 데이터에 의해 구동되므로 이러한 회사는 잘 구성된 데이터 전략을 가지고 있어야 하며 얼마나 많은 데이터가 어떤 소스에서 수집되는지 설명할 수 있어야 합니다."
주의해야 할 또 다른 문제는 이러한 회사가 규제 요구 사항을 준수하고 높은 데이터 개인 정보 보호 및 보안 표준을 유지하기 위해 충분한 노력을 기울이고 있는지 여부입니다. 일반 데이터 보호 규정(EU GDPR) 및 캘리포니아 소비자 개인 정보 보호법(CCPA)과 같은 데이터 개인 정보 보호 규정이 증가함에 따라 조직은 데이터 관행을 투명하게 공개하고 개인에게 개인 데이터에 대한 통제권을 제공해야 합니다. 그렇지 않은 경우 이는 위험 신호입니다.
자신의 주장을 뒷받침할 증거를 요청하세요
슬로건이 유혹적일 수도 있지만 침착하게 증거를 요청하는 것이 도움이 될 수 있습니다. Ammanath는 "올바른 질문을 하고 제품 기능에 대한 증거를 요청하는 것은 제품이 실제로 AI로 구동되는지 판단하기 위해 마케팅 및 영업 수사를 벗겨내는 데 매우 중요합니다."라고 Ammanath는 말했습니다. by AI 특정 제품이나 서비스를 고려할 때 CIO는 모델이 어떻게 훈련되었는지, 어떤 알고리즘이 사용되었는지, AI 시스템이 새로운 데이터에 어떻게 적응할지 물어볼 수 있습니다.
Tkachenko는 "공급업체에 어떤 라이브러리나 AI 모델을 사용하는지 물어봐야 합니다. OpenAI API를 호출하여 자체 기능을 구현할 수도 있습니다."
Matthias, 경영 및 기술 컨설팅 회사인 BearingPoint의 파트너이자 글로벌 기술 리더입니다. 회사 Roeser도 동의합니다. 그는 구성 요소와 프레임워크를 철저히 이해해야 하며 평가에는 "윤리, 편견, 타당성, 지적 재산 및 지속 가능성"이 포함되어야 한다고 덧붙였습니다.
이 설문 조사는 CIO가 제품의 진정한 기능과 한계를 더 완전히 이해하는 데 도움이 될 수 있습니다. 그들은 제품 구매 여부를 결정합니다.
Follow 스타트업스타트업은 혁신의 선두에 서 있습니다. 그러나 그들 중 많은 사람들이 인공지능 분야의 한계를 뛰어넘고 있는 반면, 일부는 단순히 관심과 돈을 얻기 위해 자신의 능력을 과장하고 있을 수도 있습니다.
우크라이나계 미국인 스타트업 Claid.ai의 공동 창립자이자 CTO인 Vlad Pranskevičius는 Let's Enhance에서 다음과 같이 말했습니다. "저는 기계 학습 회사의 CTO로서 특히 스타트업 커뮤니티에서 AI 세척 사례를 자주 접합니다." , 그는 최근 상황이 더욱 심각해졌다고 지적했다. 그는 이러한 현상은 인공지능이 새로운 골드러시로 여겨지는 현재와 같은 과대광고 사이클에 특히 위험하다고 덧붙였습니다.
그러나 Pranskevičius는 가까운 미래에 인공 지능을 둘러싼 규제가 더욱 엄격해짐에 따라 AI 세척이 통제될 것이라고 믿습니다.
기술 전문성으로 명성을 쌓으세요회사가 의심스러운 AI 솔루션을 획득하는 것은 드문 일이 아니며, 이 경우 CIO에게 반드시 잘못이 있는 것은 아닙니다. 이는 "부실한 기업 리더십의 결과"일 수 있다고 Welch는 말했습니다. "기업은 마케팅 과대광고에 속고 나머지 부분을 처리해야 하는 IT 팀을 무시합니다."
이런 순간을 방지하려면 기업이 필요합니다. 기술 전문가의 의견을 존중하고, 그들의 관점이 충분히 드러나는 협업 문화를 조성합니다.
동시에 CIO와 기술팀은 그들의 의견이 의사결정 과정에 더 쉽게 반영될 수 있도록 회사 내에서 평판을 쌓아야 합니다. 이를 달성하려면 전문성, 전문성, 소프트 스킬을 입증해야 합니다.
Sigma Software Group의 최고 혁신 책임자인 Max Kovtun은 다음과 같이 말했습니다. “CIO가 AI 세척을 검토하는 것이 어렵지 않다고 생각합니다. 더 큰 문제는 어떤 형태로든 AI 사용을 추진하는 비즈니스 이해관계자나 기업가일 수 있습니다. 혁신적이고 최첨단이 되기를 바랍니다. 따라서 올바른 질문은 기업가 정신의 압박 속에서 AI 세척에 자신을 던지는 것을 피하는 방법입니다.
유행어를 넘어서제품을 비교할 때 열린 마음을 갖는 것이 중요합니다. 그리고 서비스를 정신적으로 평가하고 그 속성을 철저히 확인하십시오.
Tkachenko는 다음과 같이 말했습니다. “제품이나 서비스의 유일한 장점이 인공 지능이라면 구매하기 전에 다시 한 번 생각해야 합니다. 인공 지능에서 프로젝트의 역할을 이해하는 경우에만 가치 제안과 기능을 조사하는 것이 가장 좋습니다. Welch도 동의했습니다. "C, C++ 또는 Java로 작성된 시스템을 구매하시겠습니까? 실사의 일환으로 그렇게 하고 싶을 수도 있습니다." 코드, 회사 생존 가능성 등을 유지할 수 있는지 이해합니다.
철저한 평가를 수행하면 기업에서 구매하려는 제품이나 서비스가 목표에 부합하고 예상한 결과를 제공할 가능성이 있는지 판단하는 데 도움이 될 수 있습니다.
Kovtun은 “기술이 복잡할수록 비전문가가 이해하기 어렵고, 인공지능 기술을 활용하기로 결정한 경우 기술의 적용이 정확하고 의미 있는지 검증하기가 더 어렵습니다. 회사에서는 인공 지능 분야에 경험이 풍부하고 지식이 풍부한 전문가를 고용하는 것이 좋습니다. 그렇지 않으면 귀하의 노력이 기대하는 이익을 얻지 못할 수도 있습니다. CIO가 정보에 입각한 결정을 내리는 데 도움이 될 수 있는 인공 지능 관련 제품 및 관련 질문에 대한 정보를 제공합니다. 이런 식으로 그들은 새로운 아이디어와 기술을 활용하면서 자신이 저지른 실수를 식별할 수 있습니다.
Art Thompson은 디트로이트시의 CIO입니다. 그는 "지금은 교육이 충분하지 않다고 생각한다"며 CIO들에게 자신이 제공할 수 있는 것보다 더 많은 것을 약속하는 새롭거나 실험적인 기술의 함정에 빠지지 않도록 충분한 연구를 하라고 조언했다. 그렇게 되면 "제품 가격을 다시 책정하고 교체하는 데 걸리는 시간으로 인해 직원들에게 큰 타격을 주고 변화를 덜 지원할 수 있게 될 것"이라고 그는 말했습니다. "사람들이 새로운 기술을 배우는 데 시간을 할애하는 어려움은 말할 것도 없습니다. 또한 최신 AI 관련 문제에 대한 최신 정보를 유지하는 것은 CIO가 규제 변화와 새로운 산업 표준을 예측하는 데 도움이 될 수 있으며, 이는 규정을 준수하고 유지하는 데 도움이 될 수 있습니다." 경쟁 우위. 그리고 최신 정보를 유지해야 하는 사람은 CIO뿐만이 아닙니다. BearingPoint의 Roeser는 "팀을 교육하거나 전문가를 고용하여 포트폴리오에 관련 기능을 추가하세요."라고 말합니다.
인공 지능에 대한 추가 규제 조치
향후 새로운 규정으로 인해 제품 또는 서비스 사용 여부를 결정하는 CIO의 업무가 단순화될 수 있습니다. 진정한 인공지능 기술. 백악관은 최근 인공지능 시스템의 책임 있는 설계에 대한 지침이 포함된 인공지능 권리장전을 발표했습니다. 앞으로는 더 많은 규정이 도입될 수 있습니다.
Ammanath는 다음과 같이 말했습니다. "이러한 조치의 전제는 기술의 잠재적 피해로부터 소비자 권리와 인류를 보호하는 것입니다. 우리는 위험을 완화하기 위해 기술의 잠재적인 부정적인 영향을 예상해야 합니다." 기업은 신기술 논의에 영향을 미치고 잠재적인 이점을 강조하며 잠재적인 부정적인 영향을 경시하는 경향이 있습니다.
스위스 세인트 갈렌 대학의 박사후 연구원인 필립 디 살보(Philip Di Salvo)는 이렇게 말했습니다. “기술이 전문 용어가 되면 우리는 그것이 사회에 미칠 수 있는 잠재적으로 해로운 영향에 초점을 맞추지 못하는 경향이 있습니다. 연구에 따르면 기업은 그렇습니다. 인공 지능에 대한 경계 확장 지능, 기술 결정론에 대한 담론이 여전히 지배적입니다.”
기술이 사회 및 문화적 변화의 주요 원동력이라는 믿음은 보다 마케팅 지향적인 접근 방식을 선호하는 윤리적, 정치적 의미에 대한 논의를 모호하게 할 수 있습니다. 지향적인 주장. Di Salvo가 말했듯이, 이는 "이러한 기술과 그 생산자를 더욱 모호하고 무책임하게 만드는 논쟁의 안개"를 만듭니다.
이 문제를 해결하기 위해 그는 AI가 실제로 무엇이 아닌지, 무엇을 할 수 없는지를 대중에게 알리는 것이 핵심 과제라고 지적합니다. Di Salvo는 다음과 같이 말했습니다. “ChatGPT를 포함하여 오늘날 우리가 보는 대부분의 인공 지능 애플리케이션은 기본적으로 대규모 통계 및 데이터 분석 애플리케이션을 기반으로 구축되었습니다. 이는 지루한 정의처럼 들릴 수도 있지만 '무슨 일이 일어나는지'에 대한 오해를 피하는 데 도움이 됩니다. '인공지능'의 정의 중 '지능'은 가설적이고 추측적인 장기적인 가정이 아닌 편견, 사회적 분류 및 기타 문제와 같은 실제 문제에 집중해야 함을 의미합니다.”
출처: www.cio. com위 내용은 AI 세척의 희생양이 되지 않는 9가지 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!