阻礙業務發展的6個人工智能誤區

人工智能技術正在深入到工作環境中,不僅取代了平凡和重復的人工工作,而且還以其他方式改變了其他的工作。人工智能技術滲透到業務的各個方面,并在推動組織戰略。調研機構Gartner公司預測,到2025年,人工智能將成為推動組織基礎設施決策的首要技術之一。
然而,即使人們對人工智能的興趣上升,關于這項技術的一些誤解仍然存在。首席信息官必須識別這些誤區,以便在推動人工智能項目的實施時制定合理的策略或增強現有策略。通過了解人工智能的工作原理和局限性,組織的首席信息官可以更好地利用人工智能技術來實現業務價值。
誤區1:人工智能在冠狀病毒疫情期間是一種奢侈品
事實:即使在冠狀病毒疫情危機中,組織對人工智能的興趣和投資也將繼續增長。實際上,Gartner公司最近的一項調查發現,自從發生疫情以來,24%的組織增加了人工智能投資,42%的組織保持不變。
在疫情持續蔓延期間,人工智能不僅幫助醫療保健和政府首席信息官承擔了諸如預測病毒傳播和優化應急資源之類的任務,對于各種企業加快疫情之后的恢復工作也至關重要。人工智能一直是成本優化和業務連續性的重要推動者,可以在不中斷業務的情況下支持收入增長,并改善客戶互動。
盡管人工智能并不是什么靈丹妙藥,但大多數組織都不能忽視其應對疫情的直接和長期影響的潛力。組織的首席信息官必須積極主動地推廣人工智能,而不是將其作為一種奢侈品,它是一種可用于實際場景的強大技術,例如在疫情蔓延期間和結束之后更快地分析更多數據和增強決策。
誤區2:不需要采用人工智能策略
事實:人工智能可以應用于各種各樣的業務問題,但是只有在制定了人工智能戰略的情況下,才能實現變革性的商業價值。
首席信息官可以通過將業務優先級與市場機會(尤其是那些利用人工智能的力量來增強人類工作的機會)相結合來最大限度地實現人工智能的價值。首先確定最有前途的人工智能用例,這些用例與戰略計劃和關鍵業務功能保持一致,例如使管理任務自動化以騰出更多時間進行創新。定期重新訪問組織采用人工智能的方法,并確保有關人工智能實施的決策得到研究和審議的支持。
誤區3:人工智能只能取代平凡而重復的工作
事實:隨著時間的推移,許多技術已經影響了人們的工作方式以及獲得高薪機會所需的技能。因此,某些職業消失了,而新的職業卻不斷產生。例如,如今很少有打字員這個職位,就像十年前很少見到社交媒體營銷經理一樣。
人工智能技術有望對人們的工作和學習方式產生重大影響。人工智能不僅有潛力將被認為使平凡或重復的任務實現自動化,而且它還可以通過完成更高價值的任務來幫助改進或改變其他的工作。例如,人工智能可以在幾分鐘內閱讀數千份法律合同,并比律師更快、更少地從中提取所有有用的信息。
組織的首席信息官可以確定人工智能對現有任務的潛在影響,其方法是確定人工智能可以增強或自動化的活動,如項目管理或客戶服務。在人工智能的幫助下,員工可以接受再培訓,更好、更快地完成工作。與員工和利益相關者進行頻繁而透明的溝通非常重要,以消除對人工智能使用的擔憂,減少負面情緒,幫助團隊為即將到來的變革做好準備。
誤區4:人工智能和機器學習是相同的
事實:人工智能是計算機工程技術的總稱。在人工智能有一個主要的分支領域叫做機器學習(ML),它是指機器在沒有明確編程的情況下進行學習的能力。機器學習可以被編排成從數據中識別模式,它通常擅長于解決特定的任務。例如,機器學習可用于對電子郵件是否為垃圾郵件進行分類。
同樣,機器學習與深度學習也不相同。深度學習技術或深度神經網絡(DNN)是一種能夠實現驚人突破的機器學習。但這并不意味著深度學習是解決人工智能框架下所有問題的最佳技術,也不意味著深度神經網絡(DNN)一直是特定挑戰者最成功的人工智能技術。實際上,使用基于規則的系統或傳統的機器學習可以有效解決許多當前的人工智能問題。
最新的尖端人工智能技術并不總是最有效的解決業務問題的方案。數據科學家需要將人工智能技術視為一個整體,并實施那些最符合商業模式和目標的技術。對于復雜的問題,尤其是那些需要更多人類洞察力的問題,最好將深度學習與其他人工智能技術(如物理模型或圖形)結合起來。
與利益相關者交流時,首席信息官必須澄清這些通常互換的術語,這一點很重要。將對人工智能的整體討論分解為關于諸如機器學習之類的某種技術的對話,以展示每種技術如何解決現實世界中的問題。
誤區5:人工智能就是關于算法和模型的技術
事實:建立和應用機器學習算法來創建預測模型通常是人工智能項目中最簡單的部分。更具挑戰性的部分包括確保用人工智能解決的問題得到很好的定義,收集和管理足夠的正確數據,而部署是人工智能項目中最困難的部分。事實上,到2023年,至少有50%的IT領導者將努力將他們的人工智能預測項目從概念驗證提升到成熟的生產水平。
組織的首席信息官應通過與主要利益相關者協商來專注于定義人工智能將解決的業務問題。并事先明確組織和管理測試、部署和其他人工智能運營活動所需的人員、流程和工具。
誤區6:并非所有黑盒人工智能都必須遵守法規
事實:黑盒人工智能是一種人工智能系統,其中輸入和過程對用戶隱藏。根據客戶隱私、安全性、算法透明性和數字道德的法規要求,不同的人工智能的應用對可解釋性有不同的要求。
人工智能產生內部使用的見解并不一定需要那么多的解釋性。然而,人工智能做出關于人員的決定(例如關于貸款或信貸的資格)需要解釋性。由于道德和法律上的原因,在具有重大后果(例如啟用自動駕駛時)的“閉環”中做出決策的人工智能對解釋性有很高的要求。
首席信息官必須確保人工智能應用程序符合現有的道德和法規。為測試和驗證團隊提供支持,這因為他們收集的數據將確定對所使用的人工智能應用程序的可解釋性的需求。