導讀 2024年大數據行業預測(六) 安全 GenAI將在2024年證明現有的安全意識培訓已經過時;組織將對其計劃進行現代化改造,以應對這些新的、更復雜的威脅。隨着GenAI在不良行爲者社區中的大規模消費...
2024年大數據行業預測(六)
安全
GenAI將在2024年證明現有的安全意識培訓已經過時;組織將對其計劃進行現代化改造,以應對這些新的、更復雜的威脅。隨着GenAI在不良行爲者社區中的大規模消費,傳統安全意識培訓的價值將迅速下降。企業將對安全意識計劃進行現代化改造,包括持續以用戶爲中心的控制,增強識別和防御當今現代社會工程攻擊的能力,同時提供實時用戶指導,以防止用戶在不經意間意外成爲此類攻擊的受害者。–Curtis Simpson,Armis首席信息安全官
2024年,由於人工智能的出現,釣魚培訓將不再流行:由於人工智能,現代的對手正在用新的創新來提升其攻擊遊戲。高級LLM將使攻擊者更容易制作完美的網絡釣魚電子郵件,不會留下錯別字或奇怪的格式供受害者捕獲。因此,我們所知道的網絡釣魚培訓將變得過時。企業將需要尋求其他形式的網絡安全培訓,以確保其關鍵資產受到保護,並採用更復雜的防御措施。–Eric Skinner,Trend Micro副總裁
隨着人工智能增強攻防战略,API安全不斷發展:2023年,AI开始改變網絡安全,在進攻和防御安全方面發揮着關鍵作用。傳統上,識別和利用復雜的一次性API漏洞需要人工幹預。人工智能現在正在改變這一格局,使流程自動化,從而實現具有成本效益的大規模攻擊。我預測到2024年,攻擊的復雜性和可擴展性將顯着增加。隨着人工智能成爲惡意行爲者和防御者的強大工具,我們將見證一個關鍵的轉變,重新定義數字安全的動態。–Shay Levi,Noname Security首席技術官兼聯合創始人
欺騙性AI驅動技術將在2024年變得突出:隨着時間的推移,網絡安全的復雜程度呈指數級發展,但隨着生成式AI變得更加突出,2023年出現了一些最快的創新。由於這些工具通常普遍可用且易於訪問,因此我們必須評估其對當前網絡環境造成的風險。生成式人工智能對於網絡安全行業而言是一把雙刃劍,其可以讓防御者變得更快、更有能力,但也爲對手做同樣的事情。隨着生成式人工智能在模仿人類方面變得越來越好,攻擊者的技術變得越來越具有欺騙性,也越來越難以被發現,這使得傳統的社會工程跡象更難以從第一接觸點識別出來。這些趨勢將持續到2024年,並且變得更加危險。重要的是,該行業的能力在來年繼續跟上攻擊者對生成式人工智能和5G等新興技術的使用。–Siroui Mushegian,Barracuda首席信息官
人工智能將在組織如何分析安全數據,並採取行動方面發揮越來越重要的作用:我們將开始看到使用人工智能與分析和運營手冊相關的可量化的好處。這些優勢將有助於緩解安全運營中心(SOC)分析師目前所做的一些繁重工作。人工智能還將有利於響應和緩解能力轉化爲操作能力。–Mike Spanbauer,Juniper Networks首席技術官
從生產力到危險:人工智能對身份安全的影響:在數字化轉型的更廣泛背景下,人工智能以前所未有的方式提高了生產力,並开闢了非凡的可能性,例如創建與人類創造的內容幾乎沒有區別的逼真圖像、視頻和文本。但在即將到來的一年裏,組織必須做好迎接人工智能這把雙刃劍的准備。這種超現實內容生成的能力具有深遠的影響,生成式人工智能的興起,將增強基於身份的攻擊。人工智能的發展與更廣泛的基於身份的風險和漏洞交織在一起,包括日益增長的網絡釣魚和魚叉式網絡釣魚活動的威脅,以及攻擊者針對特定個人或群體的技術,並且通常會包含已知目標感興趣的信息。由於人工智能的能力,這已經呈現出新的維度。進入2024年,組織必須保持警惕,了解技術風險,投資先進的安全措施,並全面了解其身份基礎設施,以便有機會抵御威脅行爲者。–Yaron Kassner,Silverfort聯合創始人兼首席技術官
人工智能將推動主動安全模型的採用。人們將更加關注主動方法和工具,包括防火牆、零信任、惡意軟件和強化。GenAI面臨的最主要威脅問題是,日益增長的隱私問題、無法檢測的網絡釣魚攻擊以及攻擊數量/速度的增加。應對人工智能帶來的復雜安全挑战,需要战略規劃和主動措施。安全問題以一種近年來從未有過的方式出現了。–Mike Loukides,O’Reilly Media副總裁
人工智能的快速應用將需要安全專業人員進行新的評估:ChatGPT面世已經一年了,自其首次亮相以來,我們已經看到人工智能工具的大規模擴散。說其改變了組織的工作方式是一種保守的說法。然而,隨着組織急於採用人工智能,許多組織對如何實現正確的安全控制缺乏基本的了解。到2024年,安全團隊面臨的最大挑战將是,妥善保護其組織已經使用的人工智能工具和技術。我們已經看到了針對GenAI模型的攻擊,如模型反演、數據中毒和提示注入;隨着行業採用更多的人工智能工具,這些新型應用中的人工智能攻擊面將會擴大。這將帶來一些挑战:改進人工智能的使用方式,以幫助提高效率和威脅檢測,同時應對這些工具引入的新漏洞。再加上不良行爲者也在使用這些工具來幫助自動化新威脅的开發和執行,這已經爲新的安全事件創建了一個成熟的環境。就像任何新技術一樣,企業在採用人工智能時需要平衡安全性、便利性和創新性,並確保其了解人工智能的潛在影響。–Chaz Lever博士,Devo安全研究高級總監
消費者將更加關注人工智能:最近的一項調查發現,超過一半(51%)的消費者曾是身份盜竊的受害者,或者認識受害者,81%的消費者擔心在網上購物時出現人工智能欺詐。消費者和企業有保護自己和彼此的社會責任,呼籲更多的安全工具來保護個人信息。企業對消費者層面還必須加強教育,以避免數據泄露,例如在线購物時,以及購物者在零售商網站上保存支付信息時。身份驗證工具,例如移動身份驗證,的重要性會越來越凸顯。–Tim Brown,Prove identity全球身份認證官
警惕2024年生成式人工智能的武器化:今年和未來的最大威脅涉及生成式人工智能的武器化,以驅動更復雜的網絡釣魚攻擊,以及我們將如何從安全角度解決這一問題。我們知道,人類的訓練不足以陰止商業電子郵件泄露(BEC)攻擊的成功。根據美國聯邦調查局(FBI)的《互聯網犯罪報告》,在2022年,僅BEC就造成了約27億美元的損失,其他類型的網絡釣魚造成了5200萬美元的損失。有了這樣的激勵,網絡犯罪分子越來越多地加倍進行網絡釣魚和BEC嘗試,而生成式人工智能進一步推動了這一過程。到2024年,我們將看到更多此類人爲攻擊,由於使用了人工智能,這些攻擊變得更加復雜和有針對性。我們需要重新考慮如何應對這一問題的路线圖。我們應該預料到,基於人工智能的攻擊會加速,變得更加普遍和有針對性,而且也會更加成功。攻擊者正在從依賴大量網絡釣魚電子郵件的發送方式,轉變爲現在針對具有某人身份、銀行帳戶或個人詳細信息的特定信息的人,這使得詐騙更加令人信服。我們將看到這些社會工程攻擊的針對性和復雜性,以及最終的成功都顯著增加。電子郵件將繼續成爲最大的威脅媒介,但我們現在在任何地方都可以看到這些攻擊,包括短信、語音消息、Slack等工作協作工具和社交媒體。在任何可以收到個人和商業消息的地方,都可能受到攻擊。–Patrick Harr,SlashNext首席執行官
安全數據共享成爲生成式AI驅動的網絡防御的關鍵:生成式AI是一種雙重用途的技術,有可能引領人類前進;但如果管理不當,則使人類倒退,甚至走向潛在的滅絕。API推動系統、軟件和數據點之間的集成,對於以安全、受保護的方式實現人工智能的潛力至關重要。人工智能在網絡防御中的應用也是如此。到2024年,組織將認識到安全的數據共享,對於構建強大、有彈性的人工智能驅動的未來至關重要。雖然人工智能無疑證明了人類的聰明才智和潛力,但其安全和合乎道德的應用勢在必行。這不僅僅是獲取人工智能工具;這是安全集成的責任和義務,主要是通過API促進的。–Ameya Talwalkar,Cequence Security首席執行官兼創始人
人工智能驅動的攻擊和防御:網絡犯罪分子將越來越多地使用人工智能(AI)來自動化和增強其攻擊。作爲回應,網絡安全防御將更多地依賴人工智能和機器學習來進行威脅檢測和自動事件響應,從而形成一場持續的算法之战。–Joseph Carson,Delinea首席安全科學家
威脅行爲者將贏得2024年人工智能之战:生成式人工智能的興起引發了一場激烈的爭論。組織會及時利用生成式人工智能,還是威脅行爲者會更快地利用生成式人工智能來獲得優勢?不幸的是,隨着威脅行爲者在採用生成式人工智能方面超過組織,天平將向黑暗面傾斜。准備好應對深度僞造、復雜的網絡釣魚活動,以及逃避端點安全防御的隱形有效負載的無情攻擊。這些挑战將以前所未有的方式,考驗網絡安全防御者的勇氣。–Aleksandr Yampolskiy博士,SecurityScorecard聯合創始人兼首席執行官
黑客將开始利用人工智能,制造一場危機:雖然這是偉大技術創新的意外後果,但我們將开始看到人工智能落入不良行爲者之手可能造成損害的證據。人工智能工具可以幫助黑客提高一個數量級的生產力。這將使其能夠更快地植入惡意軟件,發現漏洞,並利用弱姿態。 –Ratan Tipirneni,Tigera總裁兼首席執行官
人工智能已經爲網絡防御者提供了巨大的優勢,使其能夠提高能力、減少勞動並更好地防御威脅。我們預計這些功能和優勢將在2024年激增,因爲防御者擁有該技術,從而根據特定用例指導其开發。從本質上講,我們擁有主場優勢,並打算充分利用。另一方面,雖然我們的一线調查人員在2023年發現攻擊者使用人工智能的情況非常有限,但到2024年,我們預計攻擊者將使用生成式人工智能和LLM來個性化並緩慢擴展其活動。攻擊者將盡其所能來模糊良性和惡意人工智能應用之間的界限,因此防御者必須採取更快、更有效的響應行動。–Phil Venables,Google Cloud首席信息安全官
隨着網絡安全攻擊風險的上升,到2024年,政府必須採取積極主動的安全措施,確保其與居民的官方溝通渠道不被利用或受到影響,並且首先要非常謹慎地處理從居民那裏獲得的任何敏感信息。每個人都應該尋找的主要部分是,設置多重身份驗證的能力,使威脅行爲者盡可能難以進入潛在的通信系統,如Facebook或X(以前的Twitter)。–Ben Sebree,CivicPlus研發高級副總裁
生成式AI的新惡意用途將會出現:對人工智能的恐懼是有根據的,但不是我們預期的方式。內容創建雖然對網絡安全構成風險,但現代解決方案可以解決這一風險。真正的威脅是,生成式人工智能正在开發計劃和組織攻擊的能力。如果這種情況發生,那就意味着人工智能可以動態設計和執行攻擊,並利用互聯網上的信息來實現這一點。生成式人工智能有望消除我們相對於對手的最大優勢:復雜攻擊所需的時間和資源。如果生成式人工智能能夠策劃攻擊,就會極大地改變力量平衡。如今,黑客需要數周時間才能發現漏洞。未來,人工智能可以在幾秒鐘或幾分鐘內完成同樣的事情;而且不需要一支具有不同技能的黑客團隊,只需要一個人來處理人工智能。–Adrien Gendre,Vade首席產品和技術官
人們很容易通過極其負面的視角,來看待不良行爲者爲邪惡目的而對微調LLM的網絡安全影響。雖然人工智能確實將使黑客能夠擴展其所做的工作,但對於安全專業人員而言亦是如此。好消息是各國政府並沒有坐以待斃。構建定制LLM爲其他注重安全的政府機構和商業組織提供了一條可行的前進道路。雖然只有資金雄厚的大型技術企業才有資源從頭开始建立LLM,但許多企業都擁有專業知識和資源來微調开源LLM,以減輕不良行爲者的威脅。我們有責任確保,無論出於惡意目的而創建的是什么,都要有一種平等的、相反的力量,來爲善創造相同的工具集。–Aaron Mulgrew,Forcepoint解決方案架構師
自2022年以來,我們見證了數據安全和監管合規技術領域的顯著轉變。這一轉變標志着技術整合的开始,預計未來幾年將持續下去。隨着消費者尋求滿足數據安全和監管要求的解決方案,同時最大限度地減少所需的專業知識、成本和工作量,利基和單一解決方案產品和供應商越來越受到收購和合作夥伴的追捧。使2024年變得特別有趣的是最近的發展和收購,目前表明供應商將在新的一年中採取一些不同的路徑——一些供應商將優先考慮增強其雲功能,而另一些供應商將合並現有技術,以提供整合的一體化產品。其他企業只是想回答數據風險問題。這些發展將會有重疊,但最終的贏家將是消費者,其將看到企業數據資產覆蓋範圍的大幅增長、技能要求的降低,以及傳統細分技術之間協同作用的提高。–Terry Ray,Imperva副總裁兼首席技術官
對數據和人工智能的信任將是做出明智決策的首要條件,但這種信任只能通過了解來實現。首席執行官需要了解企業如何收集和構建數據、其數據基礎設施有哪些方面可以改進,以及在2024年能夠有效使用人工智能的局限性。這意味着數據基礎設施、質量、安全性和完整性,不能簡單地委托給首席技術官(CTO)、首席信息官(CIO)或首席數據官(CDO)。首席執行官必須非常熟悉其在人工智能中投入的內容,以便在適當的背景下對人工智能產生的結果採取行動。–Allison Arzeno,Assurance IQ首席執行官
人工智能投資的激增,將引發人工智能安全的重大轉變,重塑技術安全格局:2024年,隨着人工智能投資的持續激增,人工智能安全領域將出現關鍵轉變。隨着人工智能模型,特別是大型語言模型和生成式人工智能,被集成到不同行業軟件鏈的各個方面,保護這些技術免受快速注入和其他惡意攻擊等不斷變化的威脅的需求將達到前所未有的水平。盡管這些進步相對新穎,但嚴格的安全措施的必要性將受到關注,這標志着人工智能技術發展歷程中的一個分水嶺時刻。當我們繼續努力應對海量數據和新挑战的未知領域時,將見證共同努力來鞏固邊界,並確保這一變革性技術的負責任增長。–JP Perez-Etchegoyen,Onapsis首席技術官
到2024年,將過渡到人工智能生成的定制惡意軟件和網絡攻擊的全面自動化:網絡安全團隊面臨着使用生成式人工智能和其他高級工具快速自動化創建和執行惡意軟件的重大威脅。2023年,能夠生成高度定制惡意軟件的人工智能系統出現,爲威脅行爲者提供了新的強大武器。來年,重點將從僅僅生成定制的惡意軟件轉向自動化整個攻擊過程。這將使即使是不熟練的威脅行爲者也更容易發起成功的攻擊。–Adi Dubin,Skybox Security產品管理副總裁
生成式人工智能將成爲影子IT的最大推動者:傳統上對影子IT的擔憂主要圍繞成本控制,但今年,隨着生成式人工智能服務在企業內未經批准的使用迅速增長,這種風險已經擴大到知識產權和客戶數據暴露在組織之外。到2024年,我們預計,如果企業沒有強大的人工智能合規政策,和對員工使用的工具的可見性,那么其PII暴露率會更高。還可以,至少會出現幾起專有源代碼被無意中用於訓練不受IT控制的人工智能模型的事件。這對整個技術團隊和企業領導者來說是一個重要的警鐘,應迫切需要圍繞負責任的生成式人工智能使用制定積極主動的強制計劃。–Heath Thompson,Quest Software總裁兼總經理
以人工智能爲中心的監控系統:安全與安防:在發生安全事件時,傳統的視頻監控系統需要有人審查數小時的鏡頭以發現關鍵事件,這是一個耗時的過程,可能會延遲響應。視頻監控行業准備向人工智能驅動的安全系統轉型。傳統視頻監控系統正在向全面的人工智能安防解決方案演進。這些系統將記錄視頻片段,但也會做更多的事情來增強安全性。這種轉變反映了這樣一個事實:客戶對視頻不再那么感興趣,而更關心預防和解決安全問題。利用機器學習、算法和計算機視覺,人工智能安全和安保系統將有效處理和解釋視頻內容,從而實現實時威脅檢測。這些人工智能驅動的安全系統將成爲常態,提供智能、主動的解決方案,最大限度地減少問題,並增強各種類型環境的整體安全性。–Dean Drako,Eagle Eye Networks首席執行官
普遍存在的基於人工智能的網絡攻擊導致“多重危機”的出現:我們在2022年看到了人工智能的出現,看到了濫用人工智能作爲攻擊媒介的出現,這有助於進行網絡釣魚嘗試更敏銳、更有效。到2024年,預計隨着企業轉型,網絡攻擊將變得普遍。如今,人工智能愛好者有可能成爲人工智能即時注入的犧牲品。到2024年,攻擊者將發現利用人工智能更容易攻擊傳統IT和雲容器,以及越來越多的ICS和OT環境,從而導致“多重危機”的出現。這種危機不僅威脅到金融影響,同時還會產生連鎖效應,影響人類生活。由於地緣政治威脅的增加,關鍵計算基礎設施將面臨更大的威脅。網絡防御將實現自動化,利用人工智能來適應更新的攻擊模型。–Agnidipta Sarkar,ColorTokens副首席信息安全顧問
生成式AI的安全計劃:隨着企業开始將生成式AI項目從實驗階段轉向生產階段,對數據安全的擔憂變得至關重要。經過敏感數據培訓的LLM可能會被操縱,通過即時注入攻擊來暴露該數據。有權訪問敏感數據的LLM會帶來合規、安全和治理風險。圍繞在生產中保護LLM的工作,將需要組織更多地關注數據發現和分類,以便爲“提供”語言模型的數據創建透明度。–Dan Benjamin,Dig Security首席執行官兼聯合創始人
生成式人工智能將增強而不是取代網絡安全中的SOC分析師:隨着網絡安全領域的發展,由於其成熟度的限制,生成式人工智能在安全運營中心(SOC)中的作用將以增強而不是取代人類分析師爲特徵。新一代人工智能將主要通過必要的專業知識,來協助和提高SOC員工的能力,以解釋其輸出,這對中級分析師尤其有價值。企業將需要在營銷炒作中辨別真正的新一代人工智能貢獻,在投資於新一代人工智能等更多技術或僱傭額外的SOC分析師之間的爭論將持續下去,而人爲因素仍然至關重要。成功將取決於將這些工具與分析人員的工作流程結合起來,而不是依賴於膚淺的智能。 –Andrew Hollister,loghyth實驗室研發副總裁兼首席信息安全官
到2024年底,美國95%的消費者將成爲深度僞造的受害者:每個企業和消費者都在追隨人工智能潮流,欺詐者也不例外。網絡犯罪分子此前已經找到了欺騙系統的方法。2023年初,其被發現繞過ChatGPT的反濫用限制來生成和審查惡意代碼。現在,ChatGPT已完全連接到互聯網,並且能夠生成圖像——這是完美深度僞造的祕訣。2023年,52%的消費者認爲其可以檢測到深度僞造視頻,這反映出消費者的過度自信。深度僞造已經變得非常復雜,幾乎無法用肉眼檢測到,而現在生成式人工智能使其創作變得比以往任何時候都更容易。錯誤信息已經像野火一樣蔓延,而隨着即將到來的選舉,深度僞造只會變得更加復雜。到2024年底,絕大多數美國消費者都將接觸到深度僞造,無論是否知道這是合成媒體。–Stuart Wells,Jumio首席技術官
無論頭條新聞如何暗示,根據我們在安全運營中心親眼所見,2024年企業網絡面臨的最大風險不會來自人工智能發起的攻擊。人工智能有望爲防御者和攻擊者提供支持,但我們看到,當缺乏可見性或安全控制時,網絡攻擊實際上進展得最快。爲什么這一點值得注意?雖然最近圍繞人工智能的炒作和隨後的恐懼只會繼續下去,但最大的威脅將來自現有的漏洞和不安全的配置,而攻擊者不需要人工智能來利用這些漏洞。–Aaron Walton,Expel威脅情報分析師
2024年,人工智能只會讓不良行爲者更容易進行有針對性的攻擊。如今的攻擊很簡單,其將繼續瞄准我們從一开始就沒能彌補的缺陷——太多的連接,沒有足夠的可見性或洞察力來了解什么在與什么通信。在建立網絡彈性方面,更廣泛地採用零信任和“假設違約”方法確實是我們取得進展的唯一途徑。否則,我們將繼續看到網絡空間的巨大損失。 –Paul Dant,Illumio網絡安全战略與研究高級總監
存儲
人工智能將加速存儲和安全要求:從本質上講,生成式人工智能模型會產生大量數據。因此,在接下來的一年中,組織預計其數據存儲和安全需求將激增,從而導致對可擴展存儲解決方案的投資,無論是本地、基於雲還是混合。人工智能生成的數據的動態和連續生產將需要更頻繁的備份周期,企業將需要實施更強大的數據生命周期管理解決方案來確定數據保留、歸檔或刪除策略,確保只長期存儲有價值的數據。鑑於人工智能生成的見解對業務至關重要,確保備份的完整性也至關重要。鑑於人工智能生成的數據可能敏感且關鍵,加強的安全措施將是加速存儲難題的最後一部分,這意味着數據安全需要融入所有生成人工智能項目的結構中,包括預防、檢測和數據可恢復性。–Tony Liau,Object First產品副總裁
我們最終克服了數據孤島問題:到2024年,組織將越來越多地採用並行全球文件系統,真正實現數字化轉型。文件系統傳統上隱藏在專有存儲層中,該存儲層通常將文件系統和組織的數據鎖定到存儲供應商平台中。將數據從一個供應商的存儲類型移動到另一個供應商的存儲類型,或者移動到不同的位置或雲,涉及創建文件系統元數據和實際文件本質的新副本。文件副本的激增,以及跨孤島啓動副本管理所需的復雜性會中斷用戶訪問,並且是阻礙IT現代化和整合的關鍵問題。傳統的文件系統範例被困在供應商的存儲平台中,在單個數據中心的孤島中是不方便的。但越來越多的雲遷移使問題變得更加復雜,因爲擁有大量非結構化數據的企業,通常很難將所有文件完全遷移到雲中。與試圖通過將文件副本從一個地方轉移到另一個地方來管理存儲孤島和分布式環境的解決方案不同,可以跨越來自任何供應商的所有存儲類型,並跨單個或多個位置和雲的高性能並行全局文件系統更加有效。–Molly Presley,Hammerspace營銷高級副總裁
從專用存儲到AI平台的優化商品存儲:AI工作負載的增長,推動了針對速度和吞吐量進行優化的專用高性能計算(HPC)存儲的採用。但到2024年,預計將轉向商品化存儲。雲對象存儲、NVMe閃存和其他存儲解決方案將進行優化,以實現經濟高效的可擴展性。專用存儲的高成本和復雜性,將讓位於針對人工智能需求量身定制的靈活、更便宜、易於管理的商品存儲,從而使更多組織能夠使用經濟高效的解決方案,來存儲和處理數據密集型工作負載。–Haoyuan Li,Alluxio創始人兼首席執行官
綜合數據
人工智能生成的數據:數據一直被視爲做出明智決策的可靠且公正的方式。當我們應對人工智能生成數據的增長時,組織將需要花費時間和監督來驗證數據或風險幻覺結果。這些數據集的另一個重大影響是,數據在網絡攻擊中被修改的風險,這造成結果將是災難性的。我們依靠正確的數據來投票、接受政府服務、登錄工作設備和應用,並做出明智的、數據驅動的決策。如果組織或政府的數據被威脅行爲者修改,或者我們在未經驗證的情況下過於信任人工智能生成的數據,將會產生廣泛的後果。–Sri Mukkamala,Ivanti首席產品官
垂直行業/應用
強大的數據引擎將使金融數據移動成爲可能:金融組織剛剛开始意識到其數據的潛力,將其用於財務規劃和分析、預算規劃等方面的指導。然而,大部分數據仍然是孤立的,我們已經達到了這樣的程度:這些組織擁有如此多的數據,需要开始思考這些數據如何爲企業帶來價值,否則就會面臨失去競爭優勢的風險。到2024年,我們將看到金融組織尋求對其跨存儲庫的數據進行分類和協調,以實現新的解決方案。因此,數據引擎、數據平台和數據湖,將成爲有效理解和利用此類數據的關鍵工具。因此,我們預計金融科技應用將不斷增長,從而實現聚合數據分析、報告和可視化。–Bernie Emsley,insightsoftware首席技術官
人工智能將成爲2024年聯絡中心內持續學習文化培養的推動力,提高代理的批判性思維能力。認識到適應性的作用,聯絡中心管理者將分配資金用於培訓計劃,使代理能夠適應不斷變化的挑战,並認識到這些技能對未來生產力至關重要。超過60%的管理者認爲批判性思維是未來代理所需的首要技能。招聘策略將側重於表現出強大的批判性思維能力和不斷學習新技能的積極意愿的個人。–Dave Hoekstra,Calabrio首席產品官
全章【完】!
若想查看“2024年大數據行業預測”相關篇章,請點擊:
- 2024年大數據行業預測(一)
- 2024年大數據行業預測(二)
- 2024年大數據行業預測(三)
- 2024年大數據行業預測(四)
-
2024年大數據行業預測(五)
標題:2024年大數據行業預測(六)
地址:https://www.utechfun.com/post/315539.html