本文要點:
1.63% 的人擔心使用生成式人工智能時侵犯版權問題。
2.41% 的人擔心這些工具存在固有偏見。
3.83% 的人對需要跟上的工具數量感到不知所措,92% 的人不相信科技公司能夠進行自我監管。
隨著越來越多的機構在工作中使用生成式人工智能,人們對這些工具的信任程度產生了擔憂。
Human Driven AI 是一項針對代理機構和營銷人員的人工智能輔導和培訓服務,本月對1,100名美國營銷人員(包括 內部和代理團隊)進行了調查,詢問他們最常用的人工智能工具、這些技術即將面臨的挑戰、監管和當前培訓以及他們組織中的教育。公司規模各不相同:42% 的受訪者來自擁有101-2,000名員工的公司,30% 來自擁有2,000名以上員工的公司,28% 來自擁有21至100名員工的組織。
根據調查,63% 的人擔心使用生成式人工智能時侵犯版權問題,而41% 的人擔心這些工具存在固有偏見。另外,83% 的人對需要跟上的工具數量感到困惑,92% 的人不相信科技公司能夠進行自我監管。
隨著人工智能工具的使用不斷增長,機構還面臨監管和道德問題。一些公司在指導客戶了解人工智能的影響時采取謹慎的態度,他們相信人類在內容開發過程中仍然是至關重要的一部分。
另外,也有許多機構希望能夠獲得相關的專業發展,并希望他們的雇主提供人工智能教育。然而,目前仍然存在著使用人工智能不正確或不道德的風險,因此有必要制定行業指南來規范人工智能的使用。
可見,機構對于生成式人工智能的信任程度存在著一定的擔憂,需要在使用這些工具時謹慎對待,并加強相關的教育和培訓。
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...