軟件開發(fā)人員越來越多地將人工智能工具融入到他們的工作中,但如此快速的采用并非沒有帶來困惑或沖突。他們和他們的經(jīng)理仍在努力弄清楚這些工具何時有用,何時有害,以及如何整合它們,避免產(chǎn)生比解決的問題更多的問題。
Stack Overflow 在其對 49000 名專業(yè)開發(fā)者的年度調查中發(fā)現(xiàn),到 2025 年,80% 的開發(fā)者將在工作中使用人工智能工具,這一比例近年來大幅上升。盡管這些工具的應用范圍廣泛且迅速,但人們對這些工具的信任度卻在下降。調查顯示,只有 29% 的受訪者表示信任人工智能的準確性,低于過去調查中的 40%。
這種差距——廣泛采用的同時,質疑聲也日益高漲——反映了 GitHub Copilot 或 Cursor 等 AI 編程助手的復雜影響。雖然很少有開發(fā)人員質疑它們的實用性,但許多開發(fā)人員仍在學習如何有效地應用這些工具,并了解它們的局限性。
當被問及最大的挫敗感是什么時,45% 的人指出,AI 生成的解決方案看似基本正確,但卻存在細微的缺陷。與明顯錯誤的代碼不同,這些“險些出錯”的代碼可能會引入隱藏的錯誤和邏輯錯誤,需要花費數(shù)小時才能解決——尤其是對于那些過于輕易接受 AI 建議的初級開發(fā)人員而言。
這種后果往往會最終回到 Stack Overflow 本身。超過三分之一的開發(fā)者表示,他們訪問該網(wǎng)站是因為與 AI 相關的問題,這意味著他們所信任的工具生成的代碼產(chǎn)生了他們無法自行解決的問題。
推理模型的最新進展提高了可靠性。然而,調查顯示,人工智能“接近但未完全”的問題仍將持續(xù)存在——這與預測文本生成的工作原理息息相關。這也是72%的開發(fā)人員拒絕“氛圍編碼”(即隨意粘貼AI建議的代碼用于生產(chǎn)環(huán)境)的原因之一。
即使存在這些挫折,也很少有人放棄這些工具。在某些情況下,管理人員會敦促團隊采用這些工具。更多情況下,開發(fā)人員自己也能從中受益——只要他們謹慎使用這些工具。
行業(yè)專家表示,關鍵在于培訓和心態(tài)。開發(fā)者應該將人工智能驅動的自動完成工具視為“陪練伙伴”,而不是沉默的“副駕”。那些只是簡單地瀏覽 GitHub Copilot 建議的人可能會留下漏洞;而那些利用它來發(fā)現(xiàn)問題或完善想法的人才能獲得最大的價值。
這些工具還具有教育意義。人工智能可以拉平新語言或框架的學習曲線,提供有針對性的答案,補充傳統(tǒng)的文檔搜索功能——Stack Overflow 多年來一直提供這一功能。
Stack Overflow 首席產(chǎn)品和技術官 Jody Bailey 告訴 Venture Beat,隨著人工智能改變開發(fā)者尋求幫助和分享知識的方式,Stack Overflow 正在重新思考其角色。她承認,該公司的訪問量確實有所下降,但她警告稱,許多人夸大了這一趨勢。
“盡管我們看到流量有所下降,但絕對沒有一些人認為的那么劇烈,”她說道,并補充道,“這種轉變使得 Stack Overflow 必須重新評估其在現(xiàn)代數(shù)字時代衡量成功的標準。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.