本文分類:news發(fā)布日期:2026/2/24 21:52:12
相關(guān)文章
2025必備10個降A(chǔ)IGC工具,繼續(xù)教育者必看!
2025必備10個降A(chǔ)IGC工具,繼續(xù)教育者必看!
AI降重工具:讓學術(shù)寫作更從容
隨著人工智能技術(shù)的廣泛應(yīng)用,論文創(chuàng)作中出現(xiàn)的AIGC痕跡越來越成為學術(shù)界關(guān)注的焦點。對于繼續(xù)教育領(lǐng)域的學習者和研究者而言,如何在保證內(nèi)容質(zhì)量…
建站知識
2026/2/22 0:25:14
Jupyter Notebook代碼折疊:提升長腳本閱讀體驗
Jupyter Notebook代碼折疊:提升長腳本閱讀體驗
在深度學習項目中,你是否曾面對一個長達上千行的 Jupyter Notebook 文件,翻來覆去卻找不到訓練循環(huán)的位置?當你試圖向同事解釋模型結(jié)構(gòu)時,對方卻被滿屏的數(shù)據(jù)預(yù)處理代碼淹…
建站知識
2026/2/15 19:03:22
GitHub Gist分享代碼片段:快速傳播PyTorch技巧
GitHub Gist 分享代碼片段:快速傳播 PyTorch 技巧
在深度學習項目中,最讓人頭疼的往往不是模型設(shè)計本身,而是環(huán)境配置——尤其是當團隊成員各自在不同機器上折騰 CUDA 驅(qū)動、cuDNN 版本和 PyTorch 兼容性時。一個“別人能跑,我不能…
建站知識
2026/2/17 6:42:27
HuggingFace Inference API調(diào)用:無需GPU運行大模型
HuggingFace Inference API調(diào)用:無需GPU運行大模型
在今天,一個沒有獨立顯卡的學生筆記本,也能“跑”大模型了。
這聽起來像天方夜譚——畢竟我們常聽說,訓練一個BERT需要數(shù)塊A100,推理LLaMA-3至少得32GB顯存。但現(xiàn)實是…
建站知識
2026/1/21 6:51:52
《代碼大全2》前三分之一觀后感
通讀《代碼大全2》前三分之一內(nèi)容,我最大的收獲是打破了“代碼僅為實現(xiàn)功能工具”的固有認知,深刻體會到編程是一門需嚴謹邏輯、系統(tǒng)思維與工匠精神的工程學科。這部分內(nèi)容以“打好編程基礎(chǔ)”為核心,從代碼可讀性、…
建站知識
2026/1/23 12:16:19
AI應(yīng)用架構(gòu)師的獨特視角:人機協(xié)作新范式流程設(shè)計最佳實踐
AI應(yīng)用架構(gòu)師的獨特視角:人機協(xié)作新范式流程設(shè)計最佳實踐關(guān)鍵詞:人機協(xié)作、AI應(yīng)用架構(gòu)、流程設(shè)計、角色定位、反饋循環(huán)、責任邊界、持續(xù)優(yōu)化
摘要:當AI從“工具”變成“協(xié)作伙伴”,我們需要重新思考人與AI的關(guān)系——不是“誰替代誰…
建站知識
2026/2/22 2:39:20
12.22 - 12.28 周總結(jié)
12.22 - 12.28 周總結(jié)這一周練習了關(guān)于字符串專題。
復習了可持久化 trie,并學習了 AC 自動機。
AC 自動機
可以記錄多個串互相的前綴關(guān)系,并用一個文本串可以匹配多個模式串。
簡單來說就是在 trie 樹上找 fail,具…
建站知識
2026/2/24 21:40:05

