stephlee1231995-blog
Untitled
7 posts
Don't wanna be here? Send us removal request.
stephlee1231995-blog · 1 year ago
Text
關於我報名NPDP認證培訓這件事
得來不易且所費不貲的一張國際認證 NPDP認證課程是根據PDMA所發展的「新產品開發管理知識體系」規劃,明確定義國際化產品經理必須具備「新產品開發策略 」、「新產品開發流程 」、「產品組合管理 」、「產品開發團隊組織管理 」、「產品開發工具與衡量���標 」、「市場研究方法 」、「團隊組織與文化 」等七大知識體,是國際化產品經理的共通專業語言及工作標準,全球500強企業中有超過70%企業採用此標準,是全球公認理論與實務結合的新產品開發管理Best…
Tumblr media
View On WordPress
0 notes
stephlee1231995-blog · 1 year ago
Text
機器學習筆記(五)-Keras 2.0
Photo by energepic.com on Pexels.com 我們平常所使用的深度學習框架中,TensorFlow和Keras是常��排行榜之中排名前二的,以TensorFlow來說,它非常flexible ,你可以把它想成是一個微分器,甚至完全可以做deep learning以外的事情,因為它的作用就是幫你算微分。拿到微分之後呢,就可以去算gradient descent之類的。可是這麼flexible的toolkit學起來是有一定的難度。 Continue reading Untitled
Tumblr media
View On WordPress
0 notes
stephlee1231995-blog · 1 year ago
Text
從專案式開發到服務產品化的轉型,比你以為的更困難(上)
Photo by Fox on…
Tumblr media
View On WordPress
0 notes
stephlee1231995-blog · 1 year ago
Text
機器學習筆記(三)-偏誤從何而來?
Photo by Element5 Digital on Pexels.com 在做機器學習的三個步驟中,第一步就是定義一個function set(也就是model),而不同的model所對應的error是不同的。那麼,這些error是從何而來的呢? 了解error的來源其實相當重要,因為我們可以藉此對他挑選較適當的方式來增強自己model的performance。 Continue reading Untitled
Tumblr media
View On WordPress
0 notes
stephlee1231995-blog · 1 year ago
Text
Python深度學習:BackPropagation
Photo by ThisIsEngineering on Pexels.com 繼上次了解了Gradient Descent之後,我們已經知道訓練模型其實就是在試圖找出能使損失函數極小化的最佳權重w以及最佳偏值b,而方式就是透過對損失函數進行偏微分。然而,在一個非常多層的神經網路中要直接計算損失函數對w和b的偏微分是很困難的,再加上人們發現其實神經網路的每一層的梯度計算都會互相關聯,因此發展出了反向傳播法這樣一個更有效率進行微分計算的方法。 反向傳播法? 反向傳播法簡而言之,就是從輸出層(output…
Tumblr media
View On WordPress
0 notes
stephlee1231995-blog · 1 year ago
Photo
Tumblr media
(via 《芭比》女性主義: 你面前的每一個女人,都曾經是個女孩)
上週去電影院看了《芭比》,做為一個在「父權」社會但不自認為自己有「父權」思想的男性,很難說是喜歡或討厭這部電影,因此想透過文章跟大家聊聊關於這部電影中,值得稱讚的地方,和可以更好的地方。
0 notes
stephlee1231995-blog · 1 year ago
Text
《芭比》女性主義: 你面前的每一個女人,都曾經是個女孩
《芭比》劇照,瑪格羅比(Margo Robbie)、萊恩葛斯林(Ryan Gosling) 由瑪格羅比(Margo Robbie)、萊恩葛斯林(Ryan Gosling)主演的《Barbie 芭比》在7月20日在台灣上映,目前在爛番茄拿下89%的高分。導演葛莉塔潔薇(Greta…
Tumblr media
View On WordPress
1 note · View note