本篇文章更新時間:2019/02/16
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知。
一介資男的 LINE 社群開站囉!歡迎入群聊聊~
如果本站內容對你有幫助,歡迎使用 BFX Pay 加密貨幣 或 新台幣 贊助支持。
業務關係,幫國內某知名醫美代管網站伺服器,就在上上週接到電話
「網站在下午五點多的時候掛掉將近十分鐘,麻煩協助處理。」
「哇,真假,我查一下。」...「疑,很正常耶!是有在做什麼行銷廣告活動嗎?」
「哦,我們正在跑 LINE@ 行銷!」
「請問是多少人的帳號呢?」
「不多拉,我想大概幾萬而已吧(!?)」
「.............」
恩,原本沒想到一個官網會開始這麼有作用了。這個 LINE@ 行銷廣告活動一送出通知,不多,抓十萬人的 1% ,1000 人收到訊息後「同時」湧進你網站!
這不是 DDoS 攻擊是什麼拉XDDD
想都沒想到一個普通日常的週三下午,網站會這樣被「良性流量」給擊垮十分鐘!
在這邊解決過程就不多提了,重點是客戶與一般人在這時候的反應大多都是「能不能升級主機啊?要怎樣的主機才夠撐?」
不過,解決這個問題要思考的不只是主機,也不是升級主機就夠的,畢竟這種突發事件並不是天天發生,升級後接下來行銷活動結束每天不是都在燒錢嗎?
期間回客戶問題的信如下:
「說實在,還真是無法衡量是否扛不扛得住。
伺服器的瓶頸是綜合面的,對使用者來說連不上就是壞掉這個簡單說法,但伺服器上這可能是兩種狀態:
- 正在排隊
- 資源崩潰(過多請求,資源請求太多被系統給暫停服務)
一個再好的伺服器也都有某一時間下最高請求量的組態方法,這種組態技術就是可以分成上述兩種:
- 保證可以服務到你,但你要等,等多久我不確定。(反之:沒等到前就是白白一片)
我只能先升級上去,確保有比較高一點的資源可以操作,剩下就是看情況了!」
就這件事來看,客戶只會想要知道一次能解決的方法,而偏偏你要跟市場打架是不可能打贏的,只有透過觀察來反應。整個兩週專案實驗結果還是把伺服器升級到下個檔次與調整到最佳狀態搭配 CDN 給撐下來了!還不至於會需要臨時叢集架構來處理,目前應該算不錯的狀態。(錢不是問題,但這個根據經驗還有調配空間的案例,沒必要在這邊不用技術改用錢去對抗,感覺上就會 Low 不少)
伺服器部分經驗與技術的關鍵就是如何搭配硬體資源最大化正在排隊的部分,讓伺服器不至於連要遠端控制都進不去,導致只能強制重開機。
但其實與一台主機服務性能上更息息相關的不是那些硬體數值,而是上面跑的服務是否能夠妥善運用資源不做浪費。(參考:Building with Node.js at Netflix,一個 Netflix 自從改 NodeJS 架構後省了 3/4 伺服器的故事)
附圖是 CDN 快取的截圖,看那突然長起的小山丘是不是挺迷人呢?哈
#LINE #CDN #DDoS #行銷 #Netflix #案例 #技術相關 #新聞資訊 #行銷 #伺服器 #效能 #調整 #攻擊
![[案例] 快防禦,別讓 LINE 行銷攻破你網站](https://www.mxp.tw/wp-content/uploads/2017/08/20994314_1670561946347578_4008532626911045978_n.png)
- Powered by Mxp.TW -FB2WP-