怎么查看pos機(jī)的ip

 新聞資訊2  |   2023-08-01 10:48  |  投稿人:pos機(jī)之家

網(wǎng)上有很多關(guān)于怎么查看pos機(jī)的ip,你想知道的都在這里了的知識(shí),也有很多人為大家解答關(guān)于怎么查看pos機(jī)的ip的問題,今天pos機(jī)之家(www.fqd168.com)為大家整理了關(guān)于這方面的知識(shí),讓我們一起來看下吧!

本文目錄一覽:

1、怎么查看pos機(jī)的ip

怎么查看pos機(jī)的ip

本文根據(jù)云棲大會(huì)全面上云專場(chǎng)演講內(nèi)容整理,關(guān)注阿里巴巴云原生公眾號(hào),回復(fù)“遷移”獲得本文 PPT

今天上午王堅(jiān)博士講了一句話我比較有感觸,大家做系統(tǒng)的時(shí)候,一定要想下你的系統(tǒng)的數(shù)據(jù)是怎么流轉(zhuǎn),這些系統(tǒng)的數(shù)據(jù)是怎么形成閉環(huán)。我們?cè)谠O(shè)計(jì)阿里云的 K8s 容器服務(wù) ACK 的時(shí)候也是融入了這些思考。

容器遷云解決方案一覽

首先是和大家先看一下整個(gè)容器上云的解決方案。首先因?yàn)槟阋呀?jīng)做過容器,所以當(dāng)你容器上云的時(shí)候,實(shí)際上這個(gè)事情是非常簡(jiǎn)單的,我們只需要提供的相應(yīng)的工具,幫助大家把容器鏡像遷入阿里云同時(shí)通過工具把 K8s 的配置遷到阿里云,以及可以用 DTS 工具把數(shù)據(jù)庫遷入到阿里云。這樣我們就可以完成一個(gè)完整的容器化上云的過程。

所以這個(gè)過程其實(shí)非常簡(jiǎn)單,但是上完云之后,不是說我們的 K8s 原來怎么玩現(xiàn)在還是怎么玩。我們希望大家從上云的過程中有些收益,所以我們希望提供一些更高效敏捷的一些方式給到大家,包括怎么去做 DevOps,包括我們?cè)趺慈プ霭踩能浖?yīng)鏈,以及我們做灰度發(fā)布。

同時(shí)我們希望成本更優(yōu)一點(diǎn),關(guān)鍵是大家上完云之后的成本怎么去核算,以及怎么去節(jié)約。所以容器上云后我們?cè)趺慈プ龈玫膹椥陨炜s、做自動(dòng)化的運(yùn)維,這個(gè)是大家需要在上云的過程中去考慮的問題。同時(shí)我們需要更好的管理我們的系統(tǒng),一定要做到更好的高可用,而且要做到一個(gè)全局的管理。包括現(xiàn)在很多的公司已經(jīng)在做混合云管理,這個(gè)也是大家在上云的過程中需要考慮的問題。

阿里云的 K8s 容器服務(wù) ACK 到底長(zhǎng)什么樣,給大家一個(gè)概覽圖:

中間的 K8s 部分就跟大家去玩開源自建是一個(gè)道理,這個(gè) K8s 沒有什么本質(zhì)上的區(qū)別。但是上了阿里云之后,我們希望給到大家的是一個(gè)完整的體系,而不是單單一個(gè) K8s。所以我們會(huì)把底下的部分跟我們的 GPU 服務(wù)器、跟我們彈性計(jì)算 ECS、跟我們的網(wǎng)絡(luò) VPC、跟我們的 SLB 打通。這個(gè)在上完阿里云 ACK 之后,我們一鍵的方式把它全部集成好,所以大家不用再去關(guān)心阿里云的 IaaS 層應(yīng)該怎么去做,我們希望給大家屏蔽掉這一層復(fù)雜性。

存儲(chǔ)也是一樣的道理。存儲(chǔ)的話,就是所有的阿里云的存儲(chǔ)我們?nèi)慷家呀?jīng)支持完了,但是現(xiàn)在我們還在做什么事情?我們?cè)诎寻⒗镌频娜罩痉?wù)、阿里云的中間件服務(wù),包括我們 APM 的 ARMS、我們?cè)票O(jiān)控、以及我們高可用服務(wù) Ahas 等全部對(duì)接在一起,讓大家有一個(gè)更高可用的環(huán)境,以及一個(gè)更安全的環(huán)境。

我們給到大家一個(gè) K8s 還是個(gè)原生態(tài)的 K8s,大家可能會(huì)問我們你的 K8s 跟我自己的 K8s 到底有什么區(qū)別,所以還是很簡(jiǎn)單的回答大家這個(gè)問題。首先我們?cè)谏显频倪^程中給到大家永遠(yuǎn)是一個(gè)非云廠商鎖定的 K8s。就是你在線下怎么玩 K8s,在線上也可以怎么玩 K8s。如果你哪天你想下云的時(shí)候,你一樣是可以下去的,所以這是我們很堅(jiān)持的一個(gè)宗旨,就是我們不做任何的鎖定。

是我們會(huì)注重什么事情?

首先我們會(huì)去考慮怎么做好安全,就是當(dāng)你的 K8s 有問題時(shí),我們?cè)趺醋隹焖夙憫?yīng),做 CVE 快速修復(fù),然后我們?cè)趺慈ゴ蜓a(bǔ)丁,我們?cè)趺醋霭踩庸蹋坏诙褪俏覀兏⒗镌频恼麄€(gè)生態(tài)做結(jié)合。因?yàn)榘⒗镌剖俏覀兏煜ぃ晕覀兏⒗镌频牡讓蛹夹g(shù)設(shè)施怎么打通,這個(gè)事情我們自己會(huì)做得更好一點(diǎn)。

我們現(xiàn)在也跟神龍服務(wù)器在一起,我們知道怎么讓神龍服務(wù)器發(fā)揮更好的性能。同時(shí)我們還有很多創(chuàng)新,這樣可以幫助大家更好的做好彈性。最重要的一點(diǎn)實(shí)際上是:我們做了那么久,已經(jīng)積累了超過幾千家的在線客戶,這也是我們最大的優(yōu)勢(shì)。所以我們從幾千家的客戶里面濃縮回來大家所需要的最佳實(shí)踐,我們收集完、整理完之后要返回給大家,幫助大家去用 K8s 上生產(chǎn),這也是我們給客戶最大的一個(gè)核心價(jià)值。

容器上云之“攻”

上完云之后,怎么用好 K8s?怎么提升你的整個(gè)管理能力、提升你的系統(tǒng)效率?這個(gè)是我們要講的“進(jìn)攻”的部分。我們主要分三個(gè)方面去講:

第一個(gè),怎么跟我們阿里云的裸金屬服務(wù)器做結(jié)合;第二個(gè),我們會(huì)提供性能比較優(yōu)化好的網(wǎng)絡(luò)插件 Terway;第三個(gè),怎么做好靈活的彈性。物理裸金屬服務(wù)器神龍

神龍裸金屬服務(wù)器已經(jīng)跟我們的容器平臺(tái) ACK 做了無縫融合。它最大的好處是什么?在容器化的時(shí)代,我們不需要再去考慮虛擬化的問題。所以兩者的融合基本上是一個(gè)零虛擬化的開銷的方案,容器直接使用到物理上的資源。在我們的神龍服務(wù)器里面,給到大家的實(shí)際上是個(gè)真實(shí)的 Memory 以及真實(shí)的 CPU,但它因?yàn)槭褂昧税⒗镌茖S械?MoC 卡技術(shù),所以它可以直接對(duì)接到阿里云的云盤、對(duì)接到阿里云的 VPC 網(wǎng)絡(luò)。這樣的話它的體驗(yàn)跟所有的 ECS 是一個(gè)道理。

這樣容器化去做資源切割的時(shí)候,我們就不會(huì)再受虛擬化的影響。同時(shí),它帶來了另外一個(gè)好處就是它有一個(gè) offload 的技術(shù)。這樣網(wǎng)卡的中斷會(huì)下沉到下面的這張卡上去,當(dāng)你的流量比較大的時(shí)候,它將處理所有的網(wǎng)卡中斷的開銷,并不開銷你本身的 CPU,所以我們可以得到一個(gè)更極致的計(jì)算性能。

同時(shí)因?yàn)樗拿芏缺容^高,它基本上是個(gè) 96 核的機(jī)器,當(dāng)它加入容器集群之后,這個(gè)集群的容器的密度相對(duì)來說會(huì)比較高,所以它成本節(jié)約會(huì)比較好一點(diǎn)。另外,它是整個(gè)阿里云彈性計(jì)算資源里面最高規(guī)格的網(wǎng)絡(luò)帶寬,單獨(dú)給 30G 的網(wǎng)絡(luò)帶寬帶給到 VPC,同時(shí)有 20G 的網(wǎng)絡(luò)帶寬留給云盤。這樣大家可以比較好的去部署高密度的容器,同時(shí)它還是可以支持跟 ECS 是混搭組建集群的。這個(gè)特點(diǎn)在彈性場(chǎng)景里面特別高效。你日常的流量可以用到神龍服務(wù)器去構(gòu)建,當(dāng)你要去做動(dòng)態(tài)伸縮的時(shí)候,你可以用 ECS。這樣兩種彈性資源一起使用會(huì)幫助大家把成本做到最優(yōu)。

性能優(yōu)化網(wǎng)絡(luò) Terway

另外一個(gè)方面,就是網(wǎng)絡(luò)支持的情況了。網(wǎng)絡(luò)的話是由阿里云獨(dú)創(chuàng)的 Terway 網(wǎng)卡的多 IP 方式。實(shí)際上我們利用了阿里云里面的 ENI 的彈性網(wǎng)卡來構(gòu)建我們的容器的網(wǎng)絡(luò),這樣的話我們可以用一個(gè) ENI 來支持 10 個(gè) IP,來構(gòu)建我們的 POD 網(wǎng)絡(luò)。它最大的好處就是它不會(huì)再受 VPC 路由表大小的約束。POD 跟你的 ECS 或者神龍服務(wù)器在同一個(gè)網(wǎng)絡(luò)平面,所以它的網(wǎng)絡(luò)中轉(zhuǎn)開銷是非常小的。

同時(shí)我們還支持了 Network Policy,就是 K8s 里面標(biāo)準(zhǔn)的 Network Policy,以及我們擴(kuò)展了帶寬限流。這樣的話也是避免大家不知道怎么去做網(wǎng)絡(luò)內(nèi)部的 POD 跟 POD 之間的安全管控,以及去做 POD 之間的網(wǎng)卡的帶寬的約束,避免一個(gè) POD 可以打爆整個(gè)網(wǎng)卡,這樣的話就會(huì)比較好的去保護(hù)你的網(wǎng)絡(luò)。而這個(gè)只需要添加 annotation 就可以完成,不影響 K8s 的兼容性。

靈活彈性

最后一個(gè)就是我們要去做靈活的彈性。做 K8s 有個(gè)說法:你不做彈性基本上就相當(dāng)于沒玩 K8s。所以,我們給大家提供了一個(gè)完整彈性的體系,除了標(biāo)準(zhǔn)的 HPA 去做伸縮 POS 之外,我們實(shí)際上還提供了阿里云開源的 CronHPA,就是定時(shí)的方式來支持大家去伸縮 POD。我們還提供了額外的指標(biāo),來幫助大家按指標(biāo)的方式來去做彈性伸縮。包括我們?nèi)辗?wù) SLS 里面提供的 Ingress Dashboard,拿到你的 QPS 以及 Latency,或者從我們的 Arms、Ahas 拿到你的每一個(gè) POD 流量的情況,每個(gè) POD 延遲的情況來做對(duì)應(yīng)的伸縮。

因?yàn)榇蠹抑滥愕某绦蚩赡荛_發(fā)出來之后,不一定能那么好的完美地去適配 CPU。也就是說不是你所有的 POD 都能夠按照 CPU 的方式來做伸縮,這個(gè)時(shí)候你就需要根據(jù)我們提供的額外指標(biāo)的方式來做伸縮,這是公有云里面給大家一個(gè)比較好的彈性的方式。

另外一個(gè)問題就是,當(dāng)你的資源不夠的時(shí)候,你可能就需要買更多的機(jī)器來支持容量,這個(gè)時(shí)候我們提供了 Autoscaler,它會(huì)對(duì)接阿里云的 ESS 來幫助大家自動(dòng)化的方式來夠買機(jī)器,然后再重新擴(kuò)容。通過這種方式,來幫助大家做好自動(dòng)化的運(yùn)維。

但是這里也有一個(gè)問題,你可能希望這個(gè)伸縮速度會(huì)更快。但是從購買臺(tái)機(jī)器到冷啟動(dòng)再到加入 K8s 集群,然后再去擴(kuò)容器這個(gè)時(shí)間會(huì)比較長(zhǎng),如果你的業(yè)務(wù)是一個(gè)突發(fā)業(yè)務(wù)的話,可能你等不及機(jī)器伸縮。為了適配這個(gè)場(chǎng)景,我們現(xiàn)在又融合了阿里云的 ECI,利用彈性容器實(shí)例來做這個(gè)事情,我們做了一個(gè)虛擬化的 Kubelet,來對(duì)接 ECI。這個(gè)時(shí)候大家不需要再去買機(jī)器,你可以直接用擴(kuò)容的方式去做就好了。

所以它最大的好處是什么?就是說你不需要額外買機(jī)器,你只需要根據(jù)你的業(yè)務(wù)的情況下,直接伸縮容器,它會(huì)到 ECI 的池子里面去找到對(duì)應(yīng)的空閑容器,然后掛到你的集群里面去。當(dāng)你不需要的時(shí)候,它更快,它直接就可以釋放掉了。因?yàn)榇蠹抑溃绻闶瞧胀ǖ姆绞剑氵€要等那臺(tái)機(jī)器所有的容器全釋放才可以釋放機(jī)器,這時(shí)還有一個(gè)時(shí)間差。

大家知道,彈性好最耗錢的地方就是時(shí)間。所以我們用最快的方式來幫大家去節(jié)約掉這個(gè)成本。同時(shí)大家如果用這樣的方式,還可以不去做容量規(guī)劃,因?yàn)楹芏鄷r(shí)候很難去做容量規(guī)劃。如果今天有 100QPS,明天又有 1000個(gè)QPS,我不知道這個(gè)容量怎么做,這個(gè)時(shí)候利用 ECI 的技術(shù),大家就可以避免這個(gè)容量規(guī)劃了。

當(dāng)然我前面提到,阿里云 ACK 制定了很多自定義的指標(biāo),所以大家只需要去配置對(duì)應(yīng)的定制指標(biāo),根據(jù) QPS 也好,平均 Latency 也好,還是 P99、P999 這些相應(yīng)的最大延遲指標(biāo),以及你的入口流量的指標(biāo),來做相應(yīng)的伸縮。所以大家只需要根據(jù)這些指標(biāo)來配置對(duì)應(yīng)的 HPA 的擴(kuò)容伸縮就可以了。這樣的話,大家比較容易去找到適配你業(yè)務(wù)場(chǎng)景的方式。特別是對(duì)于電商場(chǎng)景來講,如果大家比較有經(jīng)驗(yàn)的話,大家很多時(shí)候根據(jù) QPS 去做是比較合理的。

另外,伸縮不是做某一個(gè)業(yè)務(wù)/應(yīng)用的伸縮。大家一定要記住一點(diǎn)就是:伸縮一定是一個(gè)一體化的聯(lián)動(dòng)性的伸縮,所以大家一定要從接入層到服務(wù)層同時(shí)考慮伸縮性。我們利用了 Ingress Dashboard 的指標(biāo)(后面監(jiān)控會(huì)提到),拿到了 QPS,可以伸縮我們的接入層,同時(shí)我們可以根據(jù) APM 的系統(tǒng),就是像阿里云的 ARMS 這樣一個(gè)系統(tǒng),拿到對(duì)應(yīng)的 Latency 來伸縮我們服務(wù)層。這樣的話,大家可以構(gòu)造一個(gè)聯(lián)動(dòng)性的全局性的伸縮。不然很可能你在入口層面上做了一次伸縮,直接把流量倒了進(jìn)來,最后打爆了你的服務(wù)層。

大家一定要考慮這一點(diǎn),就是所有的伸縮一定是聯(lián)動(dòng)性、全局性的。

容器上云之“守”

前面講了,我們?cè)趺慈ジ玫厝プ龉芾恚恳约拔覀冇惺裁春玫姆绞絹硖岣呶覀兊男阅埽康谌糠值脑捊o大家講一下怎么去做防守,主要有三部分:

怎么做智能化運(yùn)維;怎么做安全體系;怎么去做監(jiān)控體系。

智能化運(yùn)維

從管理角度來講的話,大家不可或缺的點(diǎn)就是一定要去做灰度。從接觸的情況來看,很多同學(xué)實(shí)際上并沒有完全做到全灰度才上線。但在阿里云這個(gè)是強(qiáng)制要求,在 K8s 里面有方便的方式,大家可以用 Ingress 的方式來做灰度。其實(shí)比較簡(jiǎn)單,就是大家原來有一個(gè)舊的服務(wù),那重新啟動(dòng)一個(gè)新的服務(wù),都掛同一個(gè) Ingress 上。那你在 Ingress 上面配置流量分割。可以是 90% 的流量割了舊服務(wù),10% 的流量給到新的服務(wù),這樣的話,Ingress 會(huì)幫你做一個(gè)分流,這是比較簡(jiǎn)單的一個(gè)方式。

但是這里面還有個(gè)問題:大家怎么知道什么時(shí)候能不能把 90% 的流量再切割10%流量過去新服務(wù),讓 10% 變成 20%?這個(gè)是大家目前比較痛苦的一個(gè)地方。因?yàn)楹芏鄷r(shí)候發(fā)現(xiàn)很多同學(xué),他們最常見的方式是什么?就是找了一個(gè)測(cè)試同學(xué)過來,幫我測(cè)一下新的服務(wù)到底 OK 不 OK,如果 OK 它就直接將 90% 的流量下降到 80%,將 10% 的流量漲到 20%,但當(dāng)它漲上去的時(shí)候你的系統(tǒng)立馬出問題。

因?yàn)槭裁矗恳驗(yàn)槟銢]有很好的依據(jù)去做這個(gè)流量的切割,你只是去看測(cè)試結(jié)果,只是看了當(dāng)時(shí)那一刻到底對(duì)還是不對(duì),而不是全局性的來看。所以在阿里云的 K8s 里面,我們會(huì)幫助大家集成好對(duì)應(yīng)的灰度監(jiān)控,然后幫助大家去做好可依據(jù)的灰度。我們會(huì)同時(shí)幫助大家去對(duì)比新的服務(wù)、舊的服務(wù)、當(dāng)前的流量、平均的延遲、錯(cuò)誤率、成功率、最大的延遲等等。通過這些去看新服務(wù)到底是不是已經(jīng)滿足你的真實(shí)的要求,以這個(gè)對(duì)比的依據(jù)來看,你流量的是否應(yīng)該再繼續(xù)切割。

就像剛才這例子一樣,新服務(wù) 10% 要變成 20%,很可能你的延遲已經(jīng)在增大、你的錯(cuò)誤率已經(jīng)在升高,這個(gè)時(shí)候你并不應(yīng)該再去增加流量,而是要做回滾。大家一定要記住一點(diǎn),就是我們?cè)谶\(yùn)維的過程中,一定要做到運(yùn)維所有的動(dòng)作一定要有依據(jù)。所以我們利用 Ingress Dashboard 給大家去做相關(guān)有依據(jù)的灰度。

另外是給大家做好對(duì)應(yīng)的主機(jī)上在容器層面上的對(duì)應(yīng)的監(jiān)測(cè)和預(yù)警。在開源體系里面有一個(gè)組件叫 NPD,然后我們阿里云又開一個(gè)事件告警器叫 Eventer。我們把這兩個(gè)東西打成了一個(gè) Helm 包,在應(yīng)用目錄里面提供給大家。大家可以做好相應(yīng)的配置之后,當(dāng)你發(fā)生 Docker 掛了、當(dāng)你發(fā)現(xiàn)主機(jī)時(shí)間同步有問題,或者程序沒開發(fā)好造成 FD 被打爆,這個(gè)時(shí)候我們會(huì)把相應(yīng)的通知,通過釘釘?shù)姆绞桨l(fā)給大家。

大家一定要記住在上完容器之后,你還在容器層面上的主機(jī)層的監(jiān)控,跟你普通的非容器的主機(jī)監(jiān)控是有區(qū)別的。所以大家接下來一定要想辦法把容器層面的主機(jī)監(jiān)控再重新補(bǔ)回去。

另外,我們還一直在深化去做一些智能化的運(yùn)維。例如容器上云后還必須做一些相關(guān)優(yōu)化的配置。大家知道,上云之后,K8s 應(yīng)該用什么機(jī)器?用什么的 SLB?用什么網(wǎng)絡(luò)?這些東西都需要做一個(gè)選優(yōu),根據(jù)你的業(yè)務(wù)場(chǎng)景去做選優(yōu),怎么去選呢?我們會(huì)做一些相關(guān)的優(yōu)化的推薦,幫助大家去做一些相應(yīng)的深度的監(jiān)測(cè),你到底有沒有改過哪些配置,哪些配置被你改錯(cuò)了等等。

如果有一些錯(cuò)誤的配置,智能運(yùn)維會(huì)提醒你要去做一些糾錯(cuò),減少大家后期發(fā)現(xiàn)錯(cuò)誤的糾錯(cuò)高成本。這一塊,我們還一直在深化中。

安全與信任

“防守”的第二件事情是要做安全。上云之后,大家會(huì)覺得就主機(jī)層面上的安全不一定夠了。所以在容器管理層面上大家還需要去看看這個(gè)安全應(yīng)該怎么做。安全的話,就是大家還是要記住一點(diǎn)就是安全一定要做全方位的安全,大家不要把安全認(rèn)為是一個(gè)很小的事情,特別是很多公司是沒有安全團(tuán)隊(duì)的,所以這個(gè)時(shí)候運(yùn)維要承擔(dān)好這個(gè)職責(zé)。

安全的話,我們主要是分三個(gè)方面來做安全。

第一就是“軟性安全”,例如社區(qū)層面的合作,然后是阿里云安全團(tuán)隊(duì)來幫我們做相應(yīng)的一些“加持”,同時(shí)我們也會(huì)給客戶做一些定期的安全的賦能。另外一塊的話就是 IaaS 層的安全,我們會(huì)做一些 CVE 的修復(fù)。我們還有阿里云自己的 IaaS 加固,以及我們現(xiàn)在還有鏡像漏洞掃描。阿里云的鏡像倉庫已經(jīng)支持了鏡像掃描,所以這里也提醒大家:每次上業(yè)務(wù)、上生產(chǎn)之前,務(wù)必做一次鏡像掃描,所有的開源社區(qū)提供的鏡像都可能有漏洞。所以怎么去做好這些漏洞的防護(hù),大家一定要下好功夫。同時(shí)我們提供對(duì)應(yīng)的磁盤的加密,這一塊大家可以做好數(shù)據(jù)的加密。在 K8s 運(yùn)行層面的話,我們團(tuán)隊(duì)做的更多的是在 K8s 審計(jì)日志方向,我們過會(huì)兒講一下。包括我們會(huì)有更嚴(yán)密的 K8s 的這種安全的配置,以及我們會(huì)去做容器運(yùn)行時(shí)的實(shí)時(shí)安全監(jiān)測(cè)。大家有興趣的話,可以看看阿里云安全的產(chǎn)品,他們已經(jīng)支持了安全運(yùn)行態(tài)的這種實(shí)時(shí)檢測(cè)。

同時(shí)我們還支持安全的管控,就是所有的安全配置我們都是雙向認(rèn)證。特別強(qiáng)調(diào)一點(diǎn)就是從管理層面上來講的話,我們會(huì)做好對(duì)應(yīng)的整個(gè)平臺(tái)的安全管理,這里更多的是針對(duì)內(nèi)控。大家知道,實(shí)際上真正能偷盜你數(shù)據(jù)那個(gè)人,最容易的那個(gè)人是你們公司運(yùn)維里面最有權(quán)限的那個(gè)人。所以,這里面才是大家日常需要重點(diǎn)管控的一個(gè)地方。

我們把所有能夠接觸到 K8s 的入口,都做了一層安全審計(jì)。除了安全審計(jì)落日志的同時(shí),我們還提供了很多預(yù)置的安全的審計(jì)項(xiàng)來幫助大家做預(yù)警。這里舉一個(gè)例子,就是假如你的 K8s 有安全性的入侵、有人進(jìn)入你的容器,我們會(huì)給大家落審期日志,包括到底是哪個(gè)用戶用了什么命令進(jìn)入了哪個(gè)容器。同時(shí)大家可以去配一個(gè)釘釘告警,一分鐘內(nèi)我們會(huì)把這個(gè)告警給告出來,這樣大家就可以知道有人進(jìn)入你的容器環(huán)境了。

這樣確保整個(gè) K8s 環(huán)境足夠的安全。原則上是這樣的,就是大家去用 K8s 的時(shí)候,在生產(chǎn)系統(tǒng)里面不應(yīng)該在有人能夠進(jìn)入容器,所以一定要提醒大家做一點(diǎn)防范。

另外一點(diǎn)大家比較難做的地方就是人員的變動(dòng)。人員變動(dòng)之后,他這個(gè)人對(duì)系統(tǒng)在之前的時(shí)間內(nèi)做過什么事情,大家有沒有清楚?所以,同樣的道理,我們會(huì)提供人員審計(jì)視圖,根據(jù)人員子賬戶進(jìn)行搜索審計(jì)的信息。這樣的話,大家對(duì)內(nèi)的安全管控是比較容易去做的,你只需要輸入他使用的子賬戶名字,我們會(huì)幫助你把他所有 K8s 的操作都列出來。這樣就避免有人偷你的數(shù)據(jù)到外面去了,而不是兩三個(gè)月后你還不知道。所以這個(gè)是幫助大家去做好人員離職的管控。安全層面上的話,大家務(wù)必要把審計(jì)日制這個(gè)事情看得比較重。

一體化監(jiān)控體系全鏈路分析與定位

最后給大家講一下,我們?cè)趺慈プ稣麄€(gè)監(jiān)控體系,以及整個(gè)鏈路分析體系。整個(gè)監(jiān)控體系的話,是非常的龐大。因?yàn)榇蠹抑溃芏嗤瑢W(xué)在 IDC 里面自建 K8s 也好、還是在云上玩也好,只會(huì)去考慮 Prometheus 監(jiān)控架構(gòu)為主。但實(shí)際上,在上完阿里云之后,我們會(huì)幫助大家做好整個(gè) K8s 的監(jiān)控體系以及鏈路分析。

首先是我們從全局的角度來講,會(huì)去給大家展示一下你整個(gè) K8S 層面上,到底有多少個(gè)網(wǎng)絡(luò)單元、有多少個(gè) ECS、有多少個(gè) SLB,然后你機(jī)器部署的情況什么樣子。

Demo 演示圖

我們底層會(huì)依賴于阿里云的云監(jiān)控,以及剛才說的 NPD 的組件。中間這層還是標(biāo)準(zhǔn)的 Prometheus 架構(gòu)。但是這里 Prometheus 架構(gòu)非常耗費(fèi)資源,所以我們會(huì)把它剝離出來作為一個(gè)托管的服務(wù)來提供,避免大家在集群規(guī)模越來越大的時(shí)候,Prometheus 會(huì)把資源重新吃回去。

頂層的話,我們會(huì)給大家提供對(duì)應(yīng)的 ARMS 以及 SLS 的 Ingress Dashboard 的監(jiān)控。

我們細(xì)看一下整個(gè)流程應(yīng)該如上圖所示,大家一定要把所有的監(jiān)控體系,以及鏈路分析體系構(gòu)建完整。包括你從前端進(jìn)來,到 Ingress 入口,然后到中間的 Prometheus,再到應(yīng)用層的監(jiān)控 Arms,最后落到代碼層面上的執(zhí)行效率還是錯(cuò)誤。大家一定要把這個(gè)鏈路鏈條構(gòu)建出來,這樣能夠幫助大家在出現(xiàn)問題的時(shí)候,立馬找到問題根源。在互聯(lián)網(wǎng)體系里面,大家的每一次的問題,解決所帶來的時(shí)間開銷,就是你的成本。

前面剛才提到了,在應(yīng)用層面的話,我們給大家預(yù)置了日志服務(wù) SLS 提供的 Ingress Dashboard。因?yàn)榇蠹抑溃瑥?Ingress 是全局的流量入口,大家通常的做法是:都去構(gòu)建一個(gè)龐大的 ELK 系統(tǒng)做監(jiān)控,這個(gè)成本是相當(dāng)高的。我們會(huì)幫助大家只需要落盤到我們的阿里云的 SLS 的服務(wù),就會(huì)把全部 Ingress 監(jiān)控指標(biāo)構(gòu)建出來,包括你當(dāng)天的 PV/UV;包括你現(xiàn)在延遲的情況;包括你上一周以及昨天的同時(shí)間的一個(gè) PV/UV 的對(duì)比;包括你流量的 TOP 的省份、TOP 的城市;包括你最后錯(cuò)誤的以及最高延遲的地方,有 500 錯(cuò)誤發(fā)生的地方在 URL 是什么。我們把這些東西全部給大家做成一個(gè)大的 Dashboard,這樣大家可以以成本最低的方式來看你的整個(gè)系統(tǒng)的運(yùn)行情況。同時(shí)這個(gè) Dashboard 是支持?jǐn)U展的,目前這個(gè)也是現(xiàn)在上阿里云 ACK 的時(shí)候,大家非常喜歡的一個(gè)東西。

如果我們要對(duì)服務(wù)體系做監(jiān)控的話,可能大家要去考慮怎么接入 APM 系統(tǒng)了。這一部分,我們之前發(fā)現(xiàn)很多同學(xué)最痛苦的地方在于:很多業(yè)務(wù)開發(fā)的同學(xué)其實(shí)并不喜歡做接入。因?yàn)樗プ鼋尤氲臅r(shí)候,你要給他一個(gè) jar 包,然后他要在程序里去引入這個(gè) jar 包,重新打鏡像才能上線,這個(gè)是其中一個(gè)繁瑣的環(huán)節(jié)。

另外一個(gè)環(huán)節(jié)就是大家其實(shí)最討厭的地方就是當(dāng)你的 APM 系統(tǒng)升級(jí)的時(shí)候,你要求所有的業(yè)務(wù)人員全部更新?lián)Q jar 包,要重新打包鏡像、重新上線,業(yè)務(wù)開發(fā)人員就是非常惱火了。所以在容器時(shí)代的時(shí)候,我們做了一個(gè)比較簡(jiǎn)單以及優(yōu)雅的方案:我們提供一個(gè)應(yīng)對(duì)的 helm 包給大家,做好相應(yīng)的部署之后,只需要做一個(gè)事情:你在發(fā)布容器的時(shí)候打上兩個(gè) Annotation 我們就自動(dòng)做好 APM 系統(tǒng)(阿里云 Arms)接入了。當(dāng)你要做升級(jí)的時(shí)候,只需要把那個(gè)應(yīng)用重新做一次發(fā)布,它自動(dòng)用最新的 jar 包把那個(gè)舊包給換掉了。

所以在運(yùn)維階段,大家就可以去決定要不要接入 APM 系統(tǒng),而不需要開發(fā)的參與,甚至我們連開發(fā)包都不需要給到開發(fā)。大家也可以用同樣思路,在接入外部系統(tǒng)的時(shí)候,思考怎么做到一個(gè)無侵入的一個(gè)方式。

剛才提到了,我們實(shí)際上是支持了 Prometheus 的托管。原來大家在 K8s 里面去做 Prometheus 的話,需要構(gòu)建一堆的組件,而這些組件是非常耗費(fèi)資源的。所以我們現(xiàn)在的做法就是提供一個(gè) Helm 包給到大家。這樣的話,大家只需要簡(jiǎn)單的一鍵安裝,就可以用到阿里運(yùn)托管的 Prometheus 服務(wù)。然后通過托管的 Grafana 方式去看相應(yīng)的數(shù)據(jù)、去做相應(yīng)的告警。這些都是在后臺(tái)做了,跟你整個(gè)集群沒有任何關(guān)系,這樣你的集群資源是最節(jié)約的也是最穩(wěn)定的。

作者 | 邱戈川(了哥) 阿里云智能云原生應(yīng)用平臺(tái)部高級(jí)技術(shù)專家

本文為云棲社區(qū)內(nèi)容,未經(jīng)允許不得轉(zhuǎn)載。

以上就是關(guān)于怎么查看pos機(jī)的ip,你想知道的都在這里了的知識(shí),后面我們會(huì)繼續(xù)為大家整理關(guān)于怎么查看pos機(jī)的ip的知識(shí),希望能夠幫助到大家!

轉(zhuǎn)發(fā)請(qǐng)帶上網(wǎng)址:http://www.fqd168.com/newsone/93177.html

你可能會(huì)喜歡:

版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點(diǎn)僅代表作者本人。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請(qǐng)發(fā)送郵件至 babsan@163.com 舉報(bào),一經(jīng)查實(shí),本站將立刻刪除。