効率と節約の最大化: OKEでコスト効率の高いKubernetesクラスタにAvesha Smart Scalerを使用 (2024/02/29)

効率と節約の最大化: OKEでコスト効率の高いKubernetesクラスタにAvesha Smart Scalerを使用 (2024/02/29)

https://blogs.oracle.com/cloud-infrastructure/post/avesha-smart-scaler-cost-effective-clusters-oke

投稿者:Mayank Kakani | Cloud Architect


Kubernetesは、コンテナの導入、スケーリング、管理の自動化の基礎となり、世界中の組織の俊敏性、スケーラビリティ、および環境横断的な移植性を促進する能力を広く評価しています。Kubernetesが世界規模で取り入れられているように、コスト超過の問題はより頻繁に浮上し始め、クラウド・コンピューティングの導入の初期を思い起こさせる懸念を示しています。


この現象は、Kubernetesがコンテナ・オーケストレーション・ドメインを再構築することで、組織がコンピューティング・リソースにアクセスし、予算をどのように確保するかに対するクラウドの変革的な影響を反映しています。しかし、この進化により、コスト予測可能性と効果的な財務管理に関連する課題が生まれ、一部の組織は予想外の高額な経費に直面しています。



Oracle Container Engine for Kubernetes


Oracle Container Engine for Kubernetes(OKE)は、エンタープライズ・グレードのKubernetesの運用を大規模に簡素化する、Oracleが管理するKubernetesサービスです。Kubernetesインフラストラクチャの複雑さを管理するために必要な時間、コスト、労力を削減します。OKEを使用すると、自動スケーリング、アップグレードおよびセキュリティ・パッチ適用により、Kubernetesクラスタをデプロイし、コントロール・プレーンとワーカー・ノードの両方に対して信頼性の高い操作を確保できます。



コスト課題


OKEで実行されるKubernetesワークロードの動的な性質は、複雑なリソースの依存関係と組み合わされて、予測不可能なコストにつながる可能性があります。コンテナ化されたマイクロサービスは、迅速なスケール・アップとスケール・ダウンが可能であり、適切なガバナンスがないと、この柔軟性が急増する費用になる可能性があります。Kubernetesクラスタの基盤となるインフラストラクチャの管理には、ストレージ、ネットワーキング、コンピュート・リソースなどの要因を慎重に検討する必要もあり、これらはすべて法案全体に寄与します。


課題のもう1つの重要な側面は、スケーリングの決定が通常インフラストラクチャのメトリックに基づいていることです。ただし、ビジネス・ロジックをこのプロセスに統合すると、リソース使用率の効率性とコスト効率が向上し、スケーリング・アクションがアプリケーションの実際のニーズとユーザーの要求とより密接に連携するようになります。


これらの課題に対処するために、AveshaのSmart Scalerは、通常、Kubernetes水平ポッド自動スケーリング(HPA)に関連するリアクティブ・スタンスからプロアクティブな戦略に組織を移行するソリューションを提供します。トラフィック需要を事前に正確に予測することで、Smart Scalerはアプリケーションとインフラストラクチャ・リソースの両方を正確にスケーリングし、これらの予測的インサイトに基づいてコストとリソースの効率を最適化します。



コスト管理の戦略


組織は、リソース割当ての最適化、自動スケーリングの効果的な適用、非効率的なリソース使用率の特定と修正のための監視とアラートの実装など、積極的なコスト管理戦略を採用する必要があります。


自動スケーリング


  • 水平ポッド自動スケーリング(HPA): HPAを実装して、監視対象のCPUまたはメモリー使用率に基づいて、実行中のポッドの数を自動的に調整します。この機能により、リソースが需要に基づいて動的にスケーリングされ、アクティビティが少ない期間に過剰プロビジョニングを防止し、コストを削減できます。
  • クラスタの自動スケーリング: Kubernetesクラスタを構成して、ワークロードに基づいて基礎となるインフラストラクチャをスケーリングします。これには、リソースの需要に基づいてノードを追加または削除し、ピーク時およびオフピーク時のコストを最適化できます。


Kubernetesスケーリングにビジネス・ロジックを組み込む


  • アプリケーション固有のメトリック: 従来のKubernetesスケーリングは、CPUやメモリー使用量などのインフラストラクチャ・メトリックに依存します。ビジネス・ロジックの統合には、スケーリングに対するアプリケーション固有のメトリックを考慮する必要があります。たとえば、Eコマース・アプリケーションは、CPU使用率のみでなく、アクティブなショッピング・カートの数またはトランザクション率に基づいてスケーリングできます。スポーツベッティングアプリケーションは、その場所でのスポーツイベントの場所と需要に基づいてスケーリングできます。
  • サービス・グラフとサービス・レイテンシ: サービス・グラフとサービス間通信レイテンシを組み込むことで、様々なサービスが相互にどのようにスケーリングする必要があるかを全体的に把握できます。この統合は、スケーリングがアプリケーション全体のパフォーマンスとユーザー・エクスペリエンスに与える影響を理解する上で役立ちます。



テクニックを知っている。どのようなアプローチを取るべきでしょうか。


アプローチには、次のオプションがあります。


  • 手動による自動スケーリング: クラウド・コンピューティングの分野の実践者は、リソースを手動で監視しようとすることが災害のレシピであることをすぐに認識します。完全に静的な環境や控えめなKubernetesデプロイメントに対応していないかぎり、手動ポッド・スケーリングによってワークロードの要求に追いつくことは、取り返しのつかない課題になります。
  • 自動化: オープン・ソース・ツールと商用自動スケーリング・ツールの両方の大部分が、Kubernetesリソースの管理に一定の自動化をもたらします。管理者は最小および最大しきい値を確立し、ツールはリソースの要件および可用性に応じて、クラスタまたはポッドのスケーリングを自律的に調整します。このオプションは、Kubernetesコストの効率的な管理においてかなりの進歩を遂げます。
  • インテリジェントな自動スケーリング: Kubernetesの自動スケーリングにおけるその後の進化には、インテリジェンスと強化学習を自動化プロセスに注入することが含まれます。この進歩は、パラダイム・シフトを表し、自動スケーリング・メカニズムの洗練度を高めます。



プロアクティブなKubernetesオートスカラーであるAveshaのSmart Scalerの紹介


ジェネレーティブAIを搭載したSmart Scalerは、需要を事前に正確に予測し、正確にはインフラストラクチャとアプリケーション・リソースを自動スケーリングします。汎用の自動スケーリング・テンプレートを使用するかわりに、Aveshaの特許を取得した強化ラーニング・プロセスは、特定のワークロード特性を学習し、一致するように自動スケーリング・プロセスを調整します。これは、HPAおよびKubernetes Event-driven Autoscaling(KEDA)ツールとネイティブに連携します。


このシステムは、ワークロード需要に基づいて必要な量を予測し、学習した行動を通じてトラフィック・パターンを予測することで、プロアクティブなポッド管理を提供します。生成AIによって強化された強化学習エンジンを利用して、ポッド数を継続的に改善し、リソースの割り当てと効率を最適化します。


Kubernetesの運営費用の削減は、健全なビジネス慣行と一致するだけでなく、より持続可能な未来を育成する役割を果たします。この二重の利点は、ビジネスの収益を向上させるだけでなく、二酸化炭素排出量を最小限に抑え、企業と環境の両方にとって相互に有益なシナリオを作成するのに役立ちます。



もっと知りたいですか?


AveshaのSmart ScalerをOracle Cloud Infrastructureで試し、Kubernetesへの支出を削減します。詳細については、Aveshaのブログ記事「What is Kubernetes Right-Sizing and should I care?


コメント

このブログの人気の投稿

Oracle Database 19cサポート・タイムラインの重要な更新 (2024/11/20)

Oracle APEXのInteractive Gridで、Oracle Formsと比較して、重複行の検証を制御/通過させる方法 (2022/07/21)

Oracle APEX 24.1の一般提供の発表 (2024/06/17)