Terraform:无法配置 aws ecs 自动缩放集群
Terraform: cannot provision aws ecs autoscaling cluster
我们使用 Terraform 来配置 AWS Autoscaling Group 和 ECS 集群。根据 https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cluster-auto-scaling.html
,我们决定向 ECS 集群添加容量提供程序并允许它管理我们的扩展
但是当我们添加 capacity provider 资源并通过集群资源上的 capacity_providers
属性将其连接到集群时,terraform plan
开始抱怨 "Cylce"。我不确定如何配置这个 - 似乎资源之间的每个 "connection" 都设置正确,但似乎 terraform 无法提供这个:
resource "aws_ecs_cluster" "cluster" {
name = "${var.environment}_cluster"
capacity_providers = [aws_ecs_capacity_provider.capacity_provider.name]
}
resource "aws_ecs_capacity_provider" "capacity_provider" {
name = "${var.environment}_capacity_provider"
auto_scaling_group_provider {
auto_scaling_group_arn = aws_autoscaling_group.autoscaling_group.arn
managed_termination_protection = "ENABLED"
managed_scaling {
maximum_scaling_step_size = 1
minimum_scaling_step_size = 1
status = "ENABLED"
target_capacity = 100
}
}
}
resource "aws_launch_configuration" "launch_configuration" {
name_prefix = "${var.environment}_launch_configuration-"
image_id = data.aws_ami.ecs_os.id
instance_type = var.cluster_instance_type
iam_instance_profile = var.ecs_instance_profile
security_groups = var.security_groups["ecs_tasks"]
associate_public_ip_address = true
key_name = aws_key_pair.ssh_access.key_name
user_data = data.template_file.launch_user_data.rendered
lifecycle {
create_before_destroy = true
}
}
data "template_file" "launch_user_data" {
template = "${file("${path.module}/taskdefs/user_data")}"
vars = {
ecs_cluster = aws_ecs_cluster.cluster.name
efs_id = var.efs_id
aws_region = data.aws_region.current.name
}
}
resource "aws_autoscaling_group" "autoscaling_group" {
name = "${var.environment}_asg"
max_size = 4
min_size = 1
vpc_zone_identifier = [var.public_subnet_id]
launch_configuration = aws_launch_configuration.launch_configuration.name
health_check_type = "EC2"
protect_from_scale_in = true
}
terraform plan
输出:
Error: Cycle: module.compute.aws_ecs_cluster.cluster, module.compute.data.template_file.launch_user_data, module.compute.aws_launch_configuration.launch_configuration, module.compute.aws_autoscaling_group.autoscaling_group, module.compute.aws_ecs_capacity_provider.capacity_provider
编辑:明确一点:我理解实际上存在一个循环。我的问题是如何在没有循环的情况下提供 Terraform?我看不出这怎么可能。
首先,您可以这样定义集群的名称。
locals {
cluster_name = "${var.environment}_cluster"
}
然后
resource "aws_ecs_cluster" "cluster" {
name = local.cluster_name
capacity_providers = [aws_ecs_capacity_provider.capacity_provider.name]
}
data "template_file" "launch_user_data" {
template = "${file("${path.module}/taskdefs/user_data")}"
vars = {
ecs_cluster = local.cluster_name
efs_id = var.efs_id
aws_region = data.aws_region.current.name
}
}
这样可以避免循环
希望对您有所帮助。
我之前也注意到了这一点,但最终没有使用容量提供程序。
如果您进入 AWS ECS Web 控制台,您会发现手动创建容量提供程序的唯一位置似乎是在现有集群内。它似乎不是AWS内部的单独资源,而是集群的子资源。这才是我认为真正的先有鸡还是先有蛋的问题。
我认为需要有一种方法让 Terraform 创建集群(没有容量提供程序),然后创建容量提供程序,最后将其分配给集群。闻起来像错误报告。
我们使用 Terraform 来配置 AWS Autoscaling Group 和 ECS 集群。根据 https://docs.aws.amazon.com/AmazonECS/latest/developerguide/cluster-auto-scaling.html
,我们决定向 ECS 集群添加容量提供程序并允许它管理我们的扩展但是当我们添加 capacity provider 资源并通过集群资源上的 capacity_providers
属性将其连接到集群时,terraform plan
开始抱怨 "Cylce"。我不确定如何配置这个 - 似乎资源之间的每个 "connection" 都设置正确,但似乎 terraform 无法提供这个:
resource "aws_ecs_cluster" "cluster" {
name = "${var.environment}_cluster"
capacity_providers = [aws_ecs_capacity_provider.capacity_provider.name]
}
resource "aws_ecs_capacity_provider" "capacity_provider" {
name = "${var.environment}_capacity_provider"
auto_scaling_group_provider {
auto_scaling_group_arn = aws_autoscaling_group.autoscaling_group.arn
managed_termination_protection = "ENABLED"
managed_scaling {
maximum_scaling_step_size = 1
minimum_scaling_step_size = 1
status = "ENABLED"
target_capacity = 100
}
}
}
resource "aws_launch_configuration" "launch_configuration" {
name_prefix = "${var.environment}_launch_configuration-"
image_id = data.aws_ami.ecs_os.id
instance_type = var.cluster_instance_type
iam_instance_profile = var.ecs_instance_profile
security_groups = var.security_groups["ecs_tasks"]
associate_public_ip_address = true
key_name = aws_key_pair.ssh_access.key_name
user_data = data.template_file.launch_user_data.rendered
lifecycle {
create_before_destroy = true
}
}
data "template_file" "launch_user_data" {
template = "${file("${path.module}/taskdefs/user_data")}"
vars = {
ecs_cluster = aws_ecs_cluster.cluster.name
efs_id = var.efs_id
aws_region = data.aws_region.current.name
}
}
resource "aws_autoscaling_group" "autoscaling_group" {
name = "${var.environment}_asg"
max_size = 4
min_size = 1
vpc_zone_identifier = [var.public_subnet_id]
launch_configuration = aws_launch_configuration.launch_configuration.name
health_check_type = "EC2"
protect_from_scale_in = true
}
terraform plan
输出:
Error: Cycle: module.compute.aws_ecs_cluster.cluster, module.compute.data.template_file.launch_user_data, module.compute.aws_launch_configuration.launch_configuration, module.compute.aws_autoscaling_group.autoscaling_group, module.compute.aws_ecs_capacity_provider.capacity_provider
编辑:明确一点:我理解实际上存在一个循环。我的问题是如何在没有循环的情况下提供 Terraform?我看不出这怎么可能。
首先,您可以这样定义集群的名称。
locals {
cluster_name = "${var.environment}_cluster"
}
然后
resource "aws_ecs_cluster" "cluster" {
name = local.cluster_name
capacity_providers = [aws_ecs_capacity_provider.capacity_provider.name]
}
data "template_file" "launch_user_data" {
template = "${file("${path.module}/taskdefs/user_data")}"
vars = {
ecs_cluster = local.cluster_name
efs_id = var.efs_id
aws_region = data.aws_region.current.name
}
}
这样可以避免循环
希望对您有所帮助。
我之前也注意到了这一点,但最终没有使用容量提供程序。
如果您进入 AWS ECS Web 控制台,您会发现手动创建容量提供程序的唯一位置似乎是在现有集群内。它似乎不是AWS内部的单独资源,而是集群的子资源。这才是我认为真正的先有鸡还是先有蛋的问题。
我认为需要有一种方法让 Terraform 创建集群(没有容量提供程序),然后创建容量提供程序,最后将其分配给集群。闻起来像错误报告。