Service Fabric 日志 etl 文件目标
Service Fabric Log etl files destination
我遇到了 Service Fabric 群集第一个节点上日志文件夹大小的问题。
它可以使用的磁盘似乎没有任何上限space,它最终会吃掉整个本地磁盘。
集群是通过 ARM 模板创建的,我设置了两个与集群关联的存储帐户。存储帐户的变量名称是:supportLogStorageAccountName
和 applicationDiagnosticsStorageAccountName
但是,etl
文件仅写入本地群集节点磁盘,而不写入存储(我可以在其中找到 dtr
文件)。
有什么方法可以将 etl
文件的目标设置为外部存储或至少限制日志文件夹的大小?我想知道ARM模板中的参数overallQuotaInMB
是否与此有关。
您可以覆盖默认值 10240 的 MaxDiskQuotaInMb 设置,以减少 etl 的磁盘使用量。 (我们在 Azure 存储由于某种原因不可用的情况下使用本地日志)
https://docs.microsoft.com/en-us/azure/service-fabric/service-fabric-cluster-fabric-settings
我遇到了 Service Fabric 群集第一个节点上日志文件夹大小的问题。 它可以使用的磁盘似乎没有任何上限space,它最终会吃掉整个本地磁盘。
集群是通过 ARM 模板创建的,我设置了两个与集群关联的存储帐户。存储帐户的变量名称是:supportLogStorageAccountName
和 applicationDiagnosticsStorageAccountName
但是,etl
文件仅写入本地群集节点磁盘,而不写入存储(我可以在其中找到 dtr
文件)。
有什么方法可以将 etl
文件的目标设置为外部存储或至少限制日志文件夹的大小?我想知道ARM模板中的参数overallQuotaInMB
是否与此有关。
您可以覆盖默认值 10240 的 MaxDiskQuotaInMb 设置,以减少 etl 的磁盘使用量。 (我们在 Azure 存储由于某种原因不可用的情况下使用本地日志)
https://docs.microsoft.com/en-us/azure/service-fabric/service-fabric-cluster-fabric-settings