欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

為什么你不要收縮數(shù)據(jù)庫文件(國外翻譯)

 更新時間:2018年03月15日 20:30:35   作者:瀟湘隱者博客  
這幾天查看了很多關于SQL SERVER收縮數(shù)據(jù)文件方面的文章,準備寫一篇關于收縮日志方面的文章,但是突然有種沖動將看過經(jīng)典的文章翻譯出來,需要的朋友可以參考下

前言,這幾天查看了很多關于SQL SERVER收縮數(shù)據(jù)文件方面的文章,準備寫一篇關于收縮日志方面的文章,但是突然有種沖動將看過經(jīng)典的文章翻譯出來,下面這篇文章是翻譯的是Paul Randal – “Why You Should Not Shrink Your Data Files”。有些比較難以翻譯、清晰的地方,我會貼上原文。好了,不啰嗦了,直接看下面的翻譯吧。 

  我最大的一個熱點問題是關于收縮數(shù)據(jù)文件,雖然在微軟的時候,我自己寫了相關收縮數(shù)據(jù)文件代碼,我再也沒有機會去重寫它,讓它操作起來更方便。我真的不喜歡收縮。

  現(xiàn)在,不要混淆了收縮事務日志文件和收縮數(shù)據(jù)文件,當事務日志文件的增長失控或為了移除過多的VLF碎片(這里這里看到金佰利的優(yōu)秀文章),然而,收縮事務日志數(shù)據(jù)文件不要頻繁使用(罕見的操作)并且不應是你執(zhí)行定期維護計劃的一部分。

  收縮數(shù)據(jù)文件應該執(zhí)行得甚至更少。這就是為什么——數(shù)據(jù)文件收縮導致產(chǎn)生了大量索引碎片,讓我用一個簡單并且你可以運行的腳步來演示。下面的腳本將會創(chuàng)建一個數(shù)據(jù)文件,創(chuàng)建一個10MB大小的“filler”表,一個10MB大小的“production”聚簇索引,然后分析新建的聚集索引的碎片情況。 

USE [master];
GO
 
IF DATABASEPROPERTYEX(N'DBMaint2008', N'Version') IS NOT NULL
  DROP DATABASE [DBMaint2008];
GO
 
CREATE DATABASE DBMaint2008;
GO
USE [DBMaint2008];
GO
 
SET NOCOUNT ON;
GO
 
-- Create the 10MB filler table at the 'front' of the data file
CREATE TABLE [FillerTable](
  [c1] INT IDENTITY,
  [c2] CHAR (8000) DEFAULT 'filler');
GO
 
-- Fill up the filler table
INSERT INTO [FillerTable] DEFAULT VALUES;
GO 1280
 
-- Create the production table, which will be 'after' the filler table in the data file
CREATE TABLE [ProdTable](
  [c1] INT IDENTITY,
  [c2] CHAR (8000) DEFAULT 'production');
CREATE CLUSTERED INDEX [prod_cl] ON [ProdTable]([c1]);
GO
 
INSERT INTO [ProdTable] DEFAULT VALUES;
GO 1280
 
-- Check the fragmentation of the production table
SELECT
  [avg_fragmentation_in_percent]
FROM sys.dm_db_index_physical_stats(
  DB_ID(N'DBMaint2008'), OBJECT_ID(N'ProdTable'), 1, NULL, 'LIMITED');
GO

執(zhí)行結果如下

clipboard

聚集索引的邏輯碎片在收縮數(shù)據(jù)文件前大約接近0.4%。[但是我測試結果是0.54%,如上圖所示,不過也算是接近0.4%]

現(xiàn)在我刪除filter表,運行收縮數(shù)據(jù)文件命令后,重新分析聚集索引的碎片化。

-- Drop the filler table, creating 10MB of free space at the 'front' of the data file
DROP TABLE [FillerTable];
GO
 
-- Shrink the database
DBCC SHRINKDATABASE([DBMaint2008]);
GO
 
-- Check the index fragmentation again
SELECT
  [avg_fragmentation_in_percent]
FROM sys.dm_db_index_physical_stats(
  DB_ID(N'DBMaint2008'), OBJECT_ID(N'ProdTable'), 1, NULL, 'LIMITED');
GO

下面是我的執(zhí)行結果,作者執(zhí)行結果,請看原文:

image

原文:

Wow! After the shrink, the logical fragmentation is almost 100%. The shrink operation *completely* fragmented the index, removing any chance of efficient range scans on it by ensuring the all range-scan readahead I/Os will be single-page I/Os.

譯文:

哇,真是恐怖!數(shù)據(jù)文件收縮后,索引的邏輯碎片幾乎接近100%,收縮數(shù)據(jù)文件導致了索引的完全碎片化。消除了任何關于它的有效范圍掃描的機會,確保所有執(zhí)行提前讀范圍掃描的 I/O 在單頁的 I/O操作
為什么會這樣呢? 當單個數(shù)據(jù)文件收縮操作一次后,它會用GAM位圖索引找出數(shù)據(jù)文件中分配最高的頁,然后盡可能的向前移動到文件能夠移動的地方,就這樣子,在上面的例子中,它完全反轉了聚集索引,讓它從非碎片化到完全碎片化。
同樣的代碼用于DBCC SHRINKFILE, DBCC SHRINKDATABASE,以及自動收縮,他們同樣糟糕,就像索引的碎片化,數(shù)據(jù)文件的收縮同樣產(chǎn)生了大量的I/O操作,耗費大量的CPU資源,并且生成了*load*事務日志,因為任何操作都會全部記錄下來。
數(shù)據(jù)文件收縮決不能作為定期維護的一部分,你決不能啟用“自動收縮”屬性,我嘗試把它從SQL 2005和SQL 2008產(chǎn)品中移除,它還存在的唯一原因是為了更好的向前兼容,不要掉入這樣的陷阱:創(chuàng)建一個維護計劃,重新生成所有索引,然后嘗試回收重建索引耗費的空間采取收縮數(shù)據(jù)文件 — — 這就是你做的生成了大量事務日志,但實質(zhì)沒有提高性能的零和游戲。
所以,你為什么要運行一個收縮呢,?舉例來說,如果你把一個相當大的數(shù)據(jù)庫刪除了相當大的比例,該數(shù)據(jù)庫不太可能增長,或者你需要轉移一個數(shù)據(jù)庫文件前先清空數(shù)據(jù)文件?

譯文:

我很想推薦的方法如下:

創(chuàng)建一個新的文件組
將所有受影響的表和索引移動到一個新的文件組用CREATE INDEX ... WITH (DROP_EXISTING=ON)的腳本,在移動表的同時,刪除表中的碎片。
刪掉那些你準備收縮的舊文件組,你反正要收縮(或縮小它的方式下來,如果它的主文件組)。
基本上你需要提供一些更多的空間,才可以收縮的舊文件,但它是一個更清晰的設置。

原文:

The method I like to recommend is as follows:

Create a new filegroup
Move all affected tables and indexes into the new filegroup using the CREATE INDEX … WITH (DROP_EXISTING = ON) ON syntax, to move the tables and remove fragmentation from them at the same time
Drop the old filegroup that you were going to shrink anyway (or shrink it way down if its the primary filegroup)
Basically you need to provision some more space before you can shrink the old files, but it's a much cleaner mechanism.

如果你完全沒有選擇需要收縮日志文件,請注意這個操作會導致索引的碎片化,你應該在收縮數(shù)據(jù)文件采取一些步驟消除它可能導致的性能問題,唯一的方式是用DBCC INDEXDEFPAGE或 ALTER INDEX ...REORGANIZE消除索引的碎片不要引起數(shù)據(jù)文件的增長,這些命令要求擴展空間8KB的頁代替重建一個新的索引在索引重建操作中。
底線 — — 盡量避免不惜一切代價運行數(shù)據(jù)文件收縮

所以,還在用作業(yè)定期收縮數(shù)據(jù)文件或數(shù)據(jù)庫開啟了“自動收縮”屬性的朋友們,請及時糾正你們的錯誤認識吧!

支持原著,也希望大家支持我辛苦的翻譯勞動,請加上鏈接瀟湘隱者博客。

相關文章

  • SQL注入之基于布爾的盲注詳解

    SQL注入之基于布爾的盲注詳解

    首先說明的盲注是注入的一種,指的是在不知道數(shù)據(jù)庫返回值的情況下對數(shù)據(jù)中的內(nèi)容進行猜測,實施SQL注入。盲注一般分為布爾盲注和基于時間的盲注。這篇文章主要講解的是基于布爾的盲注。下面來一起看看吧。
    2016-09-09
  • ACCESS轉化成SQL2000需要注意的幾個問題小結

    ACCESS轉化成SQL2000需要注意的幾個問題小結

    ACCESS轉化成SQL2000需要注意的幾個問題小結...
    2007-06-06
  • 數(shù)據(jù)庫建立索引的一般依據(jù)小結

    數(shù)據(jù)庫建立索引的一般依據(jù)小結

    以下是一些普遍的建立索引時的判斷依據(jù)。一言以蔽之,索引的建立必須慎重,對每個索引的必要性都應該經(jīng)過仔細分析,要有建立的依據(jù)
    2012-05-05
  • Sql Server下數(shù)據(jù)庫鏈接的使用方法

    Sql Server下數(shù)據(jù)庫鏈接的使用方法

    Sql Server下數(shù)據(jù)庫鏈接的使用方法...
    2006-12-12
  • Navicat for MySQL 亂碼問題解決方法

    Navicat for MySQL 亂碼問題解決方法

    這篇文章主要介紹了Navicat for MySQL 亂碼問題解決方法,Navcat是Windows常用的Mysql管理軟件,本文講解它出現(xiàn)亂碼的解決方法,需要的朋友可以參考下
    2015-02-02
  • 50條SQL查詢技巧、查詢語句示例

    50條SQL查詢技巧、查詢語句示例

    這篇文章主要介紹了50條SQL查詢技巧、查詢語句示例,本文以學生表、課程表、成績表、教師表為例,講解不同需求下的SQL語句寫法,需要的朋友可以參考下
    2015-06-06
  • Clickhouse系列之整合Hive數(shù)據(jù)倉庫示例詳解

    Clickhouse系列之整合Hive數(shù)據(jù)倉庫示例詳解

    這篇文章主要為大家介紹了Clickhouse系列之整合Hive數(shù)據(jù)倉庫示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2022-10-10
  • 數(shù)據(jù)庫運維人員DBA工作總結

    數(shù)據(jù)庫運維人員DBA工作總結

    中大型公司都會有一些專攻數(shù)據(jù)庫方面的牛人,專門的職位叫做DBA,對于公司的DBA他們的價值不可小覷,只要是數(shù)據(jù)庫,就有吞吐量的限制,數(shù)據(jù)庫訪問瓶頸便是自然流量增長或者流量突增造成的
    2023-10-10
  • 免費開源數(shù)據(jù)庫:SQLite、MySQL和PostgreSQL的優(yōu)缺點

    免費開源數(shù)據(jù)庫:SQLite、MySQL和PostgreSQL的優(yōu)缺點

    對于處理大規(guī)模數(shù)據(jù)和高并發(fā)訪問的場景,MySQL和PostgreSQL更適合,SQLite在小型應用程序或嵌入式設備中是一種輕量級、簡單和易于使用的選擇,根據(jù)具體的應用需求和場景特點,選擇合適的開源關系型數(shù)據(jù)庫可以提供更好的性能、可擴展性和靈活性
    2024-02-02
  • 淺談關系型數(shù)據(jù)庫中的約束及應用場景

    淺談關系型數(shù)據(jù)庫中的約束及應用場景

    這篇文章主要介紹了淺談關系型數(shù)據(jù)庫中的約束及應用場景,關系型數(shù)據(jù)庫是一種廣泛應用的數(shù)據(jù)庫類型,它的核心是基于關系模型的結構化數(shù)據(jù)存儲和管理,在關系型數(shù)據(jù)庫中,約束是一種重要的概念,它可以幫助我們保證數(shù)據(jù)的完整性和一致性,需要的朋友可以參考下
    2023-07-07

最新評論