<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Comentarios en: Optimización avanzada de Backups: BLOCKSIZE, MAXTRANSFERSIZE y BUFFERCOUNT	</title>
	<atom:link href="https://www.soydba.es/optimizacion-avanzada-de-backups-blocksize-maxtransfersize-y-buffercount/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.soydba.es/optimizacion-avanzada-de-backups-blocksize-maxtransfersize-y-buffercount/</link>
	<description>Siempre aprendiendo cosas nuevas de bases de datos</description>
	<lastBuildDate>Sun, 26 Jan 2025 23:13:57 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>
		Por: Reduce el tiempo de tus BACKUPS a la mitad o más - SoyDBA		</title>
		<link>https://www.soydba.es/optimizacion-avanzada-de-backups-blocksize-maxtransfersize-y-buffercount/#comment-330</link>

		<dc:creator><![CDATA[Reduce el tiempo de tus BACKUPS a la mitad o más - SoyDBA]]></dc:creator>
		<pubDate>Sun, 26 Jan 2025 23:13:57 +0000</pubDate>
		<guid isPermaLink="false">https://www.soydba.es/?p=1699#comment-330</guid>

					<description><![CDATA[[&#8230;] semana pasada publiqué un post sobre las configuraciones avanzadas de backups BLOCKSIZE, MAXTRANSFERSIZE y BUFFERCOUNT y cómo impactan en el rendimiento de nuestras copias de seguridad. A raíz de este artículo, [&#8230;]]]></description>
			<content:encoded><![CDATA[<p>[&#8230;] semana pasada publiqué un post sobre las configuraciones avanzadas de backups BLOCKSIZE, MAXTRANSFERSIZE y BUFFERCOUNT y cómo impactan en el rendimiento de nuestras copias de seguridad. A raíz de este artículo, [&#8230;]</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Por: Héctor Dobao		</title>
		<link>https://www.soydba.es/optimizacion-avanzada-de-backups-blocksize-maxtransfersize-y-buffercount/#comment-324</link>

		<dc:creator><![CDATA[Héctor Dobao]]></dc:creator>
		<pubDate>Thu, 23 Jan 2025 09:46:51 +0000</pubDate>
		<guid isPermaLink="false">https://www.soydba.es/?p=1699#comment-324</guid>

					<description><![CDATA[Quiero corregir una errata. En el final del texto cuando menciono &quot;blobs&quot; me refería a &quot;BLOCKS&quot; que básicamente es el número de bloques permitidos en un blob container (contenedor de blobs en la Storage Account de Azure). El artículo correcto es este: 

Grandísimo Artículo, Roberto!
Estoy actualmente jugando con estos mismos parámetros para hacer un backup en la SQL Managed Instance que expliqué en mi sesión de «SQL Server en Español».
El concepto es el mismo pero la sintaxis cambia un poco. BACKUP TO URL XXXX.
Cómo bien dice la documentación siempre han de ser COPY_ONLY y se harán a una Azure Storage Account, preferentemente usando el tipo BLOCK BLOB (en lugar de los vetustos page blobs).
Haciendo esto hay que tener en cuenta que las Storage accounts tienen un límite específico de tamaño del block blob (el formato con el que se almacena nuestro fichero .BAK en la Storage Account). La REST API hasta ahora tenía 195 GB por block blob con lo que te obliga a hacer un backup en «stripes ó partes» en lugar de un sólo file.
Es cierto que aplicando el campo de COMPRESSION podemos intentar optimizar y reducir el número de ficheros .bak troceados pero no menos importante es el flag que aquí mencionas (MAXTRANSFERSIZE) que para este tipo de backups yo recomiendo de poner a 4MB (4194304) ya que podría alcanzarse el número máximo de bloques (BLOCKS) permitidos (50.000) al transferirse unidades más pequeñas al storage desde la instancia de SQL (por ejemplo MAXTRANSFERSIZE = 1 MB).
En este artículo explica cómo podemos evitar esa limitación de los 195 GB por fichero pero también cómo evitar la limitación de 50000 bloques permitidos, la cual elevando el MAXTRANSFERSIZE a 4MB (lo máximo que soporta SQL Server), sortearíamos también.
URL: https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage]]></description>
			<content:encoded><![CDATA[<p>Quiero corregir una errata. En el final del texto cuando menciono «blobs» me refería a «BLOCKS» que básicamente es el número de bloques permitidos en un blob container (contenedor de blobs en la Storage Account de Azure). El artículo correcto es este: </p>
<p>Grandísimo Artículo, Roberto!<br />
Estoy actualmente jugando con estos mismos parámetros para hacer un backup en la SQL Managed Instance que expliqué en mi sesión de «SQL Server en Español».<br />
El concepto es el mismo pero la sintaxis cambia un poco. BACKUP TO URL XXXX.<br />
Cómo bien dice la documentación siempre han de ser COPY_ONLY y se harán a una Azure Storage Account, preferentemente usando el tipo BLOCK BLOB (en lugar de los vetustos page blobs).<br />
Haciendo esto hay que tener en cuenta que las Storage accounts tienen un límite específico de tamaño del block blob (el formato con el que se almacena nuestro fichero .BAK en la Storage Account). La REST API hasta ahora tenía 195 GB por block blob con lo que te obliga a hacer un backup en «stripes ó partes» en lugar de un sólo file.<br />
Es cierto que aplicando el campo de COMPRESSION podemos intentar optimizar y reducir el número de ficheros .bak troceados pero no menos importante es el flag que aquí mencionas (MAXTRANSFERSIZE) que para este tipo de backups yo recomiendo de poner a 4MB (4194304) ya que podría alcanzarse el número máximo de bloques (BLOCKS) permitidos (50.000) al transferirse unidades más pequeñas al storage desde la instancia de SQL (por ejemplo MAXTRANSFERSIZE = 1 MB).<br />
En este artículo explica cómo podemos evitar esa limitación de los 195 GB por fichero pero también cómo evitar la limitación de 50000 bloques permitidos, la cual elevando el MAXTRANSFERSIZE a 4MB (lo máximo que soporta SQL Server), sortearíamos también.<br />
URL: <a href="https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage" rel="nofollow ugc">https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage</a></p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Por: Héctor Dobao		</title>
		<link>https://www.soydba.es/optimizacion-avanzada-de-backups-blocksize-maxtransfersize-y-buffercount/#comment-323</link>

		<dc:creator><![CDATA[Héctor Dobao]]></dc:creator>
		<pubDate>Thu, 23 Jan 2025 09:42:11 +0000</pubDate>
		<guid isPermaLink="false">https://www.soydba.es/?p=1699#comment-323</guid>

					<description><![CDATA[Grandísimo Artículo, Roberto!
Estoy actualmente jugando con estos mismos parámetros para hacer un backup en la SQL Managed Instance que expliqué en mi sesión de &quot;SQL Server en Español&quot;. 
El concepto es el mismo pero la sintaxis cambia un poco. BACKUP TO URL XXXX. 
Cómo bien dice la documentación siempre han de ser COPY_ONLY y se harán a una Azure Storage Account, preferentemente usando el tipo BLOCK BLOB (en lugar de los vetustos page blobs). 
Haciendo esto hay que tener en cuenta que las Storage accounts tienen un límite específico de tamaño del block blob (el formato con el que se almacena nuestro fichero .BAK en la Storage Account). La REST API hasta ahora tenía 195 GB por block blob con lo que te obliga a hacer un backup en &quot;stripes ó partes&quot; en lugar de un sólo file. 
Es cierto que aplicando el campo de COMPRESSION podemos intentar optimizar y reducir el número de ficheros .bak troceados pero no menos importante es el flag que aquí mencionas (MAXTRANSFERSIZE) que para este tipo de backups yo recomiendo de poner a 4MB () ya que podría alcanzarse el número máximo de blobs permitidos (50.000) al transferirse unidades más pequeñas al storage desde la instancia de SQL (por ejemplo 1 MB). 
En este artículo explica cómo podemos evitar esa limitación de los 195 GB por fichero pero también la limitación de blobs permitidos, la cual elevando el MAXTRANSFERSIZE a 4MB (lo máximo que soporta SQL Server), salvaríamos también. 
URL: https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage]]></description>
			<content:encoded><![CDATA[<p>Grandísimo Artículo, Roberto!<br />
Estoy actualmente jugando con estos mismos parámetros para hacer un backup en la SQL Managed Instance que expliqué en mi sesión de «SQL Server en Español».<br />
El concepto es el mismo pero la sintaxis cambia un poco. BACKUP TO URL XXXX.<br />
Cómo bien dice la documentación siempre han de ser COPY_ONLY y se harán a una Azure Storage Account, preferentemente usando el tipo BLOCK BLOB (en lugar de los vetustos page blobs).<br />
Haciendo esto hay que tener en cuenta que las Storage accounts tienen un límite específico de tamaño del block blob (el formato con el que se almacena nuestro fichero .BAK en la Storage Account). La REST API hasta ahora tenía 195 GB por block blob con lo que te obliga a hacer un backup en «stripes ó partes» en lugar de un sólo file.<br />
Es cierto que aplicando el campo de COMPRESSION podemos intentar optimizar y reducir el número de ficheros .bak troceados pero no menos importante es el flag que aquí mencionas (MAXTRANSFERSIZE) que para este tipo de backups yo recomiendo de poner a 4MB () ya que podría alcanzarse el número máximo de blobs permitidos (50.000) al transferirse unidades más pequeñas al storage desde la instancia de SQL (por ejemplo 1 MB).<br />
En este artículo explica cómo podemos evitar esa limitación de los 195 GB por fichero pero también la limitación de blobs permitidos, la cual elevando el MAXTRANSFERSIZE a 4MB (lo máximo que soporta SQL Server), salvaríamos también.<br />
URL: <a href="https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage" rel="nofollow ugc">https://learn.microsoft.com/es-es/archive/blogs/sqlcat/backing-up-a-vldb-to-azure-blob-storage</a></p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
