Læse store mængde data fra BLOB i ADO
Jeg har gennem den seneste tid indlæst mange GB filer i en en SQL2008R2 database (på kundens anmodning, jeg syns' ikke om det). De største filer er over 300MB og det går fint at indlæse, mens jeg pludselig opdager at ... det kan jeg ikke!Får en "Out of memory"-fejl v. ca. 200MB filer. Jeg har prøvet et minimalprogram som blot kører denne funktion:
function SaveDokumentToFile(const aID: integer; const aFilename: string): boolean;
var
Query: TADOQuery;
Stream: TStream;
begin
result := false;
Query := DM.CreateQuery; // Min funk. der også sætter connection
try
Query.
Query.SQL.Clear;
Query.SQL.Add('select data');
Query.SQL.Add('from dbo.dokument');
Query.SQL.Add('where (ID = :ID)');
Query.SetParam('ID',ftInteger,aID); // Min class-helper
Query.Open;
if not Query.Eof then
begin
with Query do
Stream := CreateBlobStream(FieldByName('data'),bmRead);
try
Stream.Seek(0,soFromBeginning); // Sikkert ikke nødvendig
(Stream as TADOBlobStream).SaveToFile(aFilename);
finally
Stream.Free;
end;
result := true;
end;
finally
Query.Free;
end;
end;
var
Query: TADOQuery;
Stream: TStream;
begin
result := false;
Query := DM.CreateQuery; // Min funk. der også sætter connection
try
Query.
Query.SQL.Clear;
Query.SQL.Add('select data');
Query.SQL.Add('from dbo.dokument');
Query.SQL.Add('where (ID = :ID)');
Query.SetParam('ID',ftInteger,aID); // Min class-helper
Query.Open;
if not Query.Eof then
begin
with Query do
Stream := CreateBlobStream(FieldByName('data'),bmRead);
try
Stream.Seek(0,soFromBeginning); // Sikkert ikke nødvendig
(Stream as TADOBlobStream).SaveToFile(aFilename);
finally
Stream.Free;
end;
result := true;
end;
finally
Query.Free;
end;
end;
... men det hjælper ikke meget. At lave programmet 64-bit dur heller ikke. Er der nogen der har tils/løsninger til at udlæse så store mængder fra en tabel? Kan man vinde ved at bruge DBX? Læsning af et BLOB kan ikke gøres asynkron, vel? Er der TADOQuery-parametre jeg kan skrue på?
