[英]C# - Converting 8-bit or 16-bit grayscale raw pixel data
我需要能夠將8位或16位灰度像素數據轉換為.NET框架可以支持的文件格式。
我可用的數據是寬度,高度,方向(左下角)和像素格式為4096灰度(12位分辨率),每像素2個字節。
因此,例如,每個像素的范圍從0到4096,並且每個像素是2個字節。
我已經嘗試使用PixelFormat.Format16bppGrayScale和Bitmap構造函數,它會引發GDI +異常。 我讀過的所有內容都說不支持這種格式,並且MSDN錯誤。
我想將此像素緩沖區轉換為.NET位圖格式(如Format32bppArgb),盡可能減少圖像質量損失。
誰知道怎么樣?
請參閱下面的示例,該示例預先計算查找表(LUT)並使用它來轉換每個像素。 此版本涵蓋您的12位案例; 對於8位代碼非常相似,但很難概括像素格式。
從12位GS到有效8位GS的轉換將丟失數據。 但是,您可以調整LUT表以聚焦較小范圍的輸入值,並獲得更好的對比度(例如DICOM窗口中心/窗口寬度 )。
class Program
{
static void Main( string[] args )
{
// Test driver - create a Wedge, convert to Bitmap, save to file
//
int width = 4095;
int height = 1200;
int bits = 12;
byte[] wedge = Wedge( width, height, bits );
Bitmap bmp = Convert( wedge, width, height, bits );
string file = "wedge.png";
bmp.Save( file );
Process.Start( file );
}
static Bitmap Convert( byte[] input, int width, int height, int bits )
{
// Convert byte buffer (2 bytes per pixel) to 32-bit ARGB bitmap
var bitmap = new Bitmap( width, height, PixelFormat.Format32bppArgb );
var rect = new Rectangle( 0, 0, width, height );
var lut = CreateLut( bits );
var bitmap_data = bitmap.LockBits( rect, ImageLockMode.WriteOnly, bitmap.PixelFormat );
ConvertCore( width, height, bits, input, bitmap_data, lut );
bitmap.UnlockBits( bitmap_data );
return bitmap;
}
static unsafe void ConvertCore( int width, int height, int bits, byte[] input, BitmapData output, uint[] lut )
{
// Copy pixels from input to output, applying LUT
ushort mask = (ushort)( ( 1 << bits ) - 1 );
int in_stride = output.Stride;
int out_stride = width * 2;
byte* out_data = (byte*)output.Scan0;
fixed ( byte* in_data = input )
{
for ( int y = 0; y < height; y++ )
{
uint* out_row = (uint*)( out_data + ( y * in_stride ) );
ushort* in_row = (ushort*)( in_data + ( y * out_stride ) );
for ( int x = 0; x < width; x++ )
{
ushort in_pixel = (ushort)( in_row[ x ] & mask );
out_row[ x ] = lut[ in_pixel ];
}
}
}
}
static uint[] CreateLut( int bits )
{
// Create a linear LUT to convert from grayscale to ARGB
int max_input = 1 << bits;
uint[] lut = new uint[ max_input ];
for ( int i = 0; i < max_input; i++ )
{
// map input value to 8-bit range
//
byte intensity = (byte)( ( i * 0xFF ) / max_input );
// create ARGB output value A=255, R=G=B=intensity
//
lut[ i ] = (uint)( 0xFF000000L | ( intensity * 0x00010101L ) );
}
return lut;
}
static byte[] Wedge( int width, int height, int bits )
{
// horizontal wedge
int max = 1 << bits;
byte[] pixels = new byte[ width * height * 2 ];
for ( int y = 0; y < height; y++ )
{
for ( int x = 0; x < width; x++ )
{
int pixel = x % max;
int addr = ( ( y * width ) + x ) * 2;
pixels[ addr + 1 ] = (byte)( ( pixel & 0xFF00 ) >> 8 );
pixels[ addr + 0 ] = (byte)( ( pixel & 0x00FF ) );
}
}
return pixels;
}
}
欺騙16b格式並使用ColorMatrix在顯示之前正確映射它。
我還沒有在Windows上對這種方法進行性能測試,但在其他平台(例如Android)上我需要高效的內存存儲並快速重新映射12b或16b數據中的不同范圍我已經很好地利用了這種技術。
我告訴它我的12 / 16b灰度數據真的是RGB565,所以它很高興序列化,反序列化和其他操作。 當我需要顯示時,我將它傳遞給ColorMatrix,它將適當的窗口映射到ARGB8888中的8b灰度。
如果有人想嘗試這個我會發布我的映射算法。
兩種可能的方式:
聲明:本站的技術帖子網頁,遵循CC BY-SA 4.0協議,如果您需要轉載,請注明本站網址或者原文地址。任何問題請咨詢:yoyou2525@163.com.