このように画像を歪めたいのですが、context.setTransformに設定する必要のあるパラメータは何ですか?
4 に答える
これは、単一の2D変換では実現できません。
2D変換では、2番目の引数のスキュー角度の接線をに渡すことで画像を「上向き」または「下向き」にスキューできますが、setTransform()
両方を対称的に実行する必要があります(「近く」および/または「遠方」の変形)。そのためには3D変換が必要です。
ただし、画像をいくつかの水平方向の「バンド」にスライスし、各バンドをレンダリングするときに異なる変換を適用することで、同じ結果をエミュレートできます。画像の半分から離れたバンドには、より強いスキュー角度が適用されます。何かのようなもの:
var width = image.width,
height = image.height,
context = $("canvas")[0].getContext("2d");
for (var i = 0; i <= height / 2; ++i) {
context.setTransform(1, -0.4 * i / height, 0, 1, 0, 60);
context.drawImage(image,
0, height / 2 - i, width, 2,
0, height / 2 - i, width, 2);
context.setTransform(1, 0.4 * i / height, 0, 1, 0, 60);
context.drawImage(image,
0, height / 2 + i, width, 2,
0, height / 2 + i, width, 2);
}
モアレ効果を避けるために、バンドの高さは1ピクセルではなく2ピクセルであることに注意してください。
このフィドルで結果を見ることができます。
これは、JSで疑似3D遠近法をレンダリングして遊んでいたときに書いた関数です。
ストライプベースの変換関数(確かに、ほとんどの標準的なユースケースには完全に適しています)とは異なり、この関数は4つのコーナーの行列を使用して、元の長方形を変換するカスタム四辺形を定義します。これにより、ある程度の柔軟性が追加され、「壁にペイント」水平パースペクティブと「床にカーペット」垂直パースペクティブの両方のカスタム台形をレンダリングするために使用できます(さらに3Dのような感触のための非対称の四辺形) )。
function drawImageInPerspective(
srcImg,
targetCanvas,
//Define where on the canvas the image should be drawn:
//coordinates of the 4 corners of the quadrilateral that the original rectangular image will be transformed onto:
topLeftX, topLeftY,
bottomLeftX, bottomLeftY,
topRightX, topRightY,
bottomRightX, bottomRightY,
//optionally flip the original image horizontally or vertically *before* transforming the original rectangular image to the custom quadrilateral:
flipHorizontally,
flipVertically
) {
var srcWidth=srcImg.naturalWidth;
var srcHeight=srcImg.naturalHeight;
var targetMarginX=Math.min(topLeftX, bottomLeftX, topRightX, bottomRightX);
var targetMarginY=Math.min(topLeftY, bottomLeftY, topRightY, bottomRightY);
var targetTopWidth=(topRightX-topLeftX);
var targetTopOffset=topLeftX-targetMarginX;
var targetBottomWidth=(bottomRightX-bottomLeftX);
var targetBottomOffset=bottomLeftX-targetMarginX;
var targetLeftHeight=(bottomLeftY-topLeftY);
var targetLeftOffset=topLeftY-targetMarginY;
var targetRightHeight=(bottomRightY-topRightY);
var targetRightOffset=topRightY-targetMarginY;
var tmpWidth=Math.max(targetTopWidth+targetTopOffset, targetBottomWidth+targetBottomOffset);
var tmpHeight=Math.max(targetLeftHeight+targetLeftOffset, targetRightHeight+targetRightOffset);
var tmpCanvas=document.createElement('canvas');
tmpCanvas.width=tmpWidth;
tmpCanvas.height=tmpHeight;
var tmpContext = tmpCanvas.getContext('2d');
tmpContext.translate(
flipHorizontally ? tmpWidth : 0,
flipVertically ? tmpHeight : 0
);
tmpContext.scale(
(flipHorizontally ? -1 : 1)*(tmpWidth/srcWidth),
(flipVertically? -1 : 1)*(tmpHeight/srcHeight)
);
tmpContext.drawImage(srcImg, 0, 0);
var tmpMap=tmpContext.getImageData(0,0,tmpWidth,tmpHeight);
var tmpImgData=tmpMap.data;
var targetContext=targetCanvas.getContext('2d');
var targetMap = targetContext.getImageData(targetMarginX,targetMarginY,tmpWidth,tmpHeight);
var targetImgData = targetMap.data;
var tmpX,tmpY,
targetX,targetY,
tmpPoint, targetPoint;
for(var tmpY = 0; tmpY < tmpHeight; tmpY++) {
for(var tmpX = 0; tmpX < tmpWidth; tmpX++) {
//Index in the context.getImageData(...).data array.
//This array is a one-dimensional array which reserves 4 values for each pixel [red,green,blue,alpha) stores all points in a single dimension, pixel after pixel, row after row:
tmpPoint=(tmpY*tmpWidth+tmpX)*4;
//calculate the coordinates of the point on the skewed image.
//
//Take the X coordinate of the original point and translate it onto target (skewed) coordinate:
//Calculate how big a % of srcWidth (unskewed x) tmpX is, then get the average this % of (skewed) targetTopWidth and targetBottomWidth, weighting the two using the point's Y coordinate, and taking the skewed offset into consideration (how far topLeft and bottomLeft of the transformation trapezium are from 0).
targetX=(
targetTopOffset
+targetTopWidth * tmpX/tmpWidth
)
* (1- tmpY/tmpHeight)
+ (
targetBottomOffset
+targetBottomWidth * tmpX/tmpWidth
)
* (tmpY/tmpHeight)
;
targetX=Math.round(targetX);
//Take the Y coordinate of the original point and translate it onto target (skewed) coordinate:
targetY=(
targetLeftOffset
+targetLeftHeight * tmpY/tmpHeight
)
* (1-tmpX/tmpWidth)
+ (
targetRightOffset
+targetRightHeight * tmpY/tmpHeight
)
* (tmpX/tmpWidth)
;
targetY=Math.round(targetY);
targetPoint=(targetY*tmpWidth+targetX)*4;
targetImgData[targetPoint]=tmpImgData[tmpPoint]; //red
targetImgData[targetPoint+1]=tmpImgData[tmpPoint+1]; //green
targetImgData[targetPoint+2]=tmpImgData[tmpPoint+2]; //blue
targetImgData[targetPoint+3]=tmpImgData[tmpPoint+3]; //alpha
}
}
targetContext.putImageData(targetMap,targetMarginX,targetMarginY);
}
呼び方は次のとおりです。
function onLoad() {
var canvas = document.createElement("canvas");
canvas.id = 'canvas';
canvas.width=800;
canvas.height=800;
document.body.appendChild(canvas);
var img = new Image();
img.onload = function(){
//draw the original rectangular image as a 300x300 quadrilateral with its bottom-left and top-right corners skewed a bit:
drawImageInPerspective(
img, canvas,
//coordinates of the 4 corners of the quadrilateral that the original rectangular image will be transformed onto:
0, 0, //top left corner: x, y
50, 300, //bottom left corner: x, y - position it 50px more to the right than the top right corner
300, 50, //top right corner: x, y - position it 50px below the top left corner
300, 300, //bottom right corner: x,y
false, //don't flip the original image horizontally
false //don't flip the original image vertically
);
}
img.src="img/rectangle.png";
}
すべてのピクセルごとの計算にもかかわらず、それは実際には非常に効率的であり、それは仕事を成し遂げます:
...しかし、それを行うためのよりエレガントな方法があるかもしれません。
長方形を台形に変換する方法があります。このスタックオーバーフローの回答を参照してください。ただし、これは各ピクセルで使用する必要があります。
また、画像を1ピクセル幅の垂直ストリップにスライスしてから、各ストリップをその中心から引き伸ばすこともできます。
これがwストリップにつながり、台形の左端を右端の80%にしたいとします。
ストリップnの場合、ストレッチは1 + n /(4w)になります
それはまだ未来のためだけですが、それはとてもクールなので、私はすでにそれを追加することを控えることができません。
Chromeチームは、2DAPIへの非アフィン変換の追加に取り組んでいます。
これにより、2D APIに、、、などのいくつかのメソッドが追加され、他perspective()
のメソッドが拡張されてz軸が追加され、3DDOMMatrixが改善されて最終的に受け入れられるようになります。rotate3d()
rotateAxis()
setTransform()
transform()
これはまだ非常に実験的であり、変更される可能性がありますが、ChromeCanaryでchrome://flags/#enable-experimental-web-platform-features
スイッチをオンにしてこれを試すことができます。
if( CanvasRenderingContext2D.prototype.rotate3d ) {
onload = (evt) => {
const img = document.getElementById("img");
const canvas = document.getElementById("canvas");
const ctx = canvas.getContext("2d");
ctx.translate(0, canvas.height/2);
ctx.perspective(705); // yeah, magic numbers...
ctx.rotate3d(0, (Math.PI/180) * 321, 0); // and more
ctx.translate(0, -canvas.height/2);
const ratio = img.naturalHeight / canvas.height;
ctx.drawImage(img, 0, canvas.height/2 - img.naturalHeight/2);
};
}else {
console.error( "Your browser doesn't support affine transforms yet" );
}
body { margin: 0 }
canvas, img {
max-height: 100vh;
}
<canvas id="canvas" width="330" height="426"></canvas>
<img id="img" src="https://upload.wikimedia.org/wikipedia/en/f/f8/Only_By_the_Night_%28Kings_of_Leon_album_-_cover_art%29.jpg">
現在のChromeCanaryでは次のようにレンダリングされます