一般 Windows でコンソールを出さない方法 トラックボール 押し出し とっても簡単なマルチテクスチャのサンプル Point Sprite を使ってみる 3D テクスチャ キューブマッピングで FBO を使ってみる シャドウマッピングで FBO を使ってみる トゥーンシェーディング GL_SEPARATE_SPECULAR_COLOR 丸い点を描く GL_CLAMP_TO_EDGE, GL_CLAMP_TO_BORDER 頂点配列 Vertex Buffer Object 半透明処理 Depth Peeling デプスバッファの表示と画面表示の保存 FBO を使ってデプスバッファを表示する デプスバッファの輪郭線抽出 屈折マッピング 分光現象 Xcode の Project Template とっても簡単なボクセル化 デプスバッファを使ったボクセル化 ゼブラパターンの映り込み SSAO
« Chapter 2.1 | Table of Contents | Chapter 2.3 » Buffers and textures contain the raw materials for an OpenGL program, but without shaders, they are inert lumps of bytes. If you recall from our overview of the graphics pipeline, rendering requires a vertex shader, which maps our vertices into screen space, and a fragment shader, which colors in the rasterized fragments of the resulting triangles.
My app is currently using AVFoundation to take the raw camera data from the rear camera of an iPhone and display it on an AVCaptureVideoPreviewLayer in real time. My goal is to to conditionally apply simple image filters to the preview layer. The images aren't saved, so I do not need to capture the output. For example, I would like to toggle a setting that converts the video coming in on the previ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く