You are on page 1of 4

Provide Feedback

We continuously listen to and incorporate customer feedback and suggestions to improve the EO website. Is there something you liked or disliked? Please take a minute and let us know! If you
leave contact information, we’ll be sure to respond.

Leave Feedback
Need Help?

Are you looking for technical support or have a sales­related ​question? Use any of our fast and friendly services to meet your needs: email sales or technical support, contact our regional offices, or
chat live with us.

Contact Us

   Change
EDMUND OPTICS
EDMUND SCIENTIFIC

Keyword or Part Number   My Account
0
Catalog Request | Help Center | Contact Us |  1­800­363­1992
Products Custom Resources Company  Keyword or Part Number  

Resources / Application Notes / Imaging / Imaging Electronics 101: Camera Resolution for Improved Imaging System Performance

Imaging Electronics 101: Camera Resolution for Improved Imaging System
Performance
Camera resolution and contrast play an integral role in both the optics and electronics of an imaging system. Though camera resolution and contrast may
seem like optical parameters, pixel count and size, TV lines, camera MTF, Nyquist limit, pixel depth/grayscale, dynamic range, and SNR contribute to
the quality of what a user is trying to image. With tech tips for each important parameter, imaging users from novice to expert can learn about camera resolution as it pertains to the imaging
electronics of a system.

Pixel Count and Pixel Size
To understand a camera’s pixel count and pixel size, consider the Allied Vision Stingray F­145 FireWire camera series. Each F­145 contains a Sony ICX285 sensor of 1392 x 1040 (horizontal x
vertical) pixels on a 9.0mm x 6.7mm sensor. If one imagines the field of view as a rectangle divided into 1392 x 1040 squares (Figure 1), then the minimum resolvable detail is equal to two of these
squares, or pixels (Figure 2). Tech Tip #1 is: The more pixels within a field of view (FOV), the better the resolution. However, a large number of pixels requires either a larger sensor or
smaller­sized individual pixels. This leads to Tech Tip #2: Using a larger sensor to achieve more pixels means the imaging lens magnification and/or or field of view will change.
Conversely, if smaller pixels are used, the imaging lens may not be able to hold the resolution of the system due to the finite spatial frequency response of optics, primarily caused by design issues or
the diffraction limit of the aperture.

The number of pixels also affects the frame rate of the camera. For example, each pixel has 8­bits of information that must be transferred in the reconstruction of the image. Tech Tip #3: The more
pixels on a sensor, the higher the camera resolution but lower the frame rate. If both high frame rates and high resolution (e.g. many pixels) are required, then the system price and set up
complexity quickly increases, often at a rate not necessarily proportional to the number of pixels.

Figure 1: Illustration of Pixels on a Camera Sensor

Pair of Pixels Unresolved vs. Resolved

Figure 2: Pair of Pixels Unresolved (a) vs. Resolved (b)

 

TV Lines
In analog CCD cameras, the TV Line (TVL) specification is often used to evaluate resolution. The TVL specification is a unit of resolution based on a bar target with equally spaced lines. If the
target is extended so that it covers the FOV, the TVL number is calculated by summing all of the resulting lines and spaces. Equations 1 and 2 provide simple calculations for determining horizontal
(H) and vertical (V) TVL. Included in Equation 1 is a normalization factor necessary to account for a sensor's 4:3 aspect ratio. Figure 3 shows an IEEE approved testing target for measuring TVLs
of a system.

 (1)

 (2)

IEEE Approved Target for Measuring TV Lines

Figure 3: IEEE Approved Target for Measuring TV Lines (TVLs)

 4­Bit (Middle). the Kell factor compensates for the space between pixels. The basics of camera resolution can be divided into parameters of pixel count and size. which are available in 8­bit (256 grayscale) and 10­bit (1024 grayscales) models.0 CMOS series of cameras.  (3) Pixel Depth/Grayscale Often referred to as grayscale or. PoE. and the absence of light is given a value of 0. Figure 5 illustrates different pixel depths.5 lp/mm. common to include the Kell factor (∼0.Modulation Transfer Function (MTF) The most effective means of specifying the resolution of a camera is its modulation transfer function (MTF). if the images from the camera will be viewed only on a monitor. and the Edmund Optics USB 2. the dark current or dark noise. Nyquist limit.0. but also the roll off that occurs at high spatial frequencies due to pixel cross talk and finite fill factors. For a complete discussion of MTF and its importance. therefore. Keep in mind that image processing methods exist. light that has 100% saturation of the pixel will be given a value of 2N­1. it is important to note that.7). pixel depth represents the number of steps of gray in the image. The Nyquist limit of this calculates to 77. and camera settings. the Sony ICX285 is a monochrome CCD sensor with a horizontal active area of 9mm containing 1392 horizontal pixels each 6. pixel depth/grayscale. Learn what they can do for your imaging system. and gain settings. After digitizing. Understanding these basic terms allows a user to move from being a novice to an imaging expert. Camera Types and Interfaces for Machine Vision Applications Using the best camera system is crucial to achieving the best image quality. specified below the saturation point. Tech Tip #8: A higher SNR yields a higher possible number of steps in the grayscale (higher contrast) produced by a camera. It is. camera MTF. camera types. Tech Tip #5: Sampling at spatial frequencies above the system’s Nyquist limit can create spurious signals and aliasing effects that are undesirable and unavoidable. computer displays only offer 8­bit resolution. the ADC circuits. Thus. . the human eye can no longer determine the difference between a continuous grayscale and its digital representation. Learn about popular camera types. FireWire. Notice the smooth progression from gray to white as bit depth increases. camera sensor. At unity gain. one pixel off.a the number of pixels/mm (Equation 3). Tech Tip #6: The more bits in a camera. consider the Sony XC series of cameras. and 8­Bit (Bottom) Grayscales Dynamic Range Dynamic range is the difference between the lowest detectable light level and the highest detectable light level.a. Also. the smoother the digitization process. a. This represents a horizontal sampling frequency of 155 pixels/mm (1392 pixels / 9mm = 1mm / 0. A useful property of the MTF is the multiplicative property of transfer functions; the MTF of each component (imaging lens.b. using 14 bits to describe a 50dB dynamic range gives redundant bits and no additional information.k. The Basics of Digital Camera Settings for Improved Imaging Results Digital cameras. Generally. which enable a user to statistically extrapolate higher resolution than the Nyquist limit in the special case of edges and other geometrically simple figures. 6dB of analog SNR converts to 1­bit when digitized. In analog cameras. The MTF is a way of incorporating contrast and resolution to determine the total performance of a sensor. dynamic range. view our additional imaging electronics 101 series pertaining to camera sensors. including USB 2. Although pixel depths above 8­bits are useful for signal processing. this is determined by the saturation capacity of each pixel. more bits means higher accuracy and more information. For digital or analog cameras. with consideration of the signal­to­noise­ratio. more bits are required to describe the grayscale in a meaningful fashion. Tech Tip #7: For high dynamic ranges. 12­bit and 14­bit cameras have the option of running in a lower pixel depth mode. For example. X bits (or the equivalent in analog systems) correspond to 2X grayscales (i. and SNR. contrast is phase dependent for a constant incident square wave (imagine one pixel on. where N is the number of bits. offer greater flexibility in allowing the user to adjust camera settings through acquisition software.e. or analog. FireWire. which reflects the deviation of the actual frequency response from the Nyquist frequency. To learn more about imaging electronics. compared to their analog counterparts. There are two primary sources for the noise in camera sensors. Physically. Most importantly. Nyquist Limit The absolute limiting resolution of a sensor is determined by its Nyquist limit. Signal­to­Noise Ratio (SNR) The signal­to­noise ratio (SNR) is closely linked to the dynamic range of a camera.) can be multiplied to get the overall system response (Figure 4). The number of bits used in digitization is called the bit depth or pixel depth. etc. The SNR is expressed in terms of decibels (dB) in analog systems and bits in digital systems. display. the signal is a time varying voltage proportional to the intensity of the light incident on the sensor. USB 3. For an example of pixel depth. which result in non­uniform dark current and crosstalk. Pixel depth is closely related to the minimum amount of contrast detectable by a sensor. this continuous voltage is effectively divided into discrete levels. GigE Vision. view Modulation Transfer Function. TV lines. This is defined as being one half of the sampling frequency. Cameras Check out our wide selection of interfaces. Tech Tip #4: It is not the case that a sensor will offer 100% contrast at a spatial frequency equal to the inverse of its pixel size. and power options in this application. System MTF is the Product of the MTF of Each Individual Component Figure 4: System MTF is the Product of the MTF of Each Individual Component The MTF takes into account not only the spatial resolution of the number of pixels/mm. Chip imperfections and electronic variations reduce camera resolution and should be monitored to determine how to best compensate for them within the imaging system. Camera Link®. With enough bits. (less precisely) the dynamic range of a CCD camera. The second is thermal noise and other electronic variations. 8­bit cameras have 28 or 256 gray levels). or each pixel with half a cycle). each of which corresponds to a numerical value. which offer 256 shades of gray. At the Nyquist limit. the additional data does nothing but reduce frame rate.45μm in size. such as sub­pixel sampling. However. The first is imperfections in the chip. In general.0.00645 mm/pixel = 155). Figure 5: Illustration of 2­Bit (Top). digital camera interfaces.

Understanding Camera Sensors for Machine Vision Applications The heart of any camera is the sensor. Top Need A Quote? Add a stock number to begin our two­step quote process. Submit Contact & Support   1­800­363­1992 Fax: 1­856­573­6295 Live Chat Email Help Center Email Newsletter Catalogs   Master Source Book Imaging Digital Catalog Request A Catalog Unsubscribe Catalogs   Master Source Book Imaging Digital Catalog Request A Catalog Unsubscribe Company   About Us Meet the Team Trade Shows Press Releases Compliance Regional Offices Careers Promotions   Educational Award Educational Discount Program Current Promotions startUP More   Privacy Policy | Terms & Conditions | Careers | Help Center | Site Map Privacy Policy Terms & Conditions Careers Help Center Site Map Call Now! 1­800­363­1992         .      Submit Need A Quote? Add a stock number to begin our two­step quote process. 24/6 We Are Here to Help Need to contact Edmund Optics? Use any of our fast and friendly services to meet your needs. and spectral properties. EO is here to teach you about sensor construction. features.

 Edmund Optics Inc. NJ 08007­1380 USA Privacy Policy | Terms & Conditions | Careers | Help Center | Site Map Privacy Policy Terms & Conditions Careers Help Center Site Map itar Logo     BBB     Chat now .  101 East Gloucester Pike. Barrington.Copyright year.