You are on page 1of 17

INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH, DINDIGUL 

Volume 2, No 1, 2010 

© Copyright 2010 All rights reserved Integrated Publishing Association 

RESEARCH ARTICLE  ISSN ­ 0976­4259 

Artificial Neural Network based Hydro Electric Generation Modelling 

Deepika Yadav., Naresh.R, Veena Sharma 
Electrical Engineering Department, National Institute of Technology, Hamirpur, HP 
deepikayadav2008@gmail.com 

ABSTRACT 

Hydropower generation  is a function of discharge of the generating units and the difference 
between  the  fore  bay  and  tailrace  levels  of  the  reservoir,  and  is  subject  to  penstock  head 
losses and to the generation unit efficiency factor, which in turn is a function of the reservoir 
level  and  reservoir  capacity.  For  this  actual  plant  data  from  Sewa  Hydroelectric  Project 
Stage­II which is a run­of­the river project having installed capacity of 120 MW situated in 
Jammu region  has been used.In this paper two hydro electric models such as reservoir level 
versus capacity model and head loss versus water discharge rate have been studied which are 
used  for  calculating  net  head  and  further  can  be  used  for  online  implementation  of 
Availability Based Tariff in which day ahead scheduling is done. In order to accomplish this 
task,  data  from  plant  is  employed  for  training,  validating  and  testing  the  artificial  neural 
network  (ANN)  model  which  provide  accurate  results.  Thereafter  with  these  models,  a 
comparison  is  made  with  multiple  regression models  in  terms  of  their  prediction  accuracy, 
mean square error and regression R value. 
Keywords:  Artificial  neural  network,  ANOVA  analysis,  Levenberg­Marquardt  algorithm, 
hydroelectric generation models 
1. Introduction 

In  hydro  electric  Power  plants,  for  calculating  energy  and  online  implementation  of 
availability  based  tariff  in  Indian  power  industry [Bhushan.  2005;  Christensen  et  al.  1988; 
Geetha et al. 2008; and Deshmukh et al. 2008], there is always a need to develop models for 
hydro electric plant as each one is unique to its location and requirement. In most cases, the 
parameters to be estimated are of non­linear model with respect to control and state variables. 
Here  data used  has  been  taken  from Sewa  Hydroelectric  Project  Stage­II, a  run­of­the  river 
project,  which  fulfills  the  partial  requirements  of  the  irrigation  in  state  of  Jammu  and 
Kashmir.  The  power  house  is  located  in a  village  called  Mashka  near  the  junction  of  Sewa 
and Ravi, The project will generate 533.52 million units in a 90% dependable  year and also 
provide 120 MW peaking capacity  in the power system of northern region. This plant has a 
small reservoir with maximum storage capacity of 0.9174 million cubic meters (MCM) and 
average storage capacity of 0.2234 MCM. Moreover, elevation is taken from above mean sea 
level  through  some  level  sensors,  maximum  reservoir  level  of  this  plant  is  1200  meter  and 
average reservoir level measured is 1184 meter.The project envisages 53 meter­high concrete 
gravity dam, a 10,020 meter­long head race tunnel and its power house will be equipped with 
3*40MW  vertical  Pelton  turbine  units  with  rated  net  head  of  560m.  Its  geographical 
coordinates having latitude 32 ° 36’ 38” N to 32° 41’ 00” N and longitude 75° 48’ 46” E to 
75° 55’ 38” E is shown in figure 1, referred from site (www.nhpcindia.com) 

Hydroelectric  scheduling  of  the  plants  requires  a  judicious  modeling  of  each  of  the  hydro 
electric  plant  for  an  improved  efficiency,  optimum  use  of  water  resources  and  to  arrest

56 

  Likewise. 1993 and  Fauset.  which  is  the  water  discharge  for  some  period of time. No 1.  This  paper  is  structured  as  follows. 1999; Myers et al.  2002; Subramanian et al.  Since  hydro  electric  power  generation  is  dependent  on  the  discharge.  2002;  Randall et al.  Section 2 presents  the  Neural  network  overview  using  nftool  employing  Levenberg­Marquardt  algorithm.  an  optimal  discharge  schedule  is  paramount for an optimal hydro electric generation scheduling. 4 describes the simulation of ANN and ANOVA results for reservoir level versus  capacity  model  and  head  loss  versus  water  discharge  rate  respectively.  Section  5  outlines the conclusions.  prediction  is  also  made  by  Analysis  of  Variance  (ANOVA)  approach  in  terms  of  Regression  value  and  standard  error  to predict best  model. 1994] which is a  flexible mathematical structure that is capable of identifying complex nonlinear relationships  between input and  Figure 1: Location Map  output  data  sets  taken  from  Sewa  Hydroelectric  Project  Stage­II.  Once  the  neural  network  model is trained.  In  this  paper.  we  used  the  neural  network  model  [Buizza  et  al. Neural Network Overview  Neural  networks  are  inspired  by  nervous  systems  found  in  biological  organisms.5. The ANN generated results are evaluated using mean square error and  regression  R  value  in  neural  network  fitting  tool  in  MATLAB  7. 57  .  it  is  capable  to predict  with  accuracy depending  upon  the  accuracy of  the  training data provided.  Finally.  1984].  2. Scheduling and modeling of  water releases is an integral part which plays a very important role in day to day operations of  a power system. depends on  reservoir  capacities  [Wood  and Wollenberg.  Section 3. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  possible  losses.  The  scheduling  of  water  releases.  2002;  Senjyu  et  al. DINDIGUL  Volume 2.  It  is  comprised  of  data  processing  units  (neurons)  connected  via  adjustable  connection  weights. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.

 then Newton's method would be  D ( x ) = -[ Ñ 2 V ( x )] -1 ÑV ( x )  (1) 58  .1996].  hidden  layer.  and  an  output  z  ˆ [Beale  et  al. Therefore. which we want to minimize with respect to the parameter  vector (x).  1994].5 [Beale et al.  Figure 2: Feed­forward neural network model  This  research  employed  supervised  learning  where  the  target  values  for  the  output  are  presented to the network.  The  training  or  learning  of  the  network occurs through the introduction of cycles of data patterns (epochs or iterations) to the  network. Suppose a function V (x). No 1.  neural network fitting tool (nftool) of MATLAB7. In the input layer each neuron is  designated  to  one  of  the  input  parameters. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  Neurons are arranged in layers. DINDIGUL  Volume 2. The error is then back propagated through the  network and weights are adjusted as the network attempts to decrease the prediction error by  optimizing  the  weights  that  contribute  most  to  the  error. The function is largely established  based on the connections between elements of the network. There is  no specific rule that dictates the number of hidden layers.  weights  wi. After  training  network  verification  is  applied  in  which  only  the  input  values  are  presented  to  the  network so that the success of the training can be established an algorithm that trains ANN 10  to  100  times  faster  than  the  usual  back  propagation  algorithm  is  the  Levenberg­Marquardt  algorithm. it is common practice to divide the data set into a  learning data set that is used to train the network and a validation data set that is used to test  network  performance. Supervised learning  attempts to match the output of the network to values that  have already been defined.  In  this  paper. an input layer. and an output layer.  Figure  2  shows  the  representation  of  neural  network  diagram  with  inputs  ai.  If  the  network  over  learns  the  training data it is more difficult for the network to generalize to a data set that was not seen  by the network during training.  The  network  learns  by  applying  a  back­  propagation  algorithm  which  compares  the  neural  network  simulated  output  values  to  the  actual values and calculates a prediction error.  the  Levenberg­Marquardt algorithm has been employed which  is an approximation to Newton's  method.  One  problem  with  neural  network  training  is  the  tendency  for  the  network  to  memorize  the  training  data  after  an extended  learning  phase. hidden layer(s).1996] has been used. the Levenberg­Marquardt  algorithm  is  a  variation  of  Newton's  method  [Hagan  et  al. While back propagation is a steepest descent algorithm.  In  the  present study. in order for the network to update its weights. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.

  Ñ 2 V(X) is the Hessian matrix and Ñ  V(X) is the gradient. given by  D x = -[ J T ( x ) J ( x )] . Here. the matrix J T (x) J(x) may not be  invertible. Nevertheless. If we assume V (X) is a  sum of square of errors. which should provide faster convergence. the performance function is always reduced at 59  .e.  which  consists  in  finding the update given by  D x = ..  e(x) is the error vector. 1994]. DINDIGUL  Volume 2. In this way. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. J ( x ) is the Jacobian matrix given by  é ¶ e 1 (x)  ¶ e  (x)  1  ¶ e  (x)  ù 1  ê L ú ê ¶ x 1  ¶ x  2  ¶ x  n  ú ê ¶ e  (x)  ¶ e  (x)  ¶ e  (x)  ú ê 2  2  L 2  ú J(x)  =  ê ¶ x  ¶ x  ¶ x  n  ú (5)  1  2  ê M M O M ú ê ¶ e  (x)  ¶ e  (x)  ¶ e  (x)  ú ê N  N  K N  ú ê ¶ x  ¶ x  ¶ x  n  ú ë 1  2  û and S(x) is given by N  S ( x )  =  å e i ( x ) Ñ 2 e i ( x )  (6)  i =1  Neglecting the second­order derivatives of the error vector.1 J T  ( x ) e ( x )  (9)  When the scalar µ is very small or null. the  algorithm  becomes  steepest  descent. No 1.Thus. the Levenberg­Marquardt algorithm becomes Gauss­  Newton. the  Hessian matrix is given by  Ñ  2 V ( x )  = J T  ( x ) J ( x )  (7)  and substituting (7) and (3) into (1) we obtain the Gauss­Newton update.  µ  is  decreased  after  each  successful  step  (reduction  in  performance  function)  and  is  increased  only  when  a  tentative  step  would  increase the performance function.  Hence. i. assuming that S(X) » 0. when the first  term within brackets of (9) is negligible with respect to the second term within brackets.[ J T  ( x ) J ( x )  + m I ] .    given by N  2  V(x)  =  å e  (x)  (2)  i  i  = 1  T  then  Ñ V ( x )  = 2 J  ( x ) e ( x )  (3)  Ñ  2 V ( x )  = 2 J T  ( x ) J ( x )  + S ( x )  (4)  where.  This  is  overcome  with  the  Levenberg­Marquardt  algorithm.  the  Levenberg­Marquardt  algorithm  provides  a  nice  compromise  between  the  speed  of  Gauss­Newton  and  the  guaranteed  convergence  of  steepest descent [Hagan et al. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  where. while for higher µ values. performance function which is the sum of squared  errors between the target outputs and the network's simulated outputs (as is typical in training  feed  forward  networks)  is  proportional  to  µ.1 J T ( x ) e ( x )  (8)  The advantage of Gauss­Newton over the standard Newton's method is that it does not  require calculation of second­order derivatives.

  Figure 3: Accuracy versus number of trials with different hidden neurons  Table 1: Performance evaluation of Training. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  each iteration  of  the  algorithm.  the  actual  river  data  using  ‘nftool’  of  MATLAB  was  used  to  train  the  neural  network  model.00427  0. Figure 3 shows  the performance accuracy employing different numbers of hidden nodes.00154  0.247  5.01391  3  Validatio  0. It requires many runs to converge or to get expected training. DINDIGUL  Volume 2.  first  convert  the  data  into  MATLAB  data  file  and  provide  as  input  to  nftool.42512  0.21259  0.00154  2  Testing  0.962  0.36880  0.9907  0. This model relates the  elevation to the volume of water stored in the reservoir.996  0.00427  3  Training  0.989  0.00582  2  Validatio  0.  This algorithm  appears to be  the  fastest  method  for training  moderate­sized feed forward neural networks.999  0.999  0.96882  0.03  5.999  0. Reservoir Level versus Capacity Model  The  modeling  of  water  stored  in  a  reservoir  forms  a  crucial  part  of  any  hydroelectric  operational study because it determines the gross head of each plant.  The  system  takes  60% of data for training. Once  the system was trained then it tests with remaining sample of data for testing.  3.01573 60  .74  22.9963  0.1 Modelling Using ANN  In  this  model  of  reservoir  level  (m)  versus  capacity  (MCM).9978  0.15  3.02  2.  3. No 1.967  1.7224  2.0573  1. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.01573  0. 20% for validation and 20% for testing.9948  1.985  0.5908  1.5515  0. so that the same data will  not be used for testing.12  5.72241  0. Validation and Testing  Number  Operation  MSE  MSE  MSE  R  R  R  Standard  Standard  of  Best  Worst  Average  Best  Worst  Average  deviation  deviation  Hidden  MSE  R  Neurons  2  Training  0.86132  0.  To  use  this  tool.1939  1.999  0.36757  0.999  0.

999  0. Here for best model chosen R  Square  is 0.44774  0.995  0.62321  0.00316  4  Validatio  0. In other  words  it  provides a  measure  of  how  well  future  outcomes  are  likely  to  be predicted by  the  model.52426  0. DINDIGUL  Volume 2.52  1..01291  5  Testing  0. while m å=1 ( y m  - y  m =1  sum of squares  R Square is a measure of the explanatory power of the model.  In figure  4  (a)  the  dashed  line  is  the  perfect  fit  line  where  outputs  and  targets  are  equal  to  each other.999  0.18  1.43776  0.645  18. The  circles  are  the  data points  and  coloured  line  represents  the  best  fit  between  outputs and targets.9078  54.999  0. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. å ( y m  ˆ m  ) 2  .36300  0.9857  0. 0.21082  0.13  1.  In  table1.5242  0. Figure 4(b) depicts  the training.y ) 2  . computed as M  M  å ( y m  .999  0.01  0.00155  5  Validatio  0.9987  0. so  our outputs  are  not far  from  targets.  training.12214  0.  it  can be  realized  that  the  best  hidden  unit with 99% accuracy is with 5 neurons with third trial for this model.  close  to  1.  validation  and  testing  respectively  as shown in figure 4(a).988  2.00196  5  Training  0.26670  0.00476 In order to check the sensitivity of  neural  network performance.4399  3.992  0. y m  =  å M  xm= the independent variable in the m th  trial M  M  2  2 å ( y m  - y )  ˆ m  )  represents residual  represents total sum of squares.63667  0.06  1.  From  the  graph.9982  0.3630  0.y ) 2  m =1  where.970  0.10  0.5519  0.5  0.999902  and 0.  hence  it  is  desired  that  R  square  values  to  be  very  high  i. The comparison  of actual  and predicted results  by  neural  network  model  for  reservoir  level  versus  reservoir  61  .995  0.9987  0. The training stops when MSE do not change significantly. standard deviation  and correlation coefficient R values provide how well model is close to actual values.01442  4  Training  0.64  0. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  3  Testing  0.8933  0.13  7. initialization of connection  weights.  and  the  desired  output  at  any  sample  ‘m’  respectively;  and  M  is  the  length  of  the  investigated data sets.00192  4  Testing  0.996  0.9977  0.97857  0.49348  0. validation and test mean square errors for Levenberg­Marquardt algorithm with  5 hidden neurons.98576  0.  The  performance was evaluated in terms of the correlation coefficient R. Here it is important to note that circles gather across the dashed line. which is used to assess the network performance and is given as  M  å ( y ( m )  .999  0.6541  0.  validation  and  testing  operations  have  been  performed  with  five  independent random trials for weight initialization as listed in table 1.966  0.988785  for  training.999  0.d ( m )) 2 m = 1  MSE  =  (10)  M  where  y(m)  and  d(m)  are  the  network  output.e.y  2  m =1  m = 1  R  =  M  (11)  å ( y i  .999939. No 1. ym = the observed dependent variable  ˆ m  = the fitted dependent variable for the independent variable xm y  y m  y = mean.11  54.54863  0. The comparison of the  mean  squared  error  values  indicates  the  average  squared  difference  between  outputs  and  targets.

  Error  plot  between  actual  and  predicted  results  by  neural  network  model  has  been  shown  in  figure  5(b). 62  . DINDIGUL  Volume 2.  validation.  validation and testing mean square errors for Levenberg­Marquardt algorithm with 5 neurons. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.  Figure  4  (a):  Regression  plots  for  actual  and  predicted  results  by  feed­forward  neural  network  model  for  training. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  capacity  model  has  been  shown  in  figure  5(a)  which  clearly  reveals  that  neural  network  model  has  tracked  the  experimental  data  closely.  testing  samples  and  all  data  set  (b):  shows  training. No 1.  which  is  within  quite  acceptable limits.

 No 1. DINDIGUL  Volume 2. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  Figure 5 (a): Plot of actual and predicted results for Reservoir level versus Capacity model  using Levenberg­Marquardt algorithm (b): shows Error Plot between Actual and Predicted  Results by neural network model 63  .

 1993] is a parametric procedure  Figure 6: ANOVA results obtained for Reservoir level versus Capacity  used to determine  the statistical significance  of  the difference  between  the means  of  two or  more  groups  of  values. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. No 1.2 Modelling Using ANOVA  Analysis of variance [Draper et al. DINDIGUL  Volume 2. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  3. 64  . 1998 and Myers et al.  ANOVA  techniques  are  applied  on  the  polynomial  of  different  degrees by fitting them on to data for reservoir level and reservoir capacity.

 Further analysis to regression R Value. Net head is gross head minus the pressure or head losses due  to  friction  and  turbulence  in  the  penstock. Standard error and Accuracy has been plotted in  figure 7 for different degrees of polynomials. 2009]. From the analysis of the  above graphical results it is evident that the higher order polynomial provides better fit in this  case. Gross head is the vertical distance between the top of the penstock and the point  where the water hits the turbine.  and  the  number  of  bends  or  elbows.  training. diameter.  Gross  head  can  be  used to estimate power availability and determine general feasibility. Standard error and Accuracy  The  graphical  curves  of  fit  obtained  are  shown  in  figure  6(a).  In  figure  6(b)  the  residuals  using ANOVA model for different polynomials  have been plotted.  The  amount  is  determined  by  the  water  level  of the  reservoir  of  the  preceding  day  and  the  water arriving from runoff. but net head is used to  calculate  the  actual  power  available.  4.  validation  and  testing  has  been  performed  with  five  independent  random  trials  for  weight  initialization  as  listed  in  table  2.  These  head  losses  depend on  the type.1 Modelling Using ANN  To  evaluate  neural  network  performance. Here in this section the head loss (m) versus water discharge rate  (m 3 s ­1 ) model analysis has been outlined. Head Loss versus Water Discharge Rate Model  When determining head (falling water).  4.  Figure  8  shows  the  performance  plot  employing  different 65  .  and  length  of  the  penstock  piping. gross or static head and net or dynamic head must be  considered.  electricity  demand  and  generation  scheduling  depend  on  water  released  during  the  next  day  through  generators  and/or  gates.  In  addition. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  Figure 7: Plot for R Value. No 1. The details of ANOVA analysis approach can  be referred in [Naresh et al. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. DINDIGUL  Volume 2.  initialization  of  connection  weights.

01296  2.11E­  0.9999  0.99999  7  0.56078  5  0.00048  2  n  Testing  8  0.99952  3  0.999  02  0.83E­  0.9999  0.00351  4  n  Testing  6  2.003  994  0.00016  5  Training  05  2.01624  0.999  0.999  0.91E­  2  Validatio  9  0.9997  9  0.00590  0.99998  0.99960  4  0.9988  4  0.83E­  0.063  986  0.999  82  0.23760  7  0.999  02  0.41E­  394  5.016  0.00607  908  0.003  0. From the graph. accuracy also increases.99991  8  0.9999  9  0.47E­  4  Validatio  0.218  999  0.74E­  537  0.00027  4.000  999  0.22E­  3  Testing  1.03209  4  Training  1.00012  3  Training  9.99999  0.156  998  0.99781  2.00351  0.  Figure 8: Accuracy versus number of trials with different hidden neurons  Table 2: Performance evaluation of Training.00407  5  Validatio  08  0.12E­  379  0.07951  05  0.00440  7.30692  0.00082  5  n  Testing  6  0.00564 66  . it can be realized that  the best hidden unit with good accuracy is achieved with 5 neurons units on third trial.80E­  3  Validatio  07  1.99999  7  0.003  999  0.022  0.9999  7  0.999  99  0. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.39617  0.  It  can  be  noted  from  the  graph  that  with  increase  in  number  of  neurons in the  hidden layer.9906  9  0.99548  6  8.00495  994  0.999  99  0. DINDIGUL  Volume 2. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  numbers  of  hidden  units.00516  06  1.012  303  0.000  0.307  999  0. No 1.9999  2  0.86  12  5.485  113  1.9999  0.007  0.99995  0.704  298  0.999  17  0. Validation and Testing  Number  Operation  MSE  MSE  MSE  R  R  R  Standard  Standard  of  Best  Worst  Avera  Best  Worst  Average  deviation  deviation  Hidden  ge  MSE  R  Neurons  2  Training  0.000  0.999  0.00300  26  1.039  0.999  56  0.00036  0.85E­  779  0.99998  0.187  52  0.00182  18.9999  2  0.073  0.008  183  0.000  537  0.00016  7  0.999  77  0.03209  0.299  303  0.073  1.9980  8  0.436  997  0.

14E­03  as  shown  in  figure  9(b).Validation vectors are used to stop training early if the network performance on  the validation vectors fails to improve or remains the same for max fail epochs in a row. but do not have any effect on training  Neural  Network  Toolbox. testing samples and  all data set (b):  shows training.999997  and  0. for  this model in MSE noted for validation is  3.  minimum  MSE  for  this  model  in  case  of  testing  is  2.999999.Test vectors are used as  a further check that the network is generalizing well. training is provided for 100 epochs. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  In this network.  Figure  9  (a):  Regression  plots  for  actual  and  predicted  results  by  feed­forward  neural  network model for training.  The  training  stops  when  MSE do not  change  significantly. As per the model 99%  of variation in dependent variable has been explained by independent variable. minimum MSE for best model in case of  training  is  2. 67  .41E­08  as  shown  in  figure 9  (b).01E­03 as in figure 9(b). validation. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.999997 for training.  0. validation and testing as shown in figure 9 (b). DINDIGUL  Volume 2.  Here  for  best  model  chosen  R  Square  is  0. No 1.  validation and testing mean square errors for Levenberg­Marquardt algorithm with 5 neurons.

INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. DINDIGUL  Volume 2. No 1. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  Figure 10 (a): Plot of actual and predicted results for head loss versus water discharge rate  model using Levenberg­Marquardt algorithm Figure 10 (b): Error plot between actual and  predicted results by NN Model 68  .

  4. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.  The  best  fitting  was  obtained  for  3 rd  order  model  with  99.  Also.2 Modelling Using ANOVA  Figure 11: ANOVA results obtained for head loss versus water discharge rate  It  can  be  noted  from  figure  11(a) that  although  difference  between  the  cubic.  From  figure  10  (b)  it  can  be  seen  that  small  amount  of  errors  are  present in the beginning of the predicted results and afterwards the neural network model is  predicting quite well.  this  model  provides  good 69  . DINDIGUL  Volume 2.9893%  accuracy  with  minimum  standard  error  obtained  among  all  as  shown  in  figure  12. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  The  comparison  between  actual  and  predicted  results  by  neural  network  model  is  shown  above  in  figure  10  (a). No 1.4 th  .5 th  and 6 th  degree Polynomials were small and predicted data gets converged with the actual data for all.

 DINDIGUL  Volume 2.  However. 2009]. 70  .  During  modelling  process  60%  of  the  available  data  is  used  for  training.  especially for the optimal generation. These models in a way  help  in  effective  utilization  of  available  water  that  can  help  us  to  fight  against  uncertainty. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH.  the  developed  models  are  compared  with  ANOVA  approach. Standard error and Accuracy  5.  The  data  for  each  class  are  chosen  randomly  from  the  data  set. No 1.  ANN  proved  to  be  a  useful  tool  to  predict  and  estimate  non­linear  relationship between the variables because of its adaptive capability.  20%  is  used  for  cross  validation  and  20%  is  used  for  testing. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  significant fit with regression R value 0. Figure 12: Plot for R Value.  Further.99. scheduling of the run­of­ river project in a multipurpose  context and also can be used as an effective input to the decision support system for real­time  operation  of  reservoir  systems  that  results  in  increased  power  production  and  enhanced  revenue earnings in the process of planning and management of a water resources project. More details regarding this model can be found in  [Naresh et al.  Predicted  results  by  ANN  and  ANOVA  analysis  are  quite  cohesive  to  the  actual  results  of  Sewa  river. reservoir level versus capacity model and head loss  versus  water  discharge  rate  model  have  been  developed  using  artificial  neural  network. Conclusion  In this paper two hydro electric models.

2336 – 2339. India for carrying out this work.H. IEEE Region 10  Conference. 1993: Probability and Statistics for Engineers and Scientist.  2004:  The  Indian  medicine. No 1. pp.  1988:  Optimization  of  the  production  of  hydroelectric  power  systems  with  a  variable  head.Pws  Pub  Co.. References  1.M. 71  .  IEEE Trans.  Boston. pp.  In  Proceedings  of  POWERCON  2008  &  2008  IEEE  Power  India Conference (Joint International Conference). on Neural Networks.B.  Deshmukh  et al.  Christensen  and  Soliman. pp. 5(6).1­6.1­6.  Beale.  5.  Fauset. Springer Netherlands. New York.  In  IEEE  Power  Engineering  Society  General Meeting.M.  2008:  Generation  Dispatch  with  Storage  and  Renewables  under Availability Based Tariff. In Proceedings of TENCON 2008. 17(3). U.  3. 58(2). New York.. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  6.  3rd  edition  John  Wiley  &  Sons.  IEEE  Trans. on Power Systems.  1994:  Fundamentals  of  Neural  Networks. New Delhi.  Senjyu  et  al. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. Chicago. New York.2.  Geetha  and  Jayashankar. pp. In Proceedings of IEEE Trans. US.  12. Vol. pp. 17(1).  2. 61(1).  8. DINDIGUL  Volume 2. pp.  11.  4. 2008: Optimal Generation Scheduling under ABT using Forecasted  Load  and  Frequency.S. 5th  edition.  2002:  Neural  network  load  forecasting  with  weather  ensemble  predictions.  1994:  Training  feed  forward  networks  with  the  Marquardt  algorithm.  Draper  and  Smith.  Buizza  and  Taylor.T.. Massachusetts. on Power Systems.301­317.  Bhushan  et  al.. pp.  2002:  One­hour­ahead  load  forecasting  using  neural  network. Myers and Walpole.  1999:  Reservoir  Inflow  Forecasting  Using  Neural  Networks.  In  Proceedings of the American Power Conference.  6.Demuth.  9.  1998:  Applied  Regression  Analysis. Hagan  and  Menhaj.1996. Subramanian  et  al.220­226. Acknowledgment  The authors are grateful for the kind support rendered by the Electronics division of BHEL  Bangalore.  Prentice­Hall  International. Mac Millan Publishing Company.  In  Journal  of  Optimization  Theory  and  Applications.A.  7.989­993.  10...113­118.626­632.and  Hagan.Neural  Network  Design.  7.  3rd  edition. pp.

Naresh  et  al. No 1.  14. Wood and Wollenberg. 16­  17 March 2009. New York. 2010  © Copyright 2010 All rights reserved Integrated Publishing Association  RESEARCH ARTICLE  ISSN ­ 0976­4259  13. DINDIGUL  Volume 2..261­264. 2nd edition. and Control.  15. 72  . Columbia. In Proceedings  of the IEEE Southeast Conference. Operation. 1984: Power Generation.  John Wiley & Sons. ISBN:978­93­80043­10­4.338­342. INTERNATIONAL JOURNAL OF APPLIED ENGINEERING RESEARCH. pp. India. Randall and Tagliarini. In Proceedings of National Conference­TACT­09. NIT­Hamirpur.  2009:  Hydro  Electric  Generation  Models  for  Hydro  Power  Station  Studies. US. pp. 2002: Using feed forward neural networks to model the effect  of precipitation on the water levels of the Northeast Cape Fear River.