با سلام- آیا اگر داده ها را بصورت Batch (انبوه) وارد شبکه کنیم و سپس در این حالت از روش بهینه سازی Stochastic Gradient Descent برای بهینه سازی اوزان در کدهای متلب خود استفاده کنیم، روش گرادیان نزولی تصادفی در حالت batch باعث کند شدن سرعت همگرایی شبکه میشود؟
خواستم بدانم که جمله مقابل به همین موضوع اشاره دارد؟ در روش آموزش Batch، اعمال الگوها بصورت تصادفی تاثیری در آموزش شبکه عصبی ندارد؟
و این جمله غلط است یا صحیح؟