Jump to content

Sotka

Members
  • Content Count

    75
  • Joined

  • Last visited

Everything posted by Sotka

  1. Can someone from the developers please let me know in which files the view angles for iCommandViewCamera** views are defined (these are called "glance" views in DCS). The nice feature of these is that if I assign iCommandViewCameraUp to Num5 and the rest of iCommandViewCamera** views to the corresponding numpad keys I get almost the same behavior as in the old viewsystem of Warbirds-> Aces High-> IL-2. That is, iCommandViewCameraUp modifies other iCommandViewCamera** views to look up. One cannot get the same with DCS "snap" views. If I press a key (Num7) bound to, say, iCommandVie
  2. Нет, почитайте книгу по reinforcement learning - учиться бот сам, ему функции поощрения задали - вот он и учится прогоняя эпизоды. А ещё есть работы по совместному самообучению ботов. Не надо путать supervised leaning и reinforcement. Наука вперёд двигается и говорить что "какие бы методы не были то никогда не будет чего-то" это пардон близорукость. NERO рассчитан на то что он будет приспосабливаться к особенностям игрока, поэтому без человека который даёт добро не обходится. Идея в том что как играть будешь (а не учить), бот будет сам настраиваться.
  3. Опять же надеясь что человек разрабатывающий ИИ для Локона читает.. Интересная работа по самообучающемуся ИИ в реальном масштабе времени (reinforcement learning applied to neural network topologies) сделана под руководством Проф. Risto Miikkulainen из The University of Texas, Austin. Он сам спец. по нейронным сетям. Система NERO - первая работающая версия в Мае 2004, не совсем fighter combat, но главное принцип работы. Reinforcement learning используется для мутирования нейросетей по ботов согласно их успеху/неуспеху в игре против людей. Боты приспосабливаются играть и побеждать в зависимос
  4. Абсолютно, с небольшими изменениями по сравнению с языком в Fleet Command. SCX3.0 стал последней user community-made модификацией которая стала стандартом и для on-line. Поведение объектов гораздо более продуманное чем в release. Давно пора дать часть ИИ на откуп useram - через скрипты только, не через сам source. Особенно для тех кто не играет по сетке и больше любит конструировать ботов и их войны в компьютерной "песочнице". Кстати и учёные в области ИИ используют "миры" игр для демонстрации своих идей. SOAR о котором я упоминал был приложен к Quake, тк Quake предоставил хороший внешн
  5. Было бы очень интересно задавать хоть часть поведения ИИ скриптом. Что то подобное было сделано в морски симуляторах Fleet Command, SubCommand, Dangerous Waters by Sonalysts. Например задавать групповые действия вроде drag или pincers, использовать рельеф местности для засад и прочих хитростей и уловок. Даже после того как игрок привыкнет к репертуару ИИ будет возможность разнообразить игру. Это так же даёт возможность игрокам доработать поведение ИИ объектов до которых у разработчиков не хватило времени (вроде ЗРК или кораблей). В случае с SubCommand так и случилось - поведение ИИ объекто
  6. Попробуй Су-25 против колонны c Avenger, да и миссии из ГС. После как 10 раз подряд сбивали ведомого в первые 30сек боя меня достало - его сразу отсылать обратно надо.
  7. Нет он справа был. http://i5.photobucket.com/albums/y158/tomDelay/Snaruzhi2.jpg http://i5.photobucket.com/albums/y158/tomDelay/Snaruzhi1.jpg
  8. Это элементарные поправки. Баланса не наблюдаю - Стингеры сбивают ботов на раз. В training описаны манёвры кторые ИИ не может парировать никак. Заставить бот крутить удава или пускть ракету на эффективной дальности легко - и хоть какой то баланс будет.
  9. Такое получилось на автопилоте Alt-3. Очевидно что высота намного больше 21м. http://i5.photobucket.com/albums/y158/tomDelay/HUD21p.jpg http://i5.photobucket.com/albums/y158/tomDelay/HUDpanel21p.jpg http://i5.photobucket.com/albums/y158/tomDelay/Panel21p.jpg
  10. Боты должны выбирать цель по степени угрозы. Ещё во Фланкере та же проблема была. А так выбором порядка зениток в колонне можно добиться уничтожения ботов. Хорошо было бы если боты умели отстреливать ловушки сериями - а то в первые 30сек атаки бот ведомый часто сбит. Ну и добавить "удава" в репертуар ботов плюс задержку пуска до эффективной дальности. Без приоритетов по целям и разумного использования ловушек очень трудно сохранить бота-ведомого до посадки. У меня впечатление что боты и сухогрузом не пользуются.
  11. Та же фигня - получалось избавиться перзагрузкой миссии с изменённой разрядностью цвета. Обычно с 16 на 32 ставил и начинало работать. Desktop у меня в 32bit color, может связано.
  12. Ну он то излучает - как бы он тогда ракеты пускал. Я сам SEAD flight вёл - все ЗРК на ИЛСе появились. Давал команду уничтожить ведомому - он ни одной ARM ракеты не пустил, в это время ЗРК в колонне (Roland) сбивали основную группу. Запишите трек где ведомый уничтожает Roland и Gepard в колонне ARM ракетами (Х-58, Х-25МПУ) с этого mis файла. Su25t_column_Vihr2.rar
  13. Так я по всякому пытался - и SEAD отдельно и в составе пакета и с заданной целью и без, разные типы самолётов перепробовал. Даже когда сам SEAD flight'ом управлял, то ведомый ни за что Х-58, 25МПУ не использовал если я прямо указывал атаковать ЗРК.
  14. Даже после как ЗРК захватывают самолёты ИИ - нет никакой реакции кроме одиночного отстрела ловушек. Я ставил SEAD flight - они разворачиваются и уходят от колонны оставляя подопечных на уничтожение - пробовал обозначить колонну как цель для SEAD - никакой реакции. Есть ли возмржность обозначить отдельный объект из колонны как цель ? Сейчас ставить ЗРК в колоннах не имеет смысла.
  15. Это в supervised learning натаскивается экспертом, в reinforcement натаскивается сама. В популярном учебнике ИИ Norviga упоминается о системе кoторая реально научилась выполнять управление поворотами самолёта. Mance Harmon сделал систему для самоообучающейся ракеты будучи студентом - как проект для одного из курсов. Конечно это была модель, но концептуальная сложность была преодолена. TACAIR-SOAR был сделан не военными - это скромные академические лаборатории которые получают от 2млн до 500к в год. К примеру система координации вертолётов STEAM была разработана в лаборатории Проф Mil
  16. Нет, в том то и дело что действия в каждом состоянии являются элементарными - для самолёта это будут отклонения РУС и РУД. Это не типовые действия как достичь определённой цели. Задача функции поощрения и дискретизация состояний сложнее. Reinforcement learning был предложен Rich Sutton' ом - http://www.cs.ualberta.ca/~sutton/index.html Вщт в этой книжке описаны методы обновления состояний - http://www.cs.ualberta.ca/~sutton/book/the-book.html Здесь tutorial по RL - http://www.nbu.bg/cogs/events/2000/Readings/Petrov/rltutorial.pdf Где то я видел статью где описан опыт применени
  17. А тот кто ИИ писал в отпуске ? Людей c Soar technologies можно спрость если что непонятно - код для общего Soar можно скачать - там ещё куча статей с увеличивающейся степенью сложности. Любой к.т.н. кто брал продвинутые купрсы по ИИ, machine learning, reinforcement learning и может multi-agent systems может разобраться. Когда то давно - ещё в 97-м 98-м сам написал простенького самообучаещегося агента по методу reinforcement learning. Проблема была в дискретизации пространства, выборе функции поощрения ну и коэффициентов для функции изменения весов действий в состояниях - в чём и заключалось
  18. При High Effects при выпуске ловушек если они НЕ в кадре - их не видно - то фпс всё равно зверски падает с 45 до 14-15. Haze на Basic и Lights на Weapons, так что прорисовки подсветки ловушек самолёта тоже нет - вид из кабины прямо. Причём с Low Effects или без Effects то этого не наблюдается т.е. дело не в просчёте физики.
  19. При посадке на этой верт скорости взрывается, каким образом если на брюхо то ничего не случилось ? Там что то не так, он даже по земле не тащился почти - плюх и стал.
  20. После как 16 ловушек и сухогруз не помогли с ПЗРК, грохнулся на -6м/c, причём скорость 230кмч за секунду исчезла. Su25t_ZSU.rar
  21. Для моей системы больше всего влияние оказывают дальность и Haze на Advanced с Lights to All днём. Ночью освещение солнца не просчитывается так что Advanced Haze при Lights All идёт нормально. Вот вопрос к разработчикам. Preload на 100км рекомендуется для систем с 1Г, но субъективно мне кажется появляются рывки. Хоть Preload помогает если за 100км не вылетать но ведь как следующий квадрат грузится то задержка больше. Preload по квадратам ? Я прав что задержка при смене квадратов больше при подгрузке 100x100км чем при 50x50км? Насколько я понимаю "необьяснимые" задержки при хороших кадра
  22. Надо делать самообучаемых. Интересно как ИИ в Локоне сыграл бы относительно SOAR наверняка ваши ИИ экперты что то об этом знают: http://sitemaker.umich.edu/soar Capabilities * Single Learning Mechanism * Multi-Method Learning o Learning by Instruction o Simple Concept Acquisition o Abstraction o Learning by Analogy R. M. Jones, J. E. Laird, P. E. Nielsen, K. J. Coulter, P. Kenny, and F. V. Koss. Automated intelligent pilots for combat flight simulation. AI Magazine, 20(1):27--42, 1999. " In 1992, we began development of a
  23. А что там в треке что аж 2М ? Возлушно-наземная операция на фоне посадки ? В принципе то же что в демо - вектор скорости по полосе и перед самым касанием продольную ось поставить по полосе тоже и тут же коснутся полосы пока не сдуло. Надо только было ручку дальше против ветра двигать.
  24. Спасибо, View.cfg остался в папке от предыдущей версии и я спутал.
×
×
  • Create New...