-
Notifications
You must be signed in to change notification settings - Fork 0
/
modifiedDMPv2.m
139 lines (121 loc) · 3.62 KB
/
modifiedDMPv2.m
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
clear all;close all;clc;
%% 演示轨迹
syms t;
%% 胡晋师兄的多项式 可演示巨大加速度
% 巨大加速的问题在改进模型中仍未解决
x = 2*t.^2+cos(4*pi*t).*(1-t)-1;
%% 轨迹的初末位置相同,系统无非线性外力项干涉,整个系统的状态将保持在初始状态
% 改进模型中这个问题已经解决
% x=-t.^5+3*t.^4-3*t.^3+t.^2; %改造后可演示镜像效果 镜像效果在改进模型中已经解决
xd = diff(x);
xdd = diff(xd);
% time step
dt = 0.001;
% time for demonstration
traj_time=1;
t=0:dt:traj_time;
% 演示轨迹初始化
x=eval(x);
xd=eval(xd);
xdd=eval(xdd);
%% 收敛多项式
% x = (tpoly(0,1,1001))';
% xd = diff(x)/dt;
% xd = [xd xd(end)];
% xdd = diff(xd)/dt;
% xdd = [xdd xdd(end)];
%% 最后速度匀速多项式
% xd=erf(t/0.3);
% for i=1:length(t)
% x(i)=sum(xd(1:i))*dt;
% end
% xdd = diff(xd)/dt;
% xdd = [xdd xdd(end)];
%% 对x xd xdd 的扩充,添加匀速运动阶段
% traj_time_vm=0.5;
% t_vm=dt:dt:traj_time_vm;
% dmp.vm=0;
% dmp.gm0=x(end);
% dmp.gm=dmp.gm0;%+dmp.vm*t_vm;
% dmp.gm=[x(end)*ones(1,length(x)) dmp.gm];
% t=[t,t_vm+t(end)];
% x = [x dmp.gm(length(x)+1:end)];
% xd = [xd ones(1,length(t_vm))*xd(end)];
% xdd = [xdd zeros(1,length(t_vm))];
% traj_time= traj_time+traj_time_vm;
%% DMP模型初始化
dmp.D = 15;
dmp.K = dmp.D.^2/4;
dmp.tau=traj_time; %dmp时间比例因子
dmp.x0=x(1);
dmp.g=x(end);
dmp.A=x(end)-x(1);
dmp.alpha=4;
% 权重函数初始化
n_w=length(t)/1; %权重函数个数 取100个,数量越多精度越高。最大值为训练数据个数。
dmp.wc=exp(-dmp.alpha/dmp.tau*(0:1/(n_w-1):1)'); %100*1 权重函数中心,注意由于从t映射到s,所以也要像权重函数那样取对数
dmp.wh=(diff(dmp.wc)*0.65).^2; %99*1 权重函数的宽度是按照中心间距来选择的
dmp.wh=1./[dmp.wh;dmp.wh(end)]; %100*1
% 规范函数
% dmp.s = exp((-dmp.alpha/dmp.tau).*t); %1*1001 %实测,这种求法与基本求法使dmp.psi差距达到3那么大
dmp.s = zeros(size(x));
dmp.s(1) = 1;
for i = 2:length(x),
dmp.s(i) = dmp.s(i-1)-dmp.alpha*dmp.s(i-1)*dmp.tau*dt;
end
%% w(i)的局部加权学习
% - weighting functions
dmp.psi = exp( -dmp.wh*ones(1,length(x)) .* ( ( ones(length(dmp.wc),1)*dmp.s - dmp.wc*ones(1,length(x)) ).^2 ) ); %100*1001
% modified transformation system1
% dmp.f = (dmp.tau.^2*xdd-dmp.K*(dmp.g-x)+dmp.D*dmp.tau*xd+dmp.K*dmp.A*dmp.s )/dmp.K; %1*1001
dmp.vm=dmp.tau*xd(end);
dmp.gm=x(end)-dmp.vm*traj_time+dmp.vm*t;
dmp.f = (dmp.tau.^2*xdd-dmp.K*(dmp.gm-x)-dmp.D*(dmp.vm-dmp.tau*xd)+dmp.K*(dmp.gm-dmp.x0).*dmp.s )/dmp.K; %1*1001
% fdemo = (demo_dd/tau^2-hmp.alpha_g*(1-Z).*(hmp.beta_g*(target-demo)+(hmp.target_d-demo_d)/tau))/hmp.A;
% locally weighted linear regression
wDen = sum( dmp.psi .* ( ones(length(dmp.wc),1)*(dmp.s) ) ,2);
wNum = sum( dmp.psi .* ( ones(length(dmp.wc),1)*(dmp.f) ) ,2);
dmp.w = wNum./(wDen+1.e-10);
%% 学习后轨迹再现
t_run = 0:dt:traj_time;
% dmp参数初始化
dmp.tau=1; %dmp时间比例因子
dmp.x0=x(1);
dmp.g=1.5*x(end);
dmp.vm=3.5;
dmp.A=x(end)-x(1);
% dmp.s1=1;
dmp.s1=1;
dmp.x1=x(1);
dmp.v1=dmp.tau*xd(1);
for i=1:length(t_run)
dmp.gm=dmp.g-dmp.vm*traj_time+dmp.vm*t_run(i);
dmp.tmp(i)=dmp.gm;
dmp.psi1 = exp(-dmp.wh.*((dmp.s1-dmp.wc).^2));
dmp.f1 = sum(dmp.psi1.*dmp.w*dmp.s1)/sum(dmp.psi1+1.e-10);
dmp.v1_d=(dmp.K*(dmp.gm-dmp.x1)+dmp.D*(dmp.vm-dmp.v1)-dmp.K*(dmp.gm-dmp.x0)*dmp.s1+dmp.K*dmp.f1)/dmp.tau;
dmp.x1_d=dmp.v1/dmp.tau;
dmp.x1_dd=dmp.v1_d/dmp.tau;
dmp.s1d = -dmp.alpha*dmp.s1/dmp.tau;
dmp.s1 = dmp.s1 + dt*dmp.s1d;
dmp.x1=dmp.x1+dmp.x1_d*dt;
dmp.v1=dmp.v1+dmp.v1_d*dt;
%每次循环存储数据
dmp.y(i)=dmp.x1;
dmp.yd(i)=dmp.x1_d;
dmp.ydd(i)=dmp.x1_dd;
end
subplot(1,3,1);
plot(t,x,'.g');
hold on
plot(t_run,dmp.tmp,'k')
hold on
plot(t_run,dmp.y,'r');
subplot(1,3,2);
plot(t,xd,'.g');
hold on
plot(t_run,dmp.yd,'r');
subplot(1,3,3);
plot(t,xdd,'.g');
hold on
plot(t_run,dmp.ydd,'r');