La robotique dans toute sa splendeur

Via les équations Jacobienne
Objectif: comprendre et réaliser les calculs liés aux robots.


Soit une pince au bout d'un robot, nous souhaitons aller de la position $\begin{equation*} P_{a} = \begin{pmatrix} X_1\\ Y_1\\ Z_1\\ Rx_1\\ Ry_1\\ Rz_1 \end{pmatrix} \end{equation*}$ à la position $\begin{equation*} P_{b} = \begin{pmatrix} X_2\\ Y_2\\ Z_2\\ Rx_2\\ Ry_2\\ Rz_2 \end{pmatrix} \end{equation*}$
Pour cela il faut connaitre les coordonnées articulaire associées de $\begin{equation*} q_{a} = \begin{pmatrix} q_1\\ q_2\\ q_3\\ q_4\\ q_5\\ \end{pmatrix} \end{equation*}$ à $\begin{equation*} q_{b} = \begin{pmatrix} q\prime_1\\ q\prime_2\\ q\prime_3\\ q\prime_4\\ q\prime_5\\ \end{pmatrix} \end{equation*}$

Modélisation Géométrique Directe (MGD)

Soit la rotation des articulations $\begin{equation*} q_{a} = \begin{pmatrix} q_1\\ q_2\\ q_3\\ q_4\\ q_5\\ \end{pmatrix} \end{equation*}$
$P_{a}=f(q_{a})$

Exemple de modèle géometrique directe avec deux effecteurs.


Recherche des coordonnées opérationnel du point P dans le repère 0, en fonction des coordonnées articulaires $q_1$ et $q_2$

Déterminer les matrices de transformation homogène $^0T_2$

La rotation entre le repère $i$ et le repère $j$, $^iR_j$.
La position du centre de repère $j$ dans le repère $j$, $^iO_j$.
$^iT_j = \begin{bmatrix} & & & \\ & ^iR_j & & ^iO_j \\ & & & \\ 0 & 0 & 0 & 1 \end{bmatrix}$

Pour $^0T_1$ rotation autour de $Z$
$^0T_1 = \begin{bmatrix} & & & \\ & ^0R_1 & & ^0O_1 \\ & & & \\ 0 & 0 & 0 & 1 \end{bmatrix}\\ = \begin{bmatrix} \cos q_1 & - \sin q_1 & 0 & 0 \\ \sin q_1 & \cos q_1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} $

Pour $^1T_2$ rotation autour de $Z$
$^1T_2 = \begin{bmatrix} & & & \\ &^1R_2& & ^1O_2\\ & & & \\ 0 & 0 & 0 & 1 \end{bmatrix}\\ = \begin{bmatrix} \cos q_2 & - \sin q_2 & 0 & l_1 \\ \sin q_2 & \cos q_2 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{bmatrix} $

Multiplication des deux matrices, recherche de $^0T_2=^0T_1 \times ^1T_2$

$^0T_2=\begin{bmatrix} \cos(q_1+q_2) & -sin(q_1+q_2) & 0 & L_1\cdot \cos(q_1) \\ \sin(q_1+q_2) & \cos(q_1+q_2) & 0 & L_1\cdot \sin(q_1) \\ 0 & 0 & 1 & 0 \\ L_1 & 0 & 0 & 1 \end{bmatrix}\\$

Pour connaitre la position de P dans le repère 0, il faut positionner P dans le repère 2:
$^2P=\begin{bmatrix} L_2\\ 0\\ 0\\ 1 \end{bmatrix}\\$

On trouve donc $^0P$
$^0P=^0T_2\times ^2P=\begin{bmatrix} \cos(q_1+q_2) & -sin(q_1+q_2) & 0 & L_1\cdot \cos(q_1) \\ \sin(q_1+q_2) & \cos(q_1+q_2) & 0 & L_1\cdot \sin(q_1) \\ 0 & 0 & 1 & 0 \\ L1 & 0 & 0 & 1 \end{bmatrix}\\ \times \begin{bmatrix} L_2\\ 0\\ 0\\ 1 \end{bmatrix}\\=\begin{bmatrix} L_1 \cos q_1+L_2 \cos(q_1+q_2) \\ L_1 \sin q_1+L_2 \sin(q_1+q_2) \\ 0 \\ 1 \end{bmatrix}\\$

Le modèle géométrique inverse (MGI)

Recherche des cordonnées articulaires à partir des coordonnées cartésienne (dites opérationnel, position dans l'espace X,Y,Z de chaque articulation)
$q_{a}=f^{-1}(P_{a})$

Détermination via la matrice Jacobienne


Reprenons les équations du pint P dans le repère 0:
$P=\begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} L_1 \cos q_1+L_2 \cos(q_1+q_2) \\ L_1 \sin q_1+L_2 \sin(q_1+q_2) \end{pmatrix}$

Pour déterminer l'équation Jacobienne, il faut dériver les coordonnées opérationnel par les coordonnées articulaires :
$J=\begin{pmatrix} \dfrac{\partial x_P}{\partial q_1} & \dfrac{\partial x_P}{\partial q_2} \\ \dfrac{\partial y_P}{\partial q_1} & \dfrac{\partial y_P}{\partial q_2} \end{pmatrix}=\begin{pmatrix} -L_1 \sin q_1-L_2 \sin(q_1+q_2) & -L_2 \sin(q_1+q_2)\\ L_1 \cos q_1+L_2 \cos(q_1+q_2) & L_2 \cos(q_1+q_2) \end{pmatrix}$

Cette matrice Jacobienne permet de déterminer, par exemple les vitesses :
$\dot P=\begin{pmatrix} V_x \\ V_y \end{pmatrix} = J(q) \times \begin{pmatrix} \dot q_1 \\ \dot q_2 \end{pmatrix}$

$dX= J(q) \times dq$, cette équation lie les petits déplacements de l'espace articulaire vers l'espace opérationnel

Le modèle cinématique inverse

Dans le cas général : $\dot P= J(q) \cdot \dot q$

alors $\dot q=\dfrac{\dot P}{J(q)}=\dot P \cdot J(q)^{-1}$

Remarques
La matrice P est une matrice de type $m\times 1$ ou $m$ est le nombre d'effecteur.
La matrice q est une matrice de type $1\times 1$ ou $n$ est le nombre joints.
La matrice J(q) est une matrice de type $m\times n$.

Si le nombre de $m\neq n$ il faut que le déterminant de $J(q)\neq 0$, en effet si $J(q)=0$ c'est un singulatité (En robotique, la singularité est un point de l’espace que le robot ne peut atteindre. )
Si le nombre de $n>m$ le robot est dit redondant Dans notre exemple, cela arrive quand :
$|J(q)|=-L_1\cdot L_2\times \cos(q_1+q_2) \times \sin q_1 -L^2_2 \sin(q_1+q_2) \times \cos(q_1+q_2) + L_1 \cdot L_2 \cos q_1 \times \sin(q_1+q_2) +L^2_2 \sin(q_1+q_2) \cos(q_1+q_2) $
$|J(q)|=L_1 \cdot L_2 ( \cos q_1 \times \sin(q_1+q_2)-\sin q_1 \times \cos(q_1+q_2))$
Les deux termes $L^2_2-L^2_2$ s'annules, et Comme :$\sin(a)\cdot\cos(b)-\cos(a)\cdot\sin(b)=\sin(a-b)$
$\boldsymbol {|J(q)|}=L_1 \cdot L_2 \sin(q_1+q_2-q_1)=\boldsymbol{L_1 \cdot L_2 \sin(q_2)}$
en effet, lorsque l'angle $q_2$ est à 0° ou 180° la valeur de $\sin(q_2)=0$ donc $|J(p)|=0$, c'est une singularité, cela se symbolise également par le fait que le bras 2 ne peu pas se déplacer dans une direction, dans notre cas l'axe $x_1$.

Calcul de $J(q)^{-1}$ :
$J(q)=\begin{pmatrix} -L_1 \sin q_1-L_2 \sin(q_1+q_2) & L_1 \cos q_1+L_2 \cos(q_1+q_2)\\ -L_2 \sin(q_1+q_2) & L_2 \cos(q_1+q_2) \end{pmatrix}$
$J(q)^{-1}=\begin{pmatrix} \dfrac{\cos(q_1+q_2)}{L_1\sin(q2)} & \dfrac{\sin(q_1+q_2)}{L_1\sin(q2)} \\ \dfrac{-L_1\cos(q_1)-L_2\cos(q_1+q_2)}{L_1\cdot L_2 \sin(q2)} & \dfrac{-L_1\sin(q_1)-L_2\sin(q_1+q_2)}{L_1\cdot L_2 \sin(q2)}\end{pmatrix}$

Cas de la redondance

Un robot est redondant lorsque le nombre de degrés de liberté est inférieur au nombre d'articulations indépendantes (motorisées).
Ce genre de robot a donc plus d'actionneurs que nécessaire.
Cette propriété permet de préserver les capacités de déplacement de l'organe terminal en présence d'obstacles, le (ou les) degrés de liberté supplémentaire(s) autorisant leur contournement.
Il y a donc plusieurs solutions, pour la recherche de la solution optimale.
Utilisation de la matrice pseudo-inverse

Rappel d'opérations sur les Matrices

Rappel sur les matrices de rotations

Si les angles $\alpha$, $\beta$, et $\gamma$ sont respectivements les angles autour de $\vec x$,$\vec y$ et $\vec z$ les matrices de rotation sont les suivantes:
$\begin{array}{c c c} Rot_X(\alpha)=\begin{pmatrix} 1 & 0 & 0 \\ 0 & cos \alpha & -sin \alpha \\ 0 & sin \alpha & cos \alpha \end{pmatrix} & Rot_Y(\beta)=\begin{pmatrix} cos \beta & 0 & sin \beta \\ 0 & 1 & 0 \\ -sin \beta & 0 & cos \beta \end{pmatrix} & Rot_Z(\gamma)=\begin{pmatrix} cos \gamma & -sin \gamma & 0 \\ sin \gamma & cos \gamma & 0 \\ 0 & 0 & 1 \end{pmatrix} \\ \end{array}$
représente une rotation dont le lacet, le tangage et le roulis (également appelé angles de Cardan) ou en aéronautique (z:)Azimuth=lacet=yaw - $\alpha$ ; (y:)Tanguage=pitch - $\gamma$; (x:)Roulis=roll - $\beta$


Produit de matrice

$\forall i,j:c_{{ij}}=\sum_{{k=1}}^{n}a_{{ik}}b_{{kj}}=a_{{i1}}b_{{1j}}+a_{{i2}}b_{{2j}}+\cdots +a_{{in}}b_{{nj}}$
Soit le produit de deux matrices $A=(a_{ij})$ et $B=(b_{ij})$ de type $(m,n)$ noté $A\cdot B=(c_{ij})$, est une matrice de type $(m,n)$ donnée par $c_{ij}=a_{ij}\times b_{ij}$
Exemple :
$A_{ij}\cdot B_{ij} =C_{ij}$
$\begin{pmatrix} 1 & 3 & 2 & 4\\ 1 & 0 & 0 & 2\\ 1 & 2 & 2 & 3\\ 4 & 3 & 5 & 1 \end{pmatrix} \times \begin{pmatrix} 5 & 0 & 0 & 2\\ 7 & 5 & 0 & 8 \\ 2 & 1 & 1 & 1 \\2 & 1 & 1 & 0 \end{pmatrix}=$
$=\tiny\begin{pmatrix} (1\times 5+3\times 7+2\times 2+4\times 2) & (1\times 0+3\times 5+2\times 1+4\times 1) & (1\times 0+3\times 0+2\times 1+4\times 1) & (1\times 2+3\times 8+2\times 1+4\times 0) \\ (1\times 5+0\times 7+0\times 2+2\times 2) & (1\times 0+0\times 5+0\times 1+2\times 1) & (1\times 0+0\times 0+0\times 1+2\times 1) & (1\times 2+0\times 8+0\times 1+2\times 0) \\ (1\times 5+2\times 7+2\times 2+3\times 2) & (1\times 0+2\times 5+2\times 1+3\times 1) & (1\times 0+2\times 0+2\times 1+3\times 1) & (1\times 2+2\times 8+2\times 1+3\times 1)\\ (4\times 5+3\times 7+5\times 2+1\times 2) & (4\times 0+3\times 5+5\times 1+1\times 1) & (4\times 0+3\times 0+5\times 1+1\times 1) & (4\times 2+3\times 8+5\times 1+1\times 0) \end{pmatrix}=$
$=\begin{pmatrix} 38 & 21 & 6 & 28 \\ 9 & 2 & 2 & 2 \\ 29 & 15 & 5 & 20 \\ 53 & 21 & 6 & 37 \end{pmatrix}$

Transposé de matrice

C'est une opération simple, ou l'on inverse les lignes et les colonnes
$A=\begin{pmatrix} 38 & 21 & 6 & 28 \\ 9 & 2 & 2 & 2 \\ 29 & 15 & 5 & 20 \\ 53 & 21 & 6 & 37\\ \end{pmatrix}$
$A^T=\begin{pmatrix} 38 & 9 & 29 & 53 \\ 21 & 2 & 15 & 21 \\ 6 & 2 & 5 & 6 \\ 28 & 2 & 20 & 37 \\ \end{pmatrix}$

Le cofacteur Coef

de la forme $A=\begin{pmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{pmatrix}$
La methode sera la même pour exprimer les thermes.
Exemple du cofacteur $C_{11}=(-1)^{1+1}M_{11}$ cela tiens compte du signe. $C_{23}=(-1)^{2+3}M_{23}$. C'est bien la somme des cofacteurs qui donne le determinant.

Exemple avec des valeurs

$A=\begin{pmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \\ 1 & 2 & 2 \end{pmatrix}$
$C_{11}=+\begin{vmatrix} 0 & 0 \\ 2 & 2 \end{vmatrix}=0\times 2-0\times 2=0$ $C_{12}=-\begin{vmatrix} 1 & 0 \\ 1 & 2 \end{vmatrix}=-(1\times 2-0\times 1)=-2$ $C_{13}=+\begin{vmatrix} 1 & 0 \\ 1 & 2 \end{vmatrix}=1\times 2-0\times 1=2$
$C_{21}=-\begin{vmatrix} 3 & 2 \\ 2 & 2 \end{vmatrix}=-(3\times 2-2\times 2)=-2$ $C_{22}=+\begin{vmatrix} 1 & 2 \\ 1 & 2 \end{vmatrix}=1\times 2-1\times 2=0$ $C_{23}=-\begin{vmatrix} 1 & 3 \\ 1 & 2 \end{vmatrix}=-(1\times 2-3\times 1)=1$
$C_{31}=+\begin{vmatrix} 3 & 2 \\ 0 & 0 \end{vmatrix}=3\times 0-2\times 0=0$ $C_{32}=-\begin{vmatrix} 1 & 2 \\ 1 & 0 \end{vmatrix}=-(1\times 0-2\times 1)=2$ $C_{33}=+\begin{vmatrix} 1 & 3 \\ 1 & 0 \end{vmatrix}=1\times 0-3\times 1=-3$
$Coef(A)=\begin{pmatrix} 0 & -2 & 2 \\ -2 & 0 & 1 \\ 0 & 2 & -3 \end{pmatrix}$

La matrice adjointe Adj

La matrice adjointe n’est rien d’autre que la matrice cofacteur de A transposé. Elle se note : $Adj(A)=(Coef(A))^T$
Pour $A=\begin{pmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \\ 1 & 2 & 2 \end{pmatrix}$
$Adj(A)=\begin{pmatrix} 0 & -2 & 0 \\ -2 & 0 & 2 \\ 2 & 1 & -3 \end{pmatrix}$

Le déterminant d'une matrice

Le déterminant d’une matrice n’existe que pour les matrices carrées.
Pour calculer le déterminant, il faut faure la somme des cofacteurs, le resultat est un scalaire, donc un nombre
$det(A)=a{11}\cdot C_{11}+a{12}\cdot C_{12}+a{13}\cdot C_{13}+a{21}\cdot C_{21}+a{22}\cdot C_{22}+a{23}\cdot C_{23}+a{31}\cdot C_{31}+a{32}\cdot C_{32}+a{33}\cdot C_{33}$
Pour $A=\begin{pmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \\ 1 & 2 & 2 \end{pmatrix}$
$det(A)=0+(-2)+2+(-2)+0+1+0+2+(-3)=-2$

L'inverse d'une matice

Pour calculer l'inverse d'un matrice, il nous faut son déterminant et sa matrice adjointe.
L'inverse d'un matrice obéit à l'équation $A\cdot A^{-1}=A^{-1}\cdot A=I_n$, pour rappel $I_n$ est la matrice unité de la forme $I_n=\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}$
$A^{-1}=\dfrac{1}{det(A)}\times Adj(A)$
Pour $A=\begin{pmatrix} 1 & 3 & 2 \\ 1 & 0 & 0 \\ 1 & 2 & 2 \end{pmatrix}$
$A^{-1}=\dfrac{1}{-2}\times\begin{pmatrix} 0 & -2 & 0 \\ -2 & 0 & 2 \\ 2 & 1 & -3 \end{pmatrix}=\begin{pmatrix} 0 & 1 & 0 \\ 1 & 0 & -1 \\ -1 & -0.5 & 1.5 \end{pmatrix}$

Matice pseudo-inverse

Cette matrice à pour objectif d'un approximation des moindres carrés, il y a plus de d'équation que de variable, la matrice est donc rectangulaire.
La matrice pseudo-inverse ou inverse de Moore-Penrose, notée $A^+=(A^T\cdot A)^{-1}A^T$
Pour $A=\begin{bmatrix} 1 & -2 \\ -2 & 3 \\ 2 & -4 \end{bmatrix}$
$A^+=\Biggl(\begin{bmatrix} 1 & -2 & 2 \\ -2 & 3 & -4 \end{bmatrix} \times \begin{bmatrix} 1 & -2 \\ -2 & 3 \\ 2 & -4 \end{bmatrix}\Biggl)^{-1}\times \begin{bmatrix} 1 & -2 & 2 \\ -2 & 3 & -4 \end{bmatrix}$
$A^+=\begin{bmatrix} 9 & -16 \\ -16 & 29 \end{bmatrix}^{-1}\times \begin{bmatrix} 1 & -2 & 2 \\ -2 & 3 & -4 \end{bmatrix}$
$A^+=\begin{bmatrix} \dfrac{29}{5} & \dfrac{16}{5} \\ \dfrac{16}{5} & \dfrac{9}{5} \end{bmatrix}\times \begin{bmatrix} 1 & -2 & 2 \\ -2 & 3 & -4 \end{bmatrix}$

$A^+=\begin{bmatrix} \dfrac{-3}{5} & -2 & \dfrac{-6}{5} \\ \dfrac{-2}{5} & -1 & \dfrac{-4}{5}\end{bmatrix}$
Rappel sur la trigonométrie

Rappel sur les propriétés remarquables

$\sin^2t + \cos^2t = 1$
$\sin(-A)=-\sin(A)$
$\cos(-A)=\cos(A)$
$\sin (A + B) = \sin A \cos B + \cos A \sin B $
$\sin (A – B) = \sin A \cos B – \cos A \sin B $
$\cos (A + B) = \cos A \cos B – \sin A \sin B $
$\cos (A – B) = \cos A \cos B + \sin A \sin B $
$\sin 2A = 2\cdot \sin A \cos A $
$\cos 2A = \cos^2 A – \sin^2 A$

Rappel sur les dérivés trigonométrie

$\cos(A)'=-\sin(A)$
$\sin(A)'=cos(A)$
$\cos(u)'=-u'\cdot \sin(u)$
$\sin(u)'=u'\cdot \cos(u)$
Solution d'une système linéaire

n inconnues, n équations

Pour une approche de résolution d'équations classiques, par la méthode matriciel, nous avons autant d'inconnues que de solutions
$\Biggl\{ \begin{array}{c} 5x+2y=16\\ 4x+3y=17 \end{array}$ donne $A=\begin{bmatrix} 5 & 2 \\ 4 & 3\end{bmatrix}$ ; $B=\begin{bmatrix} 16 \\ 17\end{bmatrix}$ ; $X=\begin{bmatrix} x \\ y \end{bmatrix}$
$A\cdot X=B$ donc $X=\dfrac{B}{A}$ soit $X=B\cdot A^{-1}$
$A^{-1}\cdot A\cdot X=A^{-1}\cdot B$ donne $\boldsymbol{X=A^{-1}\cdot B}$ ou $A^{-1}$est la matrice inverse de A.
$A^{-1}=\begin{bmatrix} \dfrac{3}{7} & -\dfrac{2}{7} \\ -\dfrac{4}{7} & \dfrac{5}{7}\end{bmatrix}$
$X=B\cdot A^{-1}=\begin{bmatrix} \dfrac{3}{7} & -\dfrac{2}{7} \\ -\dfrac{4}{7} & \dfrac{5}{7}\end{bmatrix}\times \begin{bmatrix} 16 \\ 17\end{bmatrix}=\begin{bmatrix} 2 \\ 3\end{bmatrix}$
La solution de l'équation est $x=2$ et $y=3$

Système surdéterminé

Un système est dit surdéterminé si il y a plus d'équations que d'inconnues.
Exemple avec la recherche d'une droite des moindres carrés, à partir d'un nuage de point, recherche de la droite la plus significative.

$\Biggl\{ \begin{array}{c} x+3y=17 \\ 5x+7y=19 \\ 11x+13y=23 \end{array}$ donne $\begin{bmatrix} 1 & 3 \\ 5 & 7 \\ 11 & 13 \end{bmatrix} \begin{bmatrix} x \\ y \end{bmatrix}=\begin{bmatrix} 17 \\ 19 \\ 23\end{bmatrix}$
Comme la matrice n'est pas carrée, l'approche par la matrice inverse ne fonctionne pas.
La solution, la matrice pseudo-inverse ou inverse de Moore-Penrose, notée $A^+=(A^T\cdot A)^{-1}A^T$
$A \overrightarrow{x}=\overrightarrow{b}$, alors $(A^T\cdot A)\cdot x=A^T\cdot b$, ce qui donne $x=(A^T\cdot A)^{-1}A^T\cdot b$ soit $x=A^+\times b$
$A^+=\Biggl( \begin{bmatrix} 1 & 5 & 11 \\ 3 & 7 & 13 \end{bmatrix} \times \begin{bmatrix} 1 & 3 \\ 5 & 7 \\ 11 & 13 \end{bmatrix}\Biggl)^{-1}\times \begin{bmatrix} 1 & 5 & 11 \\ 3 & 7 & 13 \end{bmatrix} $
$A^+=\begin{bmatrix} 147 & 181 \\ 181 & 227 \end{bmatrix}^{-1}\times \begin{bmatrix} 1 & 5 & 11 \\ 3 & 7 & 13 \end{bmatrix} $
$A^+=\begin{bmatrix} \dfrac{227}{608} & \dfrac{-181}{608} \\ \dfrac{-181}{608} & \dfrac{147}{608} \end{bmatrix}\times \begin{bmatrix} 1 & 5 & 11 \\ 3 & 7 & 13 \end{bmatrix} $
$A^+=\begin{bmatrix} \dfrac{-316}{608} & \dfrac{-132}{608} & \dfrac{144}{608} \\ \dfrac{260}{608} & \dfrac{124}{608} & \dfrac{-80}{608} \end{bmatrix}$
Vérification de la matrice :
$A^+\times A=\begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}$, nous sommes bien sur la matrice d'identité
Recherche de la solution approchante :
$\begin{bmatrix} x \\ y \end{bmatrix}=A^+\times b=\begin{bmatrix} -0.5197 & -0.2171 & 0.23684 \\ 0.4276 & 0.2039 & -0.1316 \end{bmatrix} \times \begin{bmatrix} 17 \\ 19 \\ 23\end{bmatrix}$
$\begin{bmatrix} x \\ y \end{bmatrix}=\begin{bmatrix} -7.513 \\ -8.1184\end{bmatrix}$
On reprends chaque équation avec les valeurs de x et y
$\Biggl\{ \begin{array}{c} -7.513+3\times -8.1184 & =16.84 & \approx 17 \\ 5\times -7.513+7\times -8.1184 & =19.26 & \approx 19\\ 11\times -7.513+13\times -8.1184 & =22.89 & \approx 23\end{array}$